Medien 4.0: Die Reporter-Roboter kommen
Bei der amerikanischen Nachrichtenagentur Associated Press arbeiten längst nicht mehr nur Journalisten aus Fleisch und Blut. Seit einiger Zeit schreiben dort auch Roboter- Texte. Das heißt allerdings nicht, dass in den Redaktionsräumen humanoide Roboter sitzen, die eifrig in die Tasten tippen, sondern eine spezielle Software liest systematisch Datenquellen aus und bindet sie in vorgefertigte Textfragmente ein. Das funktioniert besonders gut in Bereichen, wo Daten strukturiert anfallen, also im Sport oder an der Börse. In den USA agieren vor allem die zwei jungen Unternehmen Automated Insights und Narrative Science am Roboter-Journalismus-Markt. Aber auch in Deutschland bietet das Stuttgarter Startup Aexea Software-Lösungen, die Texte auf Basis von Daten generiert.
Wetter, Finanzen und Sport
Die ersten automatisierten Meldungen waren Wetterberichte. Seit den 90er-Jahren können diese automatisch erstellt werden, weil die Sprache in diesem Bereich sehr wenig variiert und meteorologische Daten leicht auszulesen sind. Aber erst seit einigen Jahren sind die Roboter auch im Journalismus angekommen. Die Associated Press erstellt inzwischen ihre Berichte zu den Quartalszahlen von Unternehmen vollautomatisiert. Auch in der Sportberichterstattung werden robotergenerierte Meldungen immer beliebter. Die amerikanische Baseball-League – Baseball ist ein sehr zahlenintensiver Sport – veröffentlicht zu jedem Spiel detaillierte Statistiken, die dann von Systemen vonAutomated Insights und Narrative Science in Echtzeit in lesbare Artikel verwandelt werden können. Von Spannung, Emotion und Witz, wie man es aus der Sportberichterstattung kennt, ist in den automatisch generierten Texten allerdings keine Spur.
US-Trend kommt nach Deutschland
In Deutschland hat die Berliner Morgenpost mithilfe von automatisierter Datenauswertung ein Portal aufgebaut, das in Echtzeit auswertet, wo in Berlin die Feinstaubbelastung am höchsten ist. Aexea ist das Unternehmen, das bisher den deutschen Markt für Roboter-Journalismus bedient. Seit vielen Jahren generiert die E-Commerce-Sparte des Unternehmens automatisiert Produktbeschreibungen für Online-Shops. Auch der deutsche Sport-Informationsdienst hat einen Aexea-Roboter. Der macht aus Tabellen Texte zu Spielen. Damit ersetzt die Maschine aber bisher noch keine menschlichen Sportreporter, denn zu diesen Spielen würden im Normalfall erst gar keine Texte geschrieben. Der Roboter-Sportjournalist kann zwar Daten „crunchen“, aber dass ein 10:0-Ergebnis eine andere Tonart verlangt als ein 2:0-Sieg, müssen die menschlichen Kollegen ihm beibringen. Wenn Sachverhalte komplexer werden und ein Weltverständnis voraussetzen, das über die Algorythemenanalyse eines Roboters hinausgeht, müssen ohnehin die „echten“ Journalisten ran. Dass Roboter eines Tages politische Berichterstattung übernehmen, liegt also in weiter Ferne. In Deutschland fokussiert Aexea sich jetzt auf die Tageszeitungen und will dabei helfen, die meist aus Agenturmeldungen bestehenden Lokalteile und regional individualisiert und automatisiert zu erstellen.
Wie gut sind die Roboter-Berichte?
Ein computergenerierter Text liest sich derzeit noch deutlich anders als ein Artikel eines leibhaftigen Journalisten: „Der Journalismus lebt von der Zäsur, von dem Bruch, ja es auch ganz anders zu machen. Er lebt von dem, auch von den gedanklichen Exzessen, wenn sie so wollen. Und das alles ist dieser berechenbaren Welt fremd“, meint Hans-Jürgen Jakobs vom Handelsblatt. Vielleicht nicht sprachlich schön, aber zumindest glaubwürdig – so schätzen Leser Roboternachrichten in einer Studie von Münchener Kommunikationswissenschaftlern ein. „Computergenerierte Texte werden als sachlicher und glaubwürdiger empfunden, Texte von Journalistenhand hingegen sind angenehmer zu lesen“, sagt Mario Haim von der LMU München, der an der Untersuchung beteiligt war.
Ethische Fragen
Roboter generieren zwar inzwischen Nachrichten, aber die Verantwortung für Inhalte können Medien weiterhin nicht von sich weisen. Bisher gibt es allerdings keine eindeutigen Regeln für ethischen Algorithmen-Journalismus. Tom Kent, der bei der Associated Press für die journalistischen Standards zuständig ist, hat deswegen eine Checkliste für Redaktionen und Medienhäuser verfasst. Eine wichtige Frage betrifft die Datengrundlage, auf der die Meldungen basieren. Transparenz ist ein zweiter wichtiger Punkt. Leser müssen nach Ansicht von Tom Kent erkennen können, dass eine Meldung von einer Maschine erstellt wurde. Außerdem müssten die grundlegenden Algorithmen so verständlich sein, dass man seinen Lesern anschaulich erklären kann, wie eine Meldung zustande gekommen ist. Zu sagen „Das hat der Computer so ausgespuckt!“, sei keine ausreichende Erklärung. „Be ready!”, rät Kent den Medien. Denn in Zukunft könnten Maschinen noch viel komplexere Texte generieren und damit den Journalismus gehörig auf den Kopf stellen.