Man soll immer die Wahrheit sagen. In diesem Fall: es gibt keinen Roboterjournalismus. Es wird ihn nie geben. Denn Journalismus ist, wenn die Reporterin ein sensibles Portrait schreibt oder der Investigativ-Journalist eine Korruptionsaffäre aufdeckt, durch gründlich vorbereitete Interviews.
Aber es gibt Roboter, die mit Journalisten zusammen arbeiten, immer mehr. Wenn Verleger schlau sind nicht um Kosten zu senken, sondern um auf einem bezahlbarem Weg ganz neue Inhalte und News zu schaffen. Kollegial, im besten Einvernehmen, inspirierend und entlastend:
- Kein/e Reporter/in kann in Sekunden auf Grundlage einer gerade veröffentlichten Statistik Berichte für mehr als 400 Landkreise schreiben, mit einer interaktiven Karte versehen und für jede Region eine Grafik bauen. Der oder die Kollegin “Robot-Software” kann.
- Ein Bäcker in Dortmund oder eine Tischlerin in Flensburg interessieren sich möglicherweise nicht für die große deutschlandweite Arbeitsmarkt-Statistik, aber dafür, wieviele potentielle Auszubildende es in ihrer Region gibt. Der inhaltlich genau passende Bericht ist für die Software kein Problem.
- ReporterInnen die im Regen am Rande eines Aschenplatzes oder eines Handballspiels der 3.Liga stehen gibts schon lange nicht mehr. Hier sind selbst 200 Wörter Spielbericht mehr als gar kein Bericht. Randsportarten, untere Ligen – auf einmal finden sich Sportlerinnen und Sportler doch in den Medien wieder.
- Wer macht wo Urlaub? Für drei Touristikverbände erstellen wir Prognosen für die nächsten zwei Jahre, auf Grundlage mehrerer Terrabyte an Übernachtuns-, Reise- und Staudaten der Vergangenheit.
- Roboter&Journalismus macht auch dort Sinn, wo große Datenmengen aus unterschiedlichen Quellen verarbeitet werden müssen. Zur Zeit berichten wir (bzw. lassen wir berichten) über die Entwicklung des Wetters in Südafrika, zusätzlich allerdings mit satellitengestützten Prognosen zu den Wasserständen von Quellen und Feuchtgebieten. So wird selbst der Bericht über das Wetter zu einem wertvollen Beitrag.
- Für eine renommierte britische Zeitung fassen wir täglich zusammen, wie sich die gesamte globale Autoindustrie entwickelt, mitsamt Zulieferfirmen. Egal, an welchen Börsenplatz die Aktiengesellschaften notiert sind und nicht nur zum Tesla. Der Kunde nutzt diese Berichte für einen Bezahl-Newsletter.
Trotzdem wird es kein Medium geben, dass in den nächsten Jahren nicht auf automatisch generierte Inhalte setzen wird. Von dieser Entwicklung profitieren auch die Unternehmen, Institutionen und Verbände, die zwar immer mehr Daten sammeln und klassifizieren, diese aber ohne großen Aufwand kaum nutzbar machen können.
Warum sind die Möglichkeiten der automatischen Textgenerierung, ob für Medieninhalte, als Kundenberatungs-System für eine Bank oder als Produktbeschreibungen so faszinierend?
Die Faszination besteht in den fast unerschöpflichen Möglichkeiten, innerhalb Millisekunden große Datenmengen zu analysieren und das Ergebnis ebenso schnell in einer gut lesbaren Zusammenfassung zu präsentieren oder zu veröffentlichen. Dies aber nicht nur mit einer Quelle als Datengrundlage, auch die Zahl der Datenlieferanten ist fast beliebig.
Die aktuellen Notierungen von Chemieunternehmen an allen Börsenplätzen der Welt zusammengefasst in einem Beitrag, aktualisiert minütlich – das geht heute bereits problemlos. Wir fragen jede Sekunde 4.000 Mal die Frankfurter Börsendaten ab, um alle 15 Minuten einen neue Zusammenfassung zu für die “WELT” zu generieren.
Die BBC geht davon aus, dass in sieben Jahren 90% aller “News” vom Computer geschrieben werden. Natürlich kann eine Software viele Millionen “Meldungen” pro Tag schreiben, auch die endlosen Ausdrucke eines Servers über seine sekündliche Verfügbarkeit sind schließlich “News”. Wenn die BBC den Begriff “News” neu formuliert als eine minimal einzeilige Meldung über das Wetter in “North-West Cambridge South-Central”, würde man sicher auf 90% computergenerierte “pieces of content” kommen.
Nur, diese beiden Beispiele erfüllen nicht einmal die vage Definition “Roboterjournalismus“, es ist eine bloße Übertragung von Zahlen in Buchstaben, weit entfernt von den Möglichkeiten, die computergenerierte Texte wirklich bieten können.
Doch die BBC glaubt zu Recht an die 90%-Vorhersage, denn:
- Es wird immer mehr News auch für kleine und sehr kleine Zielgruppen geben, für die sich eine “menschengemachte” Berichterstattung nicht lohnt.
- In den zeitungslosen Gegenden Brandenburgs oder Frieslands werden automatisierte Meldungen zumindest eine Grundversorgung mit Informationen aufrecht erhalten.
- Die perfekte automatische Übersetzung von Medieninhalten wird zur Selbstverständlichkeit werden: warum nicht über Donald Trump in der “washington Post” lesen, wenn die Englischkenntnisse dies eigentlich nicht erlauben?
Das computergenerierte Inhalte auf hohem Niveau erfolgreich sein werden zeichnet sich deutlich ab. Noch ist vieles Experiment, wenn auch einige Medienhäuser bereits davon ausgehen, dass ihnen schlüsselfertige “ready to publish”-Lösungen angeboten werden. Was zwar möglich ist, aber dieses neue Werkzeug vieler Chancen beraubt.
Anspruchsvolles Textcomposing muß ein gemeinschaftliches Projekt sein, in der alle digitalen Erfahrungen des Verlages und die Datenanalyse- und Textgenerierungskompetenz des Dienstleisters einfliessen, um die maximale Wertschöpfung zu erzielen. Ein Medizin-Fachportal weiß, wie relevant Grippe-Epedimien in Asien für die fachkundigen Leser sind: aus der Datenbank des japanischen Gesundheitsministeriums lassen sich dazu mehrfach täglich Berichte generieren.
Zwei Schnittstellen machen das Thema mit dem irreführendem Namen Roboterjournalismus besonders spannend:
- die Verbindung zum Datenjournalismus: Die Recherche von Datenquellen in aller Welt wird immer komplexer, Dank opendata und der Forderung von Teilen der Bevölkerung nach größerer Datentransparenz gibt es theoretisch immer mehr Informationen. Nur werden diese im Datendschungel ohne Expertenwissen nicht gefunden und auch nicht analysiert.
- die Integration wirklicher künstlichen Intelligenz: künstliche Intelligenz wird, nicht ohne Risiko, in wenigen Jahren dafür sorgen, dass ein Portal unmittelbar auf den User zugeschnittene Informationen in Echtzeit liefert. Und alles scheinbar (?) für den User weniger Relevante weglässt. Diese Texte werden nicht mehr aus Datenbanken gespeist werden, sondern auch aus anderen Texten, sogar aus hunderten von Textquellen. Urheberrechtlich wird das ein schwieriges Thema sein .
Zur Zeit veröffentlichen wir jeden Tag viele Tausend Meldungen, die unsere Software geschrieben hat. Aber wie sie schreibt, schildert und erklärt beruht immer noch auf unseren Erfahrungen und unseren Vorgaben. Auf denen wirklicher Journalisten, in Zusammenarbeit mit Mathematikern und KI-Experten. Von Hand schreiben wir für digitaldaily.de – dort haben Roboterjournalisten (noch) Hausverbot.
Menschliche Anfragen gerne an
wolfgang.zehrt ed digitalkommunizieren.de oder Xing/linkedin