10 Millionen Meldungen pro Tag kommen aus der Software eines süddeutschen Anbieters und die BBC versteigt sich zu der Annahme, dass in sieben Jahren 90% aller “News” vom Computer geschrieben werden. Beide Behauptungen haben den Vorteil, dass sie nicht überprüfbar sind. Natürlich kann eine Software viele Millionen “Meldungen” pro Tag schreiben, auch die endlosen Ausdrucke eines Servers über seine sekündliche Verfügbarkeit sind schließlich “News”. Wenn die BBC den Begriff “News” neu formuliert als eine minimal einzeilige Meldung über das Wetter in “North-West Cambridge South-Central”, würde man sicher auf 90% compuergenerierte “pieces of content” kommen. Nur, diese beiden Beispiele erfüllen nicht einmal die vage Definition “Roboter-Journalismus”, es ist eine bloße Übertragung von Zahlen in Buchstaben, endlos weit entfernt von den Möglichkeiten, die computergenerierte Texte wirklich bieten können.
Das computergenerierte Inhalte auf hohem Niveau erfolgreich sein werden zeichnet sich deutlich ab. Noch ist vieles Experiment, wenn auch einige Medienhäuser bereits davon ausgehen, dass ihnen schlüsselfertige “ready to publish”-Lösungen angeboten werden. Was zwar möglich ist, aber dieses neue Werkzeug vieler Chancen beraubt. Textcomposing muß ein gemeinschaftliches Projekt sein, in der alle digitalen Erfahrungen des Verlages und die Datenanalyse- und Textgenerierungskompetenz des Dienstleisters einfliessen, um die maximale Wertschöpfung zu erzielen. Ein Medizin-Fachportal weiß, wie relevant Grippe-Epedimien in Asien für die fachkundigen Leser sind: aus der Datenbank des japanischen Gesundheitsministeriums lassen sich dazu mehrfach täglich Berichte generieren. Alle 15 Minuten eine aktuelle Textanalyse der drei Börsenindizies außerhalb des Dax zu erzeugen erfordert sekündlich 5.000 Datenbankabfragen bei der Börse (textomatic).
Zwei Schnittstellen machen das Thema mit dem irreführendem Namen Roboterjournalismus besonders spannend: die Verbindung zum Datenjournalismus auf der einen und der künstlichen Intelligenz auf der anderen Seite. Die Recherche von Datenquellen in aller Welt wird immer komplexer, Dank opendata und der Forderung von Teilen der Bevölkerung nach größerer Datentransparenz gibt es theoretisch immer mehr Informationen. Nur werden diese im Datendschungel ohne Expertenwissen nicht gefunden. Künstliche Intelligenz wird, nicht ohne Risiko, in wenigen Jahren dafür sorgen, dass ein Portal unmittelbar auf den User zugeschnittene Informationen in Echtzeit liefert. Und alles scheinbar (?) für den User weniger Relevante weglässt.