automated content

Warum sind die Möglichkeiten der automatischen Textgenerierung so faszinierend? Nicht, weil damit Shakespeare-ähnliche Texte möglich sind. Noch nicht zumindest. Die Faszination besteht in den fast unerschöpflichen Möglichkeiten, innerhalb von Millisekunden große Datenmengen zu analysieren und das Ergebnis ebenso schnell in einer gut lesbaren Zusammenfassung zu präsentieren oder zu veröffentlichen. Dies aber nicht nur mit einer Quelle als Datengrundlage, auch die Zahl der Datenlieferanten ist fast beliebig. Die aktuellen Notierungen von Chemieunternehmen an allen Börsenplätzen der Welt zusammengefasst in einem Beitrag, aktualisiert minütlich – das geht heute bereits problemlos. textomatic fragt jede Sekunde 4.000 Mal die Frankfurter Börsendaten ab, um alle 15 Minuten einen neue Zusammenfassung zu TecDax, SDax und MDax für das Handelsblatt zu generieren. Ohne Probleme.

10 Millionen Meldungen pro Tag kommen aus der Software eines süddeutschen Anbieters und die BBC versteigt sich zu der Annahme, dass in sieben Jahren 90% aller “News” vom Computer geschrieben werden. Beide Behauptungen haben den Vorteil, dass sie nicht überprüfbar sind. Natürlich kann eine Software viele Millionen “Meldungen” pro Tag schreiben, auch die endlosen Ausdrucke eines Servers über seine sekündliche Verfügbarkeit sind schließlich “News”. Wenn die BBC den Begriff “News” neu formuliert als eine minimal einzeilige Meldung über das Wetter in “North-West Cambridge South-Central”, würde man sicher auf 90% computergenerierte “pieces of content” kommen. Nur, diese beiden Beispiele erfüllen nicht einmal die vage Definition Roboterjournalismus, es ist eine bloße Übertragung von Zahlen in Buchstaben, endlos weit entfernt von den Möglichkeiten, die computergenerierte Texte wirklich bieten können.

Das computergenerierte Inhalte auf hohem Niveau erfolgreich sein werden zeichnet sich deutlich ab. Noch ist vieles Experiment, wenn auch einige Medienhäuser bereits davon ausgehen, dass ihnen schlüsselfertige “ready to publish”-Lösungen angeboten werden. Was zwar möglich ist, aber dieses neue Werkzeug vieler Chancen beraubt. Textcomposing muß ein gemeinschaftliches Projekt sein, in der alle digitalen Erfahrungen des Verlages und die Datenanalyse- und Textgenerierungskompetenz des Dienstleisters einfliessen, um die maximale Wertschöpfung zu erzielen. Ein Medizin-Fachportal weiß, wie relevant Grippe-Epedimien in Asien für die fachkundigen Leser sind: aus der Datenbank des japanischen Gesundheitsministeriums lassen sich dazu mehrfach täglich Berichte generieren.

Zwei Schnittstellen machen das Thema mit dem irreführendem Namen Roboterjournalismus besonders spannend: die Verbindung zum Datenjournalismus auf der einen und der künstlichen Intelligenz auf der anderen Seite. Die Recherche von Datenquellen in aller Welt wird immer komplexer, Dank opendata und der Forderung von Teilen der Bevölkerung nach größerer Datentransparenz gibt es theoretisch immer mehr Informationen. Nur werden diese im Datendschungel ohne Expertenwissen nicht gefunden. Künstliche Intelligenz wird, nicht ohne Risiko, in wenigen Jahren dafür sorgen, dass ein Portal unmittelbar auf den User zugeschnittene Informationen in Echtzeit liefert. Und alles scheinbar (?) für den User weniger Relevante weglässt.