Tag Archiv: Roboterjournalismus

Individuelle Roboterleistung? Warum automatisierte Sportberichterstattung kein Einheitsbrei sein muss.

Kennen Sie das Quiz „Mensch oder Maschine?“ Das führe ich selbst gerne bei Veranstaltungen durch: Ich zeige zwei Texte und frage nach der Einschätzung der Zuhörer. „Welchen Text hat eine Maschine geschrieben, welchen ein Journalist?“ Die Pointe dabei ist, dass die meisten Menschen die Texte nicht zuordnen können. Dieses Ratespiel ist auch Grundlage einiger wissenschaftlicher Studien, die sich damit befassen, wie Menschen Texte bewerten und welche Rolle es spielt, wenn der Autor eine Software ist.

So gerne ich das Quiz zeige, weil es dem Publikum Spaß macht und gleichzeitig die Qualität der automatisierten Texte unterstreicht, kann es doch den Eindruck erwecken, es gäbe „den“ automatisierten Text auf der einen und „den“ handgeschriebenen Text auf der anderen Seite. Doch dieser Gegensatz entspricht nicht der Realität.

Die journalistische Vielfalt ist den meisten von uns geläufig: Wenn Sie beispielsweise die Sportberichterstattung über das Championsleague Finale in diesem Jahr anschauen, finden Sie eine große Bandbreite an Artikeln, die sich etwa in der Sprache, Detailtiefe, Struktur und Faktendichte deutlich unterscheiden. Natürlich sind wir geneigt, diese Individualität dem Autor zuzuschreiben. Aber Journalisten wissen, dass die Vorgaben der Zeitung oder der Plattform wie z.B. die Ausrichtung auf die Zielgruppe, sprachliche Standards, Tonalität und auch die Länge der Artikel, den Charakter eines Textes noch stärker beeinflussen als die individuelle Handschrift.

Und genau ein solches Briefing mit den besonderen Anforderungen bekommen die Maschinen auch – allerdings in Form von Algorithmen und Regeln. Das Ergebnis sind dann verschiedenartige Texte. Wenn Sie dann automatisierte Texte vergleichen, die unterschiedlichen Anforderungen gerecht werden müssen, dann bleibt nicht mehr viel übrig vom Anschein der Uniformität. Die Varianz der Texte hängt vom Überbau und der Programmierung ab. So arbeiten Mensch und Maschine analog zur „Industrie 4.0 beim  Medien 4.0-Prozess „Hand in Hand“. Beide ergänzen sich und profitieren dabei von den gegenseitigen Stärken. Routineaufgaben wie Berichte der dritten Bundesliga übernimmt die Maschine. Das Resultat: leserorientierte, verständliche und lesenswerte Texte und mehr Zeit für anspruchsvollen Qualitätsjournalismus. Es gibt den „Robotertext“ eben so wenig, wie es den „Journalistentext“ gibt.

Medien 4.0: Wie intelligente Tools die Redaktionsarbeit verändern werden

Die Lage in deutschen Redaktionen scheint zur Zeit nicht rosig zu sein, man hört häufig von der Bedrohung und dem Verschwinden traditionsreicher Titel und auch von Entlassungswellen in Redaktionen. Kein Wunder, dass sich das Thema „Roboterjournalismus“ für viele Journalisten nahtlos in dieses Bedrohungsszenario einpasst: Die Roboter werden dazu beitragen, so die Sorge, dass noch mehr Stellen abgebaut und Kollegen oder man selbst ersetzt werden.

Intelligente Automatisierung – Industrie 4.0 und Medien 4.0

Aus unserer Sicht stellt sich die Situation nicht so eindeutig dar: Ob Redaktionsstellen wegfallen oder ob mit der Software sogar neue Märkte erschlossen und dadurch neue Stellen geschaffen werden können – das liegt in der Hand der Verleger. Wovon wir als Software-Entwickler aber ausgehen, ist, dass die Software den Redaktionsalltag verändern wird. In Anlehnung die Ziele der “Industrie 4.0” sollen auch in den “Medien 4.0” intelligente und selbstlernende Tools, wie AX-Semantics, die redaktionelle Arbeit effektiver und skalierbarer machen. Sie wird aber auch abwechslungsreicher und anspruchsvoller werden.

Integrierte Qualitätssicherung

Die Software hilft bei der Einhaltung von Qualitätsstandards und verbessert die Qualität der Publikationen. Die semantische Textsoftware sortiert und filtert strukturierte Informationen, wie z.B. Börsen- und Handelsdaten, Sportergebnisse oder Wetterdaten, aus den unterschiedlichen Datenquellen und erkennt durch selbstlernendes Dataminig Strukturen in den Daten, die zu Aussagen zusammengefasst werden. Aus den Aussagen wird der Artikel automatisch formuliert. In diesem Auswertungs- und Schreibprozess sind in jedem Schritt spezielle abgestimmte Qualitätssicherungsmaßnahmen eingebaut. Wo Menschen Fehler machen, machen Maschinen weniger Fehler.

Übernahme von Routineaufgaben

Die Stärke der Software liegt in den Routineaufgaben: Das sind in der Regel die Aufgaben in der Redaktion, die gerne den Volontären überlassen werden und für die eigentlich heute schon keine Zeit mehr eingeplant ist: Das Schreiben des täglichen Wetterberichts, des kurzen Finanzberichts, der News aus den Polizeiberichten. Die Software wird dabei nicht nur automatisch Texte erzeugen, sie weist auch die Redakteure auf den besonderen Nachrichtenwert einer Information hin, so dass er im Einzelfall aktiv werden kann. Eine Woche lang 30 Grad im Sommer – hier verfasst die Maschine zuverlässig und abwechslungsreich (die Varianz ist schon programmiert) die Routine-Texte. Wenn aber ein starker Sturm angekündigt wird, dann wird z.B. ein Redakteur per Mail benachrichtigt. Dieser kann dann recherchieren und einen Artikel darüber schreiben, welche Schäden aufgetreten sind und warum die Bevölkerung nicht rechtzeitig gewarnt wurde.

Was bleibt der Redaktion?

Die Grenzen des Roboterjournalismus liegen, wie hier schon einmal genauer erklärt habe,  dort, wo man vor Ort recherchieren muss, wo keine strukturierten Daten vorliegen und wo Meinung gefragt ist. Ein Journalist kann in einem Leitartikel darüber spekulieren, ob Herr Gauck für eine zweite Amtszeit kandieren sollte oder nicht, die wichtigsten Schritte der ersten Amtszeit beschreiben und eine eigene Einschätzung der aktuellen gesellschaftlichen Stimmung geben. Das kann die Software nicht. Die Recherche aus unterschiedlichen Quellen, das Gespräch mit den Menschen, die Meinung, der spezielle Tonfall – dort wo das journalistische Handwerk auf hohem Niveau ausgeübt werden muss, bleibt der menschliche Journalist weiterhin unersetzlich. Und das sind doch die Aufgaben, die ihm am meisten Freude bereiten, oder nicht?

Neue Kompetenzen für Journalisten

Neben dem hergebrachten journalistischen Handwerk braucht der Mitarbeiter der Redaktion 4.0 auch noch neue Kompetenzen, denn es werden auf ihn neue Aufgaben zu kommen: Dazu gehört auch, dass er mehr mit Themen rund um Daten und Algorithmen zu tun hat, nicht zuletzt wird er sein Wissen über sein Medium dafür einbringen, die Software zu trainieren. Das wird unter dem Stichwort „Datenjournalismus“ ja aktuell schon diskutiert.

Roboterjournalismus und Maschinenwäsche – mein Vortrag auf dem Frankfurter Tag des Online-Journalismus

Es war ein anregender Tag in Frankfurt: Für mich war es eine Herausforderung meine Ideen einem Profi-Publikum vorzustellen. Wen es interessiert wie’s gelaufen ist auf dem #ftoj15 (Frankfurter Tag des Online Journalismus, veranstaltet u.a. vom  Hessischen Rundfunk), kann sich hier meinen Vortrag anschauen.

Die anderen anregenden Vorträge können Sie sich hier anschauen.

Leser halten computergenerierte Texte für glaubwürdiger als Journalistentexte – so die Ergebnisse einer aktuellen Studie

Unter der Leitung von Mario Haim haben Studierende am Institut für Kommunikationswissenschaft und Medienforschung an der Ludwig-Maximilians-Universität München eine Studie zum Thema „Wie stufen Leser die Qualität computergenerierter Texte ein?“ durchgeführt. AX Semantics hat die computergenerierten Texte geliefert und deshalb finde ich die Ergebnisse natürlich besonders interessant.  Steffi Leupolt,Veronika Gburikova und Dayana Penkova beschreiben für text-gold die Zielsetzung und die Resultate der Studie.

Frau Leupolt, sie haben zusammen mit Ihren Kommilitoninnen eine Studie zum Thema Wahrnehmung von automatisierten Texten durchgeführt. Können Sie kurz die Zielsetzung und das Setting der Studie vorstellen? 

Die bisherige Forschung zum Thema Roboterjournalismus hat sich vor allem auf die Anbieterseite konzentriert und mit den möglichen Auswirkungen beschäftigt, die diese neue Technologie auf Redaktionen und Verlage haben könnte. Nach unserem heutigen Kenntnisstand wurden bisher nur zwei Studien publiziert, welche sich mit der Perspektive der Leser beschäftigen und die wahrgenommene Qualität von softwaregenerierten Nachrichtenartikeln erforscht haben (Clerwall, 2014 und van der Kaa & Krahmer, 2014). In Anlehnung an diese beiden Studien haben wir untersucht, wie glaubwürdig, gut geschrieben und verständlich computergenerierte Texte von Lesern wahrgenommen werden und ob sie computergenerierte Texte erkennen können.

Mit 1024 Teilnehmern haben wir eine experimentelle Online-Befragung durchgeführt.
ganzen Artikel lesen

Roboterjournalismus und Pressekodex

Im Interview „Maschinen können keine Krimis schreiben“ für Golem hat Christoph Schön mich gefragt, was ich von dem Vorwurf halte, Roboterjournalimus könne missbraucht werden und gegen ethische Grundsätze verstoßen. In meiner Antwort habe ich auf den Pressekodex verwiesen.

Tatsächlich kann man keine Software ethisch verpflichten, wenn auch die Formulierung der Asimov’schen Robotergesetze das evozieren kann. („1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.“). Eine ethische Verpflichtung haben meiner Meinung nach die Menschen, die eine Software programmieren und verwenden. Interessant ist hierfür auch die Diskussion zur Gesetzgebung in der EU: Das Fazit der europäischen Arbeitsgruppe „RoboLaw“ ist, dass eine allgemeine (restriktive) Gesetzgebung zum Thema „Roboter“ nicht sinnvoll sei, viel mehr gehe es darum, eine funktionale Perspektive einzunehmen, die sich an der Praxis orientiert.
ganzen Artikel lesen

Robots vs. Journalisten 1:1 in puncto Glaubwürdigkeit

Leser vertrauen News-Artikeln, die von einer Software automatisiert erstellt wurden im gleichen Maße wie Artikeln, die von Journalisten geschrieben wurden. Allerdings bewerten Leser mit journalistischem Hintergrund die Autorenschaft anders als. Das sind die Schlüsse, die aus dem Experiment von Hille van der Kaar und Emiel Krahmer von der Tilburg Universität (Niederlande) gezogen werden können.

Vertrauenswürdigkeit und Fachkompetenz als Kernkomponenten bei der Bewertung von Texten

Bei Untersuchungen darüber, wie Leser die Qualität eines Textes bewerten, wurde die Vertrauenswürdigkeit und die Fachkompetenz des Autors als entscheidende Kriterien herausgearbeitet. Wenn kein Autor bekannt ist, übernimmt z.B. der Verlag, die Plattform, das Unternehmen oder der Website-Betreiber seine Rolle. Es ist manchmal nicht so leicht nachzuvollziehen, dass die Eigenschaften, die sich eigentlich auf die Quelle beziehen, in so großem Maß die Bewertung des Textes beeinflussen. Aber in unterschiedlichster Form angelegte Studien kommen doch immer wieder zu diesem Ergebnis.
ganzen Artikel lesen

Roboterjournalismus – Wo sind seine Grenzen?

„Leser können automatisch erstellten Content nicht von Content unterscheiden, der von einem Menschen geschrieben ist“.  So formuliert  Christer Clerwall  ein wichtiges Ergebnis seiner  kleinen Studie zur Bewertung automatisiert erstellter Texte.

Die Robot-Grundsatzdebatte: Was können Menschen, das Roboter nie können werden?

Mit diesem Resultat hätte die Software, die den Text geschrieben hat eine Art „Lese“-Turing Test bestanden. Der britische Informatiker Alan Turing hatte den Test in der Mitte des vergangen Jahrhunderts entwickelt,  um festzustellen, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat. Der Test besteht in einem per Tastatur und Bildschirm geführten Dialog – der Proband muss entscheiden, ob hinter den Antworten eine Maschine oder ein Mensch steckt. Und schon sind wir drin in der Science Fiction-Roboterwelt und in der Grundsatzdebatte, die schon lange geführt wird und immer wieder interessant ist: Wo sind die Grenzen der Maschinen? Was können die Roboter nicht?
ganzen Artikel lesen

Erdbeben in LA löst automatisierte News aus – eine kleine Presseschau

Letzte Woche habe ich skizziert, wie „automatisierte News“ in Zukunft den Journalismus prägen könnten und hatte Sorge, dass das automatische Erstellen von Nachrichten sich für viele liest, wie ein Science-Fiction ohne zu großen Realitätsbezug. Doch noch am selben Tag brachte ein Erdbeben den Realitätsbeweis: In Westwood (Stadtteil von Los Angeles) bebte die Erde stark genug um einen lokalen Nachrichtenwert zu haben. Die Messung der Erschütterungen löste wiederum die Aktivierung des Quakebots aus, der eine automatisierte Nachricht erstellte. Und diese fand ein weitaus größeres Echo in der internationalen Presse!

Hier eine kleine Auswahl der deutschsprachigen Schlagzeilen:

Algorithmus macht Journalismus“ – bei zeit online  räumt Pavel Lokshin  ein, dass solche Algorithmen Journalisten langweilige Routineaufgaben abnehmen können und macht für sein Fazit ebenfalls den berühmten Ausflug in’s Kulinarische:

Dass menschengemachter Journalismus zum Nischenprodukt wird, wie handgeschöpftes Papier oder Olivenöl aus bei Vollmond geernteten Früchten, ist aber nicht zu erwarten.

Die ausführlichste und lesenswerteste Auseinandersetzung mit diesem Thema ist auf netzpolitik.org unter dem Titel „Was ist eigentlich Roboterjournalismus? Teil 1: Was die Softwaremaschinen können werden“ zu finden. Lorenz Matzat arbeitet genau heraus, welche Unterstützung solche intelligente Software für den Journalisten sein können, was heute schon möglich ist und wohin die Reise für die Journalisten, die Medien und die automatisierten Textprogramme gehen kann.  Noch hinken die Entwicklungen in Deutschland, den Möglichkeiten der USA hinterher:

Bislang fehlen hierzulande noch die Softwareanbieter, die Roboterjournalisten im Programm führen.
ganzen Artikel lesen