Archiv für Juli, 2014

Roboterjournalismus: Denken, Wissen, Rechnen, Schreiben

Die Mensch-Maschinen-Debatte hat das Feld des Journalismus erreicht. Was mich an dieser Auseinandersetzung am meisten interessiert, ist die Darstellung der Alleinstellungsmerkmale des menschlichen Journalisten. Welche Eigenschaften werden ihm zugeschrieben? Was kann er besser als die Software?  In dem Post „Roboterjournalismus – Wo sind seine Grenzen?“ bin ich darauf eingegangen, dass die Software nicht investigativ oder quellenkritisch arbeiten kann, ihr der Zugang zum Weltwissen und das Talent für Tragödien fehlt.

Menschen denken wie Menschen

Will Oremus hat in seinem sehr lesenwerten Artikel bei Slate.com seine Sicht auf den Robotjournalismus dargestellt. Worin sind Menschen den Maschinen überlegen? Seine Grundannahme ist nur scheinbar banal: Menschen sind jetzt bereits besser darin zu denken wie ein Mensch als es einem Computer jemals gelingen wird.
Entscheidend für Oremus sind diese Fähigkeiten des Journalisten: Sie können gut Geschichten erzählen, Anekdoten herauspicken und Analogien und Verbindungen zwischen Informationen herausarbeiten. Sie können vor allem aus einer unförmigen Wolke von Informationen und Daten rund um ein Ereignis zum einen leicht vertraute Muster erkennen und zum anderen zielsicher und intuitiv die Punkte herausziehen, was andere Menschen interessiert. In keinem dieser Punkte sind Algorithmen sonderlich gut.

Computer können besser rechnen

Eine Software kann hingegen schnell große Datensätze scannen und Muster identifizieren. Gerade bei der Auswertung von Daten „übersehen“ sie keine Muster und erfassen schnell die Schlüsseldaten einer Datenbank.  Der Fokus liegt auf „schell“ und „groß“.Wenn die Text-Maschine einmal gebaut ist, sinken die Kosten für einen Artikel gegen Null.

Die „Prosa“ der Maschinen – Gutes Schreiben kann die Software lernen

Und was ist mit der unbeschreiblichen Fähigkeit des Menschen einer Geschichte einen besonderen Ton zu verleihen? Das wird sehr häufig als Alleinstellungsmerkmal des menschlichen Autors hervorgehoben. Hier schätzt Oremus die Möglichkeiten der Maschine so ein, wie wir es bei AX Semantics tun: Gut Schreiben kann die Software lernen. Mit dem richtigen Briefing und der richtigen Programmierung können Sprache und Stil der generierten Texte ziemlich genau an die Anforderungen angepasst werden. Es sind keine „blechern“ klingenden Roboter-Texte, die aus dem Computer kommen.

Datenqualität ist entscheidend

Will Oremus hat genau hingeschaut bei seiner Recherche zum Thema Roboterjournalismus, denn er trifft die „Schwachstelle“ des Roboterjournalisten genau: Das Problem bei dem Wettbewerb zwischen Mensch und Maschine ist nicht die Qualität der automatisch generierten Texte, entscheidend ist vielmehr die Qualität der Daten.
Das umfasst meiner Meinung nach zwei unterschiedliche Bereiche: Zum einen muss die Datenbasis für die Texte stimmen. „Making data talk – 6 tips on how to make your data fit for linguistic applications“ zeigt, worauf es hier ankommt.
Zum anderen sind in vielen Fällen die Daten nicht ausreichend – und hier sind wir wieder beim Weltwissen und der Datenknappheit. Die Software kann sehr viele Regeln lernen und damit Texte korrekt und relativ abwechslungsreich gestalten.

Schon ein Gewitter kann die Software herausfordern

Aber wenn ein Mensch beispielsweise ein Fußballspiel sieht bei dem ein starkes Gewitter losbricht, kann er das Ereignis in der Regel leicht einordnen und beim Schreiben seines Textes berücksichtigen. Die Relevanz und das Leserinteresse zu bestimmen, fällt einem menschlichen Autor für solche Vorkommnisse eher leicht.
Um einen Computer dazu zu bringen, dass er einen solchen Vorfall bewertet und entscheidet, ob und wie er das in seinen Text aufnimmt, muss er erst einmal an einer Datenbank angeschlossen sein, die Wetterdaten liefert. Dazu braucht die Software eine breite Daten- und Berechunungsgrundlage wann und wie etwa Wetterereignisse bei einem Fußballspiel ein Rolle spielen. Ein solches Detail ist programmierbar – keine Frage. Allerdings ist noch zu diskutieren, ob ein Computer jemals so viele Daten zur Verfügung hat und verarbeitet, dass seine Ergebnisse mit den allgemeinen, menschlichen Fähigkeiten konkurrieren können.

Leseverhalten am Bildschirm – Gibt es etwas Neues? (2) iPads, Tablets & Smartphones

Das Leseverhalten hängt nicht nur – wie in „Leseverhalten am Bildschirm…(1)“ beschrieben – vom Gegensatz Papier Bildschirm ab, sondern auch von den Endgeräten. Die meisten von uns lesen nicht nur am Computer-Bildschirm, vielmehr sind eine Reihe mobiler Geräte hinzu gekommen, die darauf einen Einfluss haben, wie wir lesen.

Gibt es ein charakteristisches Leseverhalten bei iPads und Tablets?

Hier die bemerkenswertesten Ergebnisse der neuesten Studien zum Leseverhalten (hier ein umfassendes Verzeichnis der Studien zu Tablets und Smartphones)

Poynter Eyetrack Studie: Unterschiede zwischen Digital Natives und älteren Usern

Eine Poynter Eyetrack Studie hat bereits 2007 interessante Aufschlüsse über das Leseverhalten bei Online- und Printemedien gegeben – jetzt wurde ein ähnlicher Ansatz zur Analyse des Userverhaltens auf Tablets umgesetzt. Sie haben 36 Menschen genauestens dabei beobachtet, wie diese auf iPads mit Nachrichtenartikeln umgingen. Etwa eine Hälfte davon gehörte zu den „Digital Natives“ (waren also zwischen 18 und 28 Jahre alt), die andere Gruppe war eindeutig älter (45-55 Jahre alt), damit auch Unterschiede zwischen den beiden Gruppen herausgearbeitet werden konnten.

Leser suchen Artikel sorgfältig aus – und bleiben nur für kurze Zeit bei der Story

Start der Analyse war ein Magazin, woraus sich die Leser aus unterschiedlichen Artikelteasern (Bilder und Texte) eine Geschichte aussuchen sollten. Interessant war, dass die Leser über ein dominantes Element in die Gesichte einstiegen, wie etwa ein Foto mit einem Gesicht. Sie fixierten aber durchschnittlich 18 Elemente, bevor sie eine Entscheidung fällten. Der Auswahlprozess ist wichtig für das Durchhaltevermögen: Diejenigen, die den Artikel nicht zu Ende lasen, haben nur neun Mal über den Schirm geschaut.

100 Sekunden ist die magische Grenze

Im Schnitt verbrachten die User 98 Sekunden bei dem Artikel, den sie ausgesucht haben. Diejenigen, die die Geschichte nicht zu Ende lesen, verlassen sie nach etwa 78 Sekunden. Es ist also gut, dem Leser eine Marke zu setzen (visuelles Element), wenn die Geschichte etwa halb um ist.

Wie gelesen wird, hängt stark damit zusammen, welche Erfahrungen und Hintergründe die User haben.

  • 52% Scannen (schauen sie die Überschrift, Listen und andere Gliederungselement an, Lesen nur Teile der Geschichte und kehren, wenn sie sich was anschauen, nicht zum Lesepunkt zurück).
  • 48% lesen methodisch (also im herkömmlichen Sinn, Sie lesen den Text hintereinander und selbst, wenn sie woanders hinschauen, kehren sie zum Punkt zurück).
  • Verteilung: Digital Natives: 75% scannen, 25% lesen. Die Printgewohnten (zwischen 45 und 55 Jahren) bevorzugen eindeutig das methodische Lesen (76%), nur 24% scannen.

iPads und Smartphones Wörter im Fokus

Eine interssante Beobachtung ist auch, die taktile Interaktion mit dem IPad: 61% berühren den Bildschirm regelmäßig (lesen z.B. ein bis zwei Zeilen, dann wischen sie über den Bildschirm um die nächsten Zeilen besser ins Blickfeld zu rücken). Die User ziehen sich die Bereiche, die sie interessieren mit den Fingern in ihr Blickfeld und zoomen in die Artikel hinein. Diese wechselnden Perspektiven sind neu und es ist noch offen, wie man das Verhalten bei der Konzeption neuer Artikel berücksichtigen kann.

Fließende Wörter  – neue Lösungen für Smartphones

Aber es gibt nicht nur Änderungen beim User – es gibt auch Ansätze das Lesen am Smartphone noch weiter zu beschleunigen. Das Unternehmen „Spritz“ bietet eine App an, bei der man nicht mehr den kompletten Text sieht, sondern nur noch einzelne Wörter. Scannen und Skimmen kann man so nicht mehr – aber dafür schnell lesen…

 

Spritz

(Quelle: Screenshot http://www.spritzinc.com/)