Archiv für 'Semantische Technologien'

Medien 4.0: Wie intelligente Tools die Redaktionsarbeit verändern werden

Die Lage in deutschen Redaktionen scheint zur Zeit nicht rosig zu sein, man hört häufig von der Bedrohung und dem Verschwinden traditionsreicher Titel und auch von Entlassungswellen in Redaktionen. Kein Wunder, dass sich das Thema „Roboterjournalismus“ für viele Journalisten nahtlos in dieses Bedrohungsszenario einpasst: Die Roboter werden dazu beitragen, so die Sorge, dass noch mehr Stellen abgebaut und Kollegen oder man selbst ersetzt werden.

Intelligente Automatisierung – Industrie 4.0 und Medien 4.0

Aus unserer Sicht stellt sich die Situation nicht so eindeutig dar: Ob Redaktionsstellen wegfallen oder ob mit der Software sogar neue Märkte erschlossen und dadurch neue Stellen geschaffen werden können – das liegt in der Hand der Verleger. Wovon wir als Software-Entwickler aber ausgehen, ist, dass die Software den Redaktionsalltag verändern wird. In Anlehnung die Ziele der “Industrie 4.0” sollen auch in den “Medien 4.0” intelligente und selbstlernende Tools, wie AX-Semantics, die redaktionelle Arbeit effektiver und skalierbarer machen. Sie wird aber auch abwechslungsreicher und anspruchsvoller werden.

Integrierte Qualitätssicherung

Die Software hilft bei der Einhaltung von Qualitätsstandards und verbessert die Qualität der Publikationen. Die semantische Textsoftware sortiert und filtert strukturierte Informationen, wie z.B. Börsen- und Handelsdaten, Sportergebnisse oder Wetterdaten, aus den unterschiedlichen Datenquellen und erkennt durch selbstlernendes Dataminig Strukturen in den Daten, die zu Aussagen zusammengefasst werden. Aus den Aussagen wird der Artikel automatisch formuliert. In diesem Auswertungs- und Schreibprozess sind in jedem Schritt spezielle abgestimmte Qualitätssicherungsmaßnahmen eingebaut. Wo Menschen Fehler machen, machen Maschinen weniger Fehler.

Übernahme von Routineaufgaben

Die Stärke der Software liegt in den Routineaufgaben: Das sind in der Regel die Aufgaben in der Redaktion, die gerne den Volontären überlassen werden und für die eigentlich heute schon keine Zeit mehr eingeplant ist: Das Schreiben des täglichen Wetterberichts, des kurzen Finanzberichts, der News aus den Polizeiberichten. Die Software wird dabei nicht nur automatisch Texte erzeugen, sie weist auch die Redakteure auf den besonderen Nachrichtenwert einer Information hin, so dass er im Einzelfall aktiv werden kann. Eine Woche lang 30 Grad im Sommer – hier verfasst die Maschine zuverlässig und abwechslungsreich (die Varianz ist schon programmiert) die Routine-Texte. Wenn aber ein starker Sturm angekündigt wird, dann wird z.B. ein Redakteur per Mail benachrichtigt. Dieser kann dann recherchieren und einen Artikel darüber schreiben, welche Schäden aufgetreten sind und warum die Bevölkerung nicht rechtzeitig gewarnt wurde.

Was bleibt der Redaktion?

Die Grenzen des Roboterjournalismus liegen, wie hier schon einmal genauer erklärt habe,  dort, wo man vor Ort recherchieren muss, wo keine strukturierten Daten vorliegen und wo Meinung gefragt ist. Ein Journalist kann in einem Leitartikel darüber spekulieren, ob Herr Gauck für eine zweite Amtszeit kandieren sollte oder nicht, die wichtigsten Schritte der ersten Amtszeit beschreiben und eine eigene Einschätzung der aktuellen gesellschaftlichen Stimmung geben. Das kann die Software nicht. Die Recherche aus unterschiedlichen Quellen, das Gespräch mit den Menschen, die Meinung, der spezielle Tonfall – dort wo das journalistische Handwerk auf hohem Niveau ausgeübt werden muss, bleibt der menschliche Journalist weiterhin unersetzlich. Und das sind doch die Aufgaben, die ihm am meisten Freude bereiten, oder nicht?

Neue Kompetenzen für Journalisten

Neben dem hergebrachten journalistischen Handwerk braucht der Mitarbeiter der Redaktion 4.0 auch noch neue Kompetenzen, denn es werden auf ihn neue Aufgaben zu kommen: Dazu gehört auch, dass er mehr mit Themen rund um Daten und Algorithmen zu tun hat, nicht zuletzt wird er sein Wissen über sein Medium dafür einbringen, die Software zu trainieren. Das wird unter dem Stichwort „Datenjournalismus“ ja aktuell schon diskutiert.

Roboterjournalismus und Maschinenwäsche – mein Vortrag auf dem Frankfurter Tag des Online-Journalismus

Es war ein anregender Tag in Frankfurt: Für mich war es eine Herausforderung meine Ideen einem Profi-Publikum vorzustellen. Wen es interessiert wie’s gelaufen ist auf dem #ftoj15 (Frankfurter Tag des Online Journalismus, veranstaltet u.a. vom  Hessischen Rundfunk), kann sich hier meinen Vortrag anschauen.

Die anderen anregenden Vorträge können Sie sich hier anschauen.

Leser halten computergenerierte Texte für glaubwürdiger als Journalistentexte – so die Ergebnisse einer aktuellen Studie

Unter der Leitung von Mario Haim haben Studierende am Institut für Kommunikationswissenschaft und Medienforschung an der Ludwig-Maximilians-Universität München eine Studie zum Thema „Wie stufen Leser die Qualität computergenerierter Texte ein?“ durchgeführt. AX Semantics hat die computergenerierten Texte geliefert und deshalb finde ich die Ergebnisse natürlich besonders interessant.  Steffi Leupolt,Veronika Gburikova und Dayana Penkova beschreiben für text-gold die Zielsetzung und die Resultate der Studie.

Frau Leupolt, sie haben zusammen mit Ihren Kommilitoninnen eine Studie zum Thema Wahrnehmung von automatisierten Texten durchgeführt. Können Sie kurz die Zielsetzung und das Setting der Studie vorstellen? 

Die bisherige Forschung zum Thema Roboterjournalismus hat sich vor allem auf die Anbieterseite konzentriert und mit den möglichen Auswirkungen beschäftigt, die diese neue Technologie auf Redaktionen und Verlage haben könnte. Nach unserem heutigen Kenntnisstand wurden bisher nur zwei Studien publiziert, welche sich mit der Perspektive der Leser beschäftigen und die wahrgenommene Qualität von softwaregenerierten Nachrichtenartikeln erforscht haben (Clerwall, 2014 und van der Kaa & Krahmer, 2014). In Anlehnung an diese beiden Studien haben wir untersucht, wie glaubwürdig, gut geschrieben und verständlich computergenerierte Texte von Lesern wahrgenommen werden und ob sie computergenerierte Texte erkennen können.

Mit 1024 Teilnehmern haben wir eine experimentelle Online-Befragung durchgeführt.
ganzen Artikel lesen

Roboterjournalismus und Pressekodex

Im Interview „Maschinen können keine Krimis schreiben“ für Golem hat Christoph Schön mich gefragt, was ich von dem Vorwurf halte, Roboterjournalimus könne missbraucht werden und gegen ethische Grundsätze verstoßen. In meiner Antwort habe ich auf den Pressekodex verwiesen.

Tatsächlich kann man keine Software ethisch verpflichten, wenn auch die Formulierung der Asimov’schen Robotergesetze das evozieren kann. („1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.“). Eine ethische Verpflichtung haben meiner Meinung nach die Menschen, die eine Software programmieren und verwenden. Interessant ist hierfür auch die Diskussion zur Gesetzgebung in der EU: Das Fazit der europäischen Arbeitsgruppe „RoboLaw“ ist, dass eine allgemeine (restriktive) Gesetzgebung zum Thema „Roboter“ nicht sinnvoll sei, viel mehr gehe es darum, eine funktionale Perspektive einzunehmen, die sich an der Praxis orientiert.
ganzen Artikel lesen

Robots vs. Journalisten 1:1 in puncto Glaubwürdigkeit

Leser vertrauen News-Artikeln, die von einer Software automatisiert erstellt wurden im gleichen Maße wie Artikeln, die von Journalisten geschrieben wurden. Allerdings bewerten Leser mit journalistischem Hintergrund die Autorenschaft anders als. Das sind die Schlüsse, die aus dem Experiment von Hille van der Kaar und Emiel Krahmer von der Tilburg Universität (Niederlande) gezogen werden können.

Vertrauenswürdigkeit und Fachkompetenz als Kernkomponenten bei der Bewertung von Texten

Bei Untersuchungen darüber, wie Leser die Qualität eines Textes bewerten, wurde die Vertrauenswürdigkeit und die Fachkompetenz des Autors als entscheidende Kriterien herausgearbeitet. Wenn kein Autor bekannt ist, übernimmt z.B. der Verlag, die Plattform, das Unternehmen oder der Website-Betreiber seine Rolle. Es ist manchmal nicht so leicht nachzuvollziehen, dass die Eigenschaften, die sich eigentlich auf die Quelle beziehen, in so großem Maß die Bewertung des Textes beeinflussen. Aber in unterschiedlichster Form angelegte Studien kommen doch immer wieder zu diesem Ergebnis.
ganzen Artikel lesen

Passende Inhalte mit intelligentem Content

Im letzten Beitrag habe ich die Chancen für ein maschinenlesbares Zeitungsarchiv beschrieben. Nicht nur für Medien-Unternehmen sind durch Meta-Tags aufgewertete Informationen nützlich, auch „normale“ Unternehmen sollten sich überlegen in (Online)-Content zu investieren, der sich leicht anpassen und gut wieder verwerten lässt.

Semantisch angereicherte Inhalte stellen den konsequenten nächsten Schritt nach der Ära der Schreibmaschine dar. Unter dem Schlagwort „Intelligent Content“ wirbt der Unternehmensberater Scott Abel für einen längst überfälligen Paradigmenwechsel in allen Branchen.

»Simply put, ‘intelligent content’ is content which is not limited to one purpose, technology or output. It’s content that is structurally rich and semantically aware, and is therefore discoverable, reusable, reconfigurable and adaptable.«

Das Einsperren von Texten in PDFs, Word-Dateien und anderen Dokumentformaten ist dabei für Abel ein Kernproblem heutiger Inhaltsproduktion. Diese Handhabung macht das Weiterverwenden und Umfunktionieren von Inhalten unmöglich. Eben dies wird aber laut Scott Abel zukünftig mehr und mehr unverzichtbar:

»Mobile device apps serve customers looking for an answer: a specific piece of content. The right piece. The one they want or need. Until we can create smaller, modular pieces of semantically-enhanced content that can be easily repurposed by machines, we will continue to waste resources on outdated content production processes.«

Passende Inhalte für alle Endgeräte

Das Internet vereint als erweiterbares Universalmedium alle bisherigen Medienformate in sich: Text, Bild, Video und Audio in interaktiver, dynamischer oder statischer Form. Es revolutioniert die Medienlandschaft durch seine flexible und breite Anwendbarkeit. Gerade deshalb sollte es nicht als Reste-Verwerter für bereits produzierte Inhalte dienen müssen. Es ist vielmehr angebracht, die Möglichkeiten des Netzes in die Content-Produktion einzubeziehen. Die großen Chancen liegen für Abel und Holovaty aber nicht in einer Anzeige gleicher Inhalte in anderer Darstellungsform, wie das beispielsweise schon längst auf Websites mit „Responsive Design“ für unterschiedliche Bildschirmgrößen passiert. Mit dieser Übertragung in ein anderes Design ist außer einer besseren Lesbarkeit und einer komfortableren Bedienung nicht viel gewonnen. Aus semantisch aufgebauten Daten können jedoch automatisiert völlig neue Inhalte entstehen: Ein Text für den Leser am Smartphone, ein eigener Text für die Website und noch ein anderer Text für den Druck.

Nutzungsmotive erkennen

Längst ist bekannt, dass wir Texte auf einem Bildschirm anders wahrnehmen, als auf Papier. Wer je unterwegs mit seinem Smartphone verzweifelt online die Durchwahl eines Geschäftspartners suchte, weiß, dass auch hier wenig Entgegenkommen von den meisten Websites zu erwarten ist. Unterschiedliche Medien verlangen unterschiedliche Inhalte. Dafür gibt es technische Lösungsansätze. Nun liegt es an den Erfahrungsträgern des Nachrichtengeschäfts, den Fokus nicht nur auf neue Geschäftsmodelle zu lenken, sondern auch den Wandel zu einer zeitgemäßen Content-Strategie zu vollziehen.

Das maschinenlesbare Zeitungsarchiv als Chance für den Journalismus

Die Zeitungshäuser werden nicht müde, uns mitzuteilen, wie schlecht es ihnen geht. Während Anzeigenerlöse und Abonnentenzahlen sinken, fällt der Fokus der Aufmerksamkeit zunächst auf die Entwicklung neuer Finanzierungskonzepte: Da werden Leser gebeten, Werbung auf der Website zu akzeptieren, Bezahlschranken werden aufgebaut, man experimentiert mit freiwilligen Bezahldiensten und bewirkt für ein Magazin eine community-basierte Vorfinanzierung. Bei aller Beschäftigung mit der Monetarisierung darf eines nicht vergessen werden: Zeitungen und News-Portale leben von ihren Lesern, nicht von ihren Werbepartnern. Leser zahlen für Inhalte, wenn sie relevant und ansprechend aufbereitet sind. Die Aussage „Content is King“ (einst durch die Erstellung von Onlinemedien geprägt) gilt für alle Medien und sollte ein zentrales Leitmotiv der Zeitungshäuser werden. Eine konsequente Rückbesinnung darauf muss aber auch auf technischer Ebene stattfinden.

Technische Möglichkeiten nutzen

Längst haben wir Schreibmaschinen und Papier als starre und lineare Werkzeuge der Texterstellung hinter uns gelassen. Artikel werden heute mit Computern verfasst – höchste Zeit, diese Computer nicht mehr nur als bessere Schreibmaschine zu benutzen. Als News-Profis müssen Zeitungshäuser endlich anfangen, Inhalte nicht mehr nur als Stories zu betrachten, sondern als verknüpfbare Zusammenstellung von Daten. Reine Artikel können bisher nur von Menschen verstanden werden. Die Informationen in den Artikeln sollten mit ihren Beziehungen zueinander in einer Datenbank hinterlegt und somit für Computer besser zugänglich gemacht werden.

Das enorme Wandlungspotential der Nachrichtenproduktion

»So much of what local journalists collect day-to-day is structured information: the type of information that can be sliced-and-diced, in an automated fashion, by computers. Yet the information gets distilled into a big blob of text — a newspaper story — that has no chance of being repurposed.«

Datenzentrierter Nachrichtenansatz

Ein Beispiel: Die Nachricht einer Bürger-Demonstration enthält Informationen über den Austragungsort, Zeitpunkt und Dauer sowie Anzahl der Teilnehmer und deren Beweggründe. Diese Bestandteile der Nachricht können intern als strukturierte, maschinenlesbare Daten abgelegt werden. Der Nutzen eines solchen Nachrichtenarchivs wäre vielfältig:

  • Zukünftige Meldungen beispielsweise über weitere Demonstrationen, können sich auf diese Daten oder Teile davon beziehen.
  • Die Pflege der „harten Fakten“ könnte an zentraler Stelle passieren und damit Zeit und Geld sparen und das Risiko von Übertragungsfehlern eliminieren.
  • Datenbanken können sich durch weitere Quellen erweitern Informationen über Sportergebnisse, Wetter, Filme oder Bücher sind bereits online in strukturierter Form verfügbar.
  • Eine automatische inhaltliche Anpassung für weitere Medien (Mobile, Tablet, Website, Print) würde unterschiedlichen Nutzungsmotiven Rechnung tragen. Leser mit einem Smartphone als Anzeigegerät könnten beispielsweise spontan zu jener Demonstration dazustoßen, oder den verursachten Stau umfahren wollen.
  • Übersetzungen in andere Sprachen können durch das Wiederverwenden von Daten günstiger und schneller durchgeführt werden.
  • Große Datenmengen können von Computern besser und schneller erfasst und ausgewertet werden als von Menschen. Es gibt keinen Grund, warum der professionelle Umgang mit großen Datenmengen einzig dem Data Journalism vorbehalten sein sollte.

Roboterjournalismus: Denken, Wissen, Rechnen, Schreiben

Die Mensch-Maschinen-Debatte hat das Feld des Journalismus erreicht. Was mich an dieser Auseinandersetzung am meisten interessiert, ist die Darstellung der Alleinstellungsmerkmale des menschlichen Journalisten. Welche Eigenschaften werden ihm zugeschrieben? Was kann er besser als die Software?  In dem Post „Roboterjournalismus – Wo sind seine Grenzen?“ bin ich darauf eingegangen, dass die Software nicht investigativ oder quellenkritisch arbeiten kann, ihr der Zugang zum Weltwissen und das Talent für Tragödien fehlt.

Menschen denken wie Menschen

Will Oremus hat in seinem sehr lesenwerten Artikel bei Slate.com seine Sicht auf den Robotjournalismus dargestellt. Worin sind Menschen den Maschinen überlegen? Seine Grundannahme ist nur scheinbar banal: Menschen sind jetzt bereits besser darin zu denken wie ein Mensch als es einem Computer jemals gelingen wird.
Entscheidend für Oremus sind diese Fähigkeiten des Journalisten: Sie können gut Geschichten erzählen, Anekdoten herauspicken und Analogien und Verbindungen zwischen Informationen herausarbeiten. Sie können vor allem aus einer unförmigen Wolke von Informationen und Daten rund um ein Ereignis zum einen leicht vertraute Muster erkennen und zum anderen zielsicher und intuitiv die Punkte herausziehen, was andere Menschen interessiert. In keinem dieser Punkte sind Algorithmen sonderlich gut.

Computer können besser rechnen

Eine Software kann hingegen schnell große Datensätze scannen und Muster identifizieren. Gerade bei der Auswertung von Daten „übersehen“ sie keine Muster und erfassen schnell die Schlüsseldaten einer Datenbank.  Der Fokus liegt auf „schell“ und „groß“.Wenn die Text-Maschine einmal gebaut ist, sinken die Kosten für einen Artikel gegen Null.

Die „Prosa“ der Maschinen – Gutes Schreiben kann die Software lernen

Und was ist mit der unbeschreiblichen Fähigkeit des Menschen einer Geschichte einen besonderen Ton zu verleihen? Das wird sehr häufig als Alleinstellungsmerkmal des menschlichen Autors hervorgehoben. Hier schätzt Oremus die Möglichkeiten der Maschine so ein, wie wir es bei AX Semantics tun: Gut Schreiben kann die Software lernen. Mit dem richtigen Briefing und der richtigen Programmierung können Sprache und Stil der generierten Texte ziemlich genau an die Anforderungen angepasst werden. Es sind keine „blechern“ klingenden Roboter-Texte, die aus dem Computer kommen.

Datenqualität ist entscheidend

Will Oremus hat genau hingeschaut bei seiner Recherche zum Thema Roboterjournalismus, denn er trifft die „Schwachstelle“ des Roboterjournalisten genau: Das Problem bei dem Wettbewerb zwischen Mensch und Maschine ist nicht die Qualität der automatisch generierten Texte, entscheidend ist vielmehr die Qualität der Daten.
Das umfasst meiner Meinung nach zwei unterschiedliche Bereiche: Zum einen muss die Datenbasis für die Texte stimmen. „Making data talk – 6 tips on how to make your data fit for linguistic applications“ zeigt, worauf es hier ankommt.
Zum anderen sind in vielen Fällen die Daten nicht ausreichend – und hier sind wir wieder beim Weltwissen und der Datenknappheit. Die Software kann sehr viele Regeln lernen und damit Texte korrekt und relativ abwechslungsreich gestalten.

Schon ein Gewitter kann die Software herausfordern

Aber wenn ein Mensch beispielsweise ein Fußballspiel sieht bei dem ein starkes Gewitter losbricht, kann er das Ereignis in der Regel leicht einordnen und beim Schreiben seines Textes berücksichtigen. Die Relevanz und das Leserinteresse zu bestimmen, fällt einem menschlichen Autor für solche Vorkommnisse eher leicht.
Um einen Computer dazu zu bringen, dass er einen solchen Vorfall bewertet und entscheidet, ob und wie er das in seinen Text aufnimmt, muss er erst einmal an einer Datenbank angeschlossen sein, die Wetterdaten liefert. Dazu braucht die Software eine breite Daten- und Berechunungsgrundlage wann und wie etwa Wetterereignisse bei einem Fußballspiel ein Rolle spielen. Ein solches Detail ist programmierbar – keine Frage. Allerdings ist noch zu diskutieren, ob ein Computer jemals so viele Daten zur Verfügung hat und verarbeitet, dass seine Ergebnisse mit den allgemeinen, menschlichen Fähigkeiten konkurrieren können.

Datenknappheit und Natural Language Generation

Datenknappheit im Zeitalter von „Big Data“? Kann es das geben, wo doch alles in riesigen Datenmengen zu ertrinken scheint und man hofft, von klugen Programmen die Aussagen aus den Daten gefiltert zu bekommen?

Aber gerade die Datenknappheit ist eines der größten Probleme im Umgang mit großen Datenmengen, die die New York Times anführt: Im Bereich von Text haben viele Robots wie etwa Suchmaschinen oder Übersetzungprogramme Schwierigkeiten genügend passendes Datenmaterial zu finden. Auch im Bereich der Computerlinguistik ist diese Knappheit natürlichsprachlicher Daten ein viel diskutiertes Kernthema. Entscheidende ist die Frage: Wie kann man ihr begegnen?

Natural Language Generation braucht riesige Mengen an Sprachmaterial

Sowohl beim Parsing von (Text-)Korpora, als auch bei der NLG (Natural Language Generation) spielen „ungesehene Textereignisse“ (engl. „unseen events“) immer wieder eine Rolle – vor allem bei der Beschreibung der Grenzen maschineller Verarbeitung von Text. Bisherige Text-Generierungs-Maschinen können Text im und aus dem Web nur aufarbeiten oder erkennen, sofern sie bekannte Muster einer Textsorte oder eines Stils bereits erlernt haben.

Das ist vor allem problematisch bei Textmaschinen, die mit N-Gramm-Methodiken arbeiten, da die Kompositionalität von Sprache und die synchrone Sprachentwicklung unentwegt fortschreiten. Neues Sprachmaterial wird dabei zur Herausforderung. Kürzlich hat Google seine umfangreiche Statistik zu Grammatik und Nachbarschaft von Wörtern öffentlich zur Verfügung gestellt: Ein riesiger Datenschatz in unzähligen Sprachen. Diese Veröffentlichung ist nicht ganz uneigennützig, denn auch bei Google hat man Interesse an der Weiterentwicklung der statistischen Sprachmodelle (language models) und hofft auf Unterstützung von anderen Forschern.

Textgenerierung: Zwischen Kreativität und Algorithmus  

Insgesamt leiten sich für die Zukunft der maschinellen Texterstellung zwei Hauptziele für die (wissenschaftliche und industrielle) Anwendung ab: Neben der Entwicklung von geeigneten Modellen zur Abbildung von Sprache und der Interpretation von Daten wird es auch darauf ankommen, Sprache automatisiert kreativ verwenden zu können. Den scheinbaren Widerspruch zwischen den Extremen „Kreativität“ und „Algorithmus“ aufzulösen, wird daher einen historischen Wendepunkt in der Generierung von Texten bedeuten.

Roboterjournalismus – Wo sind seine Grenzen?

„Leser können automatisch erstellten Content nicht von Content unterscheiden, der von einem Menschen geschrieben ist“.  So formuliert  Christer Clerwall  ein wichtiges Ergebnis seiner  kleinen Studie zur Bewertung automatisiert erstellter Texte.

Die Robot-Grundsatzdebatte: Was können Menschen, das Roboter nie können werden?

Mit diesem Resultat hätte die Software, die den Text geschrieben hat eine Art „Lese“-Turing Test bestanden. Der britische Informatiker Alan Turing hatte den Test in der Mitte des vergangen Jahrhunderts entwickelt,  um festzustellen, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat. Der Test besteht in einem per Tastatur und Bildschirm geführten Dialog – der Proband muss entscheiden, ob hinter den Antworten eine Maschine oder ein Mensch steckt. Und schon sind wir drin in der Science Fiction-Roboterwelt und in der Grundsatzdebatte, die schon lange geführt wird und immer wieder interessant ist: Wo sind die Grenzen der Maschinen? Was können die Roboter nicht?
ganzen Artikel lesen