Gannett, die Muttergesellschaft von USA Today und mehr als 200 anderen Tageszeitungen, hat kürzlich ein KI-Experiment gestoppt, nachdem Kritik an schlecht geschriebenen Sportartikeln laut geworden war, was die Grenzen der KI und ihre öffentliche Akzeptanz im Journalismus deutlich macht.
Man kann mit Fug und Recht behaupten, dass diejenigen, die in von der KI bedrohten Bereichen arbeiten - die das Schreiben in verschiedenen Formen umfasst - sind wahrscheinlich erfreut, wenn die Technologie keine Arbeit auf einem Niveau liefert, das sie ersetzen könnte.
Bei dem Experiment von Gannett ging es um die Veröffentlichung von KI-generierten Sportartikeln auf der Grundlage von Ergebnisdaten.
In einem Artikel der Columbus Dispatch, einer Zeitung im Besitz von Gannett, wurde ein Highschool-Footballspiel ungeschickt als "Highschool-Football-Action" bezeichnet, was die Leser dazu veranlasste, es als "schrecklich" zu bezeichnen.
Ein weiterer von der KI generierter Satz beschrieb ein Spiel in Ohio als eine "enge Begegnung der sportlichen Art", was die Sache noch unangenehmer machte.
Ein weiterer eklatanter Fehler trat in einem Dispatch-Artikel vom 19. August auf, in dem die KI es nicht schaffte, Namen für Sportmaskottchen zu generieren. Stattdessen hieß es in dem Artikel: "Das [[WINNING_TEAM_MASCOT]] von Worthington Christian besiegte das [[LOSING_TEAM_MASCOT]] von Westerville North am Samstag in einem Fußballspiel für Jungen in Ohio mit 2:1.
Es ist schon bemerkenswert, dass Gannett diese Artikel mit so eklatanten Fehlern veröffentlicht hat, und dassDer Bericht wurde später geändert und mit einem redaktionellen Vermerk versehen.
Ein Sprecher von Gannett bestätigte die Einstellung des Experiments mit den Worten: "Wir haben nicht nur landesweit Hunderte von Stellen für Reporter geschaffen, sondern auch mit Automatisierung und künstlicher Intelligenz experimentiert, um Tools für unsere Journalisten zu entwickeln und Inhalte für unsere Leser hinzuzufügen."
Der Sprecher fuhr fort: "Wir haben das LedeAI-Experiment für den Highschool-Sport pausiert und werden weiterhin Anbieter evaluieren, während wir unsere Prozesse verfeinern, um sicherzustellen, dass alle von uns bereitgestellten Nachrichten und Informationen den höchsten journalistischen Standards entsprechen."
Die problematischen Artikel wurden von LedeAI verfasst, einer Tech-Firma, die sich zum Ziel gesetzt hat, "zuverlässige, lesbare und genaue lokale Berichterstattung" zu liefern.
Jay Allred, der CEO von LedeAI, einem Unternehmen, das "Nachrichtenorganisationen beim Einsatz nützlicher und produktiver KI unterstützt, die die Kontrolle in ihren Händen hält und ihre Leser und Mitarbeiter in den Mittelpunkt stellt", räumte die Probleme ein.
Er erklärte, "Wie bei jedem neuen technologischen Fortschritt können einige Pannen auftreten. Wir bedauern aufrichtig, dass eine sehr kleine Anzahl der mehr als 1.000 Artikel, die wir am 19. August für die Zeitungswebsites von Gannett produziert haben, einige Fehler, unerwünschte Wiederholungen und/oder ungeschickte Formulierungen enthalten."
Allred fügte hinzu, dass die öffentliche Kritik einen "nützlichen" Dialog über die Technologie angestoßen habe: "Das Gespräch, das über X begonnen hat, ist sehr nützlich."
"Es gab berechtigte Probleme mit den von uns erstellten Berichten, und das Feedback, das wir erhielten, war berechtigt. Wir haben die Kritik ernst genommen und sofort gehandelt."
Während einige, wie der deutsche Verlag Axel Springer, spekulieren, dass KI eines Tages menschliche Journalisten ersetzen könnte, sehen andere diesen Vorfall als Beweis für die derzeitigen Grenzen der Technologie.
Dennoch bleibt Allred optimistisch, was die Rolle von KI in Lokalredaktionen angeht, und glaubt, dass "die Automatisierung von Inhalten Teil der Zukunft von Lokalredaktionen ist".