OpenAI sagt, dass es eine Wasserzeichen-Methode entwickelt hat, die den von ChatGPT geschriebenen Text genau erkennt, aber noch darüber debattiert, ob sie veröffentlicht werden soll oder nicht.
Die Erkennung von KI-generiertem Text hat sich zunehmend schwieriger da LLMs immer besser darin werden, Inhalte zu schreiben. Die Lehrkräfte haben es schwer, festzustellen, ob ihre Studierenden die Aufgaben selbst verfasst haben oder ob sie sie einfach von ChatGPT schreiben ließen.
In einem aktualisierter BlogbeitragOpenAI teilte mit, dass es "eine Textwasserzeichen-Methode entwickelt hat, die wir weiterhin in Betracht ziehen, während wir nach Alternativen suchen."
Das Unternehmen sagt, die Methode sei sehr genau und resistent gegen lokale Manipulationen wie Paraphrasierung. Es gibt jedoch zu, dass es nicht narrensicher ist. Wenn man den Text durch ein Übersetzungssystem laufen lässt oder ein anderes LLM verwendet, um den Text umzuformulieren, wird die Wirksamkeit des Wasserzeichens umgangen.
Wenn Sie ein KI-Modell verwenden, um ein spezielles Zeichen wie ein Emoji zwischen den einzelnen Wörtern einzufügen, und dieses Zeichen dann löschen, wird das Wasserzeichen ebenfalls unbrauchbar. Diese technischen Einschränkungen sind jedoch nicht der einzige Grund, warum die Funktion noch nicht freigegeben wurde.
ChatGPT ist ein besonders nützliches Schreibwerkzeug für Nicht-Muttersprachler. OpenAI sagt, seine Forschung zeige, dass die Freigabe des Wasserzeichen-Tools unverhältnismäßig große Auswirkungen auf Gruppen wie diese haben und ihre Nutzung von KI als nützliches Schreibwerkzeug stigmatisieren könnte.
Alternativen zu Text-Metadaten
Die OpenAI-Ingenieure arbeiten an Möglichkeiten, Metadaten anstelle von Wasserzeichen als Textnachweismethode zu verwenden. Die von DALL-E 3 erzeugten Bilder haben bereits C2PA Metadaten.
Laut OpenAI ist es noch zu früh, um zu sagen, wie effektiv das Hinzufügen von Metadaten zu KI-generiertem Text sein würde, aber es hat einige potenzielle Vorteile. Zum einen sind die Metadaten kryptografisch signiert, so dass kein Risiko von Fehlalarmen besteht.
Das Problem bei der Verwendung von Metadaten ist, dass sie leicht entfernt werden können. OpenAI hat nicht erklärt, wie Metadaten auf Text angewendet werden sollen, aber das Entfernen von C2PA-Metadaten aus KI-generierten Bildern ist extrem einfach.
Einige Social-Media-Plattformen entfernen Metadaten, wenn Bilder hochgeladen werden, und wenn man einfach einen Screenshot des Bildes macht, umgeht man die C2PA. Werden ähnliche Umgehungen auch bei KI-generiertem Text mit hinzugefügten Metadaten wirksam sein?
Wenn ChatGPT Text generiert und Metadaten hinzufügt, könnten Sie einen Screenshot des Textes machen, ihn zu ChatGPT hochladen und das Bild in Text umwandeln lassen. Auf Wiedersehen Metadaten.
Schlecht fürs Geschäft
Der andere Grund, warum OpenAI zögern könnte, das Tool zu veröffentlichen, ist, dass es nur von ChatGPT generierten Text erkennt. Wenn die Nutzer wissen, dass ihre KI-generierten Inhalte leicht zu erkennen sind, werden sie schnell von ChatGPT auf eine andere Plattform wechseln.
Das Wall Street Journal berichtet dass das Tool von OpenAI bereits seit einem Jahr zur Veröffentlichung bereit war und 99% effektiv war. In dem Bericht heißt es: "Bei dem Versuch zu entscheiden, was zu tun ist, schwankten die OpenAI-Mitarbeiter zwischen dem erklärten Engagement des Startups für Transparenz und ihrem Wunsch, Nutzer anzuziehen und zu halten."
Eine von OpenAI in Auftrag gegebene weltweite Umfrage ergab, dass die Idee eines KI-Erkennungstools mit einer Mehrheit von 4 zu 1 unterstützt wird. Eine interne Umfrage ergab jedoch, dass fast ein Drittel der ChatGPT-Nutzer von einem KI-Textdetektor abgeschreckt werden würde.
Die Nutzer wollen, dass KI-generierte Inhalte leicht zu erkennen sind, solange es sich nicht um selbst erstellte Inhalte handelt.