OpenAI hat angekündigt, dass GPT-4 das Potenzial hat, die Aufgabe der Inhaltsmoderation zu modernisieren und den Bedarf an menschlicher Aufsicht zu verringern.
Das Internet wird ständig von schädlichen, hasserfüllten oder anderweitig inakzeptablen Inhalten befreit, und obwohl Algorithmen hinter den Kulissen bereits daran arbeiten, diesen Prozess zu automatisieren, bleibt das menschliche Verständnis von unschätzbarem Wert.
Die Moderatoren sind mit dieser Aufgabe betraut und müssen die teilweise traumatischen Inhalte, die Selbstmord, Folter und Mord darstellen, aussortieren.
OpenAI stellt sich eine Zukunft vor, in der KI die Moderation von Online-Inhalten nach plattformspezifischen Richtlinien rationalisiert und so den Druck auf menschliche Moderatoren deutlich verringert.
In einem Blog-BeitragWir glauben, dass dies eine positivere Vision für die Zukunft digitaler Plattformen bietet, in der KI dabei helfen kann, den Online-Verkehr gemäß plattformspezifischer Richtlinien zu moderieren und menschliche Moderatoren, von denen es weltweit wahrscheinlich Hunderttausende gibt, zu entlasten."
Dies ist ein wichtiges Thema, denn OpenAI wurde kürzlich in einen Skandal verwickelt mit Inhaltsmoderatoren, die für das Datendienstleistungsunternehmen Sama in Nairobi, Kenia, arbeiten.
Die Mitarbeiter mussten grafische Textinhalte sortieren, um das "Alignment" von ChatGPT zu verbessern, d. h. die Anpassung der KI-Ausgaben an "wünschenswerte" ethische, moralische und politische Grenzen - eine höchst subjektive Praxis.
Das Moderationsteam berichtete über traumatische und unfaire Arbeitsbedingungen und reichte bei der kenianischen Regierung eine Petition ein, die in einem Gerichtsverfahren gipfelte.
Laut OpenAI könnte GPT-4 dabei helfen, personalisierte Inhaltsrichtlinien zu erstellen und sie in großem Umfang auf Inhalte anzuwenden.
Beim Vergleich von GPT-4 mit der manuellen Moderation hob OpenAI die Fähigkeit der KI hervor, konsistente Kennzeichnung und schnelles Feedback zu bieten, und erklärte: "Menschen können Richtlinien unterschiedlich interpretieren oder manche Moderatoren brauchen länger, um neue Richtlinienänderungen zu verarbeiten, was zu inkonsistenten Kennzeichnungen führt. Im Vergleich dazu sind LLMs sensibel für granulare Unterschiede im Wortlaut und können sich sofort an Richtlinienaktualisierungen anpassen, um den Nutzern ein konsistentes Inhaltserlebnis zu bieten."
Trotz des Potenzials von GPT-4, die Belastung der Inhaltsmoderatoren zu verringern, räumt OpenAI ein, dass eine vollständige Automatisierung des Prozesses wahrscheinlich nicht möglich ist: "Wie bei jeder KI-Anwendung müssen die Ergebnisse und der Output sorgfältig überwacht, validiert und verfeinert werden, indem Menschen in der Schleife bleiben."
Wie OpenAI GPT-4 für die Moderation von Inhalten nutzen will
Digitale Plattformen stehen vor der ständigen Herausforderung, große Mengen an Inhalten schnell und präzise zu moderieren.
In der Vergangenheit wurde die schwere Arbeit von menschlichen Moderatoren übernommen, was möglicherweise katastrophale psychologische Folgen hatte und oft mit einer niedrigen Bezahlung einherging.
OpenAI will GPT-4 nutzen, um automatisch Richtlinien zur Begrenzung schädlicher Inhalte umzusetzen. Das Unternehmen hob die folgenden Vorteile hervor:
- Geschwindigkeit: Mit GPT-4 werden Änderungen an den Inhaltsrichtlinien, die früher Monate dauerten, jetzt in wenigen Stunden erledigt.
- Konsistenz: Die menschliche Interpretation von Inhaltsrichtlinien kann variieren, was zu Unstimmigkeiten führt. GPT-4 bietet einen standardisierten Ansatz, indem es sich an Richtlinienanpassungen anpasst.
- Seelisches Wohlbefinden: Die Automatisierung eines Großteils der Inhaltsmoderation mit GPT-4 kann die emotionale Belastung der menschlichen Moderatoren verringern, die oft mit schädlichen oder beleidigenden Inhalten konfrontiert sind.
OpenAI räumte jedoch ein, dass die Moderation von Inhalten schnell voranschreitet, da Menschen ständig neue Wege finden, um Filter zu umgehen, z. B. durch die Verwendung neuer Slangbegriffe, um der Erkennung zu entgehen.
Darüber hinaus bleibt die Verzerrung ein Problem, da die Entscheidungen des GPT-4 die Verzerrungen seiner Trainingsdaten widerspiegeln könnten. Dies könnte zu blinden Flecken oder einer unvorhersehbaren Behandlung bestimmter Inhalte führen.
Es ist erwähnenswert, dass die kenianischen Inhaltsmoderatoren diese Aufgabe übernahmen, um ChatGPT anzugleichen.
Selbst der Einsatz von KI zur Moderation von Inhalten erfordert also letztlich ein gewisses Maß an menschlichem Engagement.