Die meisten Menschen würden bezeugen, dass das Internet eine bisweilen feindselige Umgebung ist, aber was wäre, wenn Sie jeden Tag dem Schlimmsten ausgesetzt wären, was es zu bieten hat?
Inhaltsmoderatoren haben die Aufgabe, Texte, Bilder und Videos zu sichten und schädliche Inhalte manuell zu kennzeichnen, von rassistischen Beleidigungen und Hassreden bis hin zu Diskussionen oder Darstellungen von Mord und Selbstmord.
Die schädlichen psychologischen Auswirkungen der Arbeit sind gut dokumentiert, sowohl anekdotisch in Form offener Briefe von Personen aus der Branche als auch in wissenschaftlichen Studien.
Die aufkeimende Branche der generativen KI hat die Nachfrage nach Content-Moderatoren neu entfacht, und wieder einmal kommen Geschichten aus dem Inneren dieser schwierigen Arbeit an die Oberfläche.
Datenarbeiter in Kenia äußern sich zur KI-Moderation von Inhalten
In Kenia haben mehrere ehemalige Moderatoren von OpenAIs ChatGPT eine Petition an die kenianische Regierung gerichtet und eine Untersuchung der von ihnen als "ausbeuterisch" bezeichneten Bedingungen gefordert.
Bei den fraglichen ausbeuterischen Geschäftsaktivitäten geht es um die von OpenAI in Auftrag gegebenen Dienstleistungen von Sama, einem in Kalifornien ansässigen Unternehmen für Datenannotationsdienste.
Als laut der Petition"Während des gesamten Vertrags über die Ausbildung von ChatGPT wurde uns keine psychosoziale Unterstützung gewährt. Aufgrund der Exposition gegenüber dieser Art von Arbeit, der Ausbildung bei ChatGPT, haben wir schwere psychische Erkrankungen entwickelt, darunter PTBS, Paranoia, Depression, Angstzustände, Schlaflosigkeit, sexuelle Funktionsstörungen, um nur einige zu nennen.
TIME, die auch untersuchte Samas Beziehung zu Meta in Kenia an einem ähnlichen Projekt beteiligt war, überprüfte Dokumente, die darauf hindeuten, dass OpenAI drei Verträge mit Sama im Wert von etwa $200.000 unterzeichnet hat. Die Verträge umfassten die Kennzeichnung von Textbeschreibungen von sexuellem Missbrauch, Hassreden und Gewalt.
Rund 36 Mitarbeiter in 3 Teams arbeiteten an dem Projekt, wobei sich jeweils ein Team auf ein Thema konzentrierte. Alle Arbeiter interviewt von TIME gaben an, dass sich die Aufgabe auf ihre psychische Gesundheit auswirkte.
Mophat Okinyi, ein ehemaliger Moderator, erzählte, welchen psychologischen Tribut die Arbeit für ihn bedeutet hat. "Es hat meiner psychischen Gesundheit wirklich geschadet". sagte Okinyi. Er erinnerte sich, dass er täglich bis zu 700 Textpassagen sah, von denen viele sexuelle Gewalt darstellten, was zu Paranoia und Isolation führte. Er verlor schließlich seine Frau, die sagte, er sei ein "veränderter Mann".
TIME berichtete, dass ein Mitarbeiter eine grafische Beschreibung von Bestialität in Gegenwart eines Kindes vorlesen musste, die er als "Folter" bezeichnete. Er fuhr fort: "Sie werden im Laufe der Woche eine Reihe solcher Aussagen lesen. Wenn es dann Freitag ist, ist man schon ganz verstört, wenn man dieses Bild durchdenkt."
Die kenianische Petition macht auf die grausamen Inhalte aufmerksam, die die Auftragnehmer zu überprüfen hatten und die oft Szenen von Gewalt, Selbstverletzung, Mord, Vergewaltigung, Nekrophilie, Kindesmissbrauch, Bestialität und Inzest beinhalteten. Nach Angaben eines Sama-Sprechers verdienten die Arbeiter zwischen $1,46 und $3,74 pro Stunde für diese Arbeit.
Niedrige Löhne für KI-bezogene Datendienste sind in den sozialen Medien gut dokumentiert, wobei ein Redditor über seine Erfahrung mit der Ausbildung von Barden"20$/Std. ist nicht genug für die schreckliche Behandlung, die wir erfahren, also werde ich jeden Cent aus diesem ******* Job herausquetschen."
$20/Std. ist weit entfernt von den unter $5/Std., die in Kenia gezahlt werden. Sarum sollten KI-Unternehmen so schnell zu einem Wettlauf nach unten ansetzen, wenn die Arbeit selbst geschäftskritisch und der Inhalt gefährlich ist?
Fingerhuteine gemeinnützige Nichtregierungsorganisation, die die Klagen kenianischer Arbeiter gegen Meta und OpenAI unterstützt, bezeichnet dies als eklatante Ausbeutung von Niedriglohnarbeitern.
Jetzt fordern vier ehemalige Datenlaboranten das kenianische Parlament auf, dieser Ausbeutung Einhalt zu gebieten - und dem zwielichtigen Outsourcing durch Unternehmen wie Sama ein Ende zu setzen, die junge Afrikaner mit der Aussicht auf technische Arbeitsplätze locken, nur um sie dann wegzuschicken, wenn sie es wagen, sich um ein besseres Angebot zu bemühen.
- Fingerhut (@Foxglovelegal) 12. Juli 2023
Cori Crider, Direktorin der FingerhutDie Auslagerung dieser Arbeitskräfte ist eine Taktik von Technologieunternehmen, um sich von den schrecklichen Arbeitsbedingungen zu distanzieren, denen Moderatoren ausgesetzt sind.
Diese Mitarbeiter moderierten Inhalte zum sexuellen Missbrauch von Kindern sowie zu Inzest, Bestialität, Vergewaltigung, Sexhandel und Sexsklaverei.
Sie erhielten keine wirkliche psychiatrische Unterstützung - und sie arbeiteten für einen Hungerlohn. Lesen Sie @_KarenHaoden vollständigen Bericht: https://t.co/q8ion4vuNx
- Fingerhut (@Foxglovelegal) 25. Juli 2023
Warum werden menschliche Moderatoren für Inhalte benötigt?
Das Training von KI-Modellen erfordert einen beträchtlichen menschlichen Aufwand für die Erstellung und Aufbereitung von Datensätzen.
Wenn OpenAI und andere KI-Entwickler ihre Datensätze erstellen, sammeln sie in der Regel Daten aus der realen Welt, generieren synthetische Daten und holen sich Daten aus dem Internet, einschließlich Bilder und Texte von Websites, Foren und so weiter.
Nach der Erfassung müssen die Daten vorverarbeitet werden, einschließlich der Entfernung von schädlichen, hasserfüllten und diskriminierenden Inhalten. Außerdem nehmen menschliche Teams eine Feinabstimmung der KI-Modelle vor, indem sie potenziell riskante oder schädliche Aufforderungen eingeben und die Antworten analysieren.
Diese Prozesse ermöglichen es den Forschern, die KI an ethischen und sozialen Werten "auszurichten", um eine saubere, neutrale KI zu erhalten, die nicht anfällig für unbeständiges Verhalten ist. Zumindest ist dies das Ideal für proprietäre öffentliche Modelle wie ChatGPT und Bard.
Die KI-Anpassung ist eine höchst unvollkommene Wissenschaft, die nur mit viel menschlichem Einsatz möglich ist.
Andere KI-Tools können zwar Daten vorfiltern und offenkundigere Fälle von hasserfüllten oder giftigen Inhalten entfernen, aber ihre Genauigkeit ist bei weitem nicht gewährleistet, und einige werden unweigerlich durch das Netz rutschen. Die Aufgabe wird noch dadurch erschwert, dass Menschen immer wieder Wege finden, die KI-Filterung von Inhalten zu umgehen, indem sie beispielsweise Wörter durch Emojis ersetzen - eine Technik, die regelmäßig eingesetzt wird, um Filter in sozialen Medien zu umgehen.
In diesem speziellen Szenario bestätigte OpenAI gegenüber TIME, dass Sama-Mitarbeiter in Kenia an der Entwicklung eines Tools zur Erkennung schädlicher Inhalte beteiligt waren, das schließlich in ChatGPT integriert wurde.
OpenAI antwortet auf die Petition
Mitte Juli reagierte OpenAI auf die Bedenken hinsichtlich der psychologischen Auswirkungen der Moderation von Inhalten.
In einer Erklärung an ITWeb AfrikaEin OpenAI-Sprecher sagte: "Wir sind uns bewusst, dass dies eine große Herausforderung für unsere Forscher und Kommentatoren in Kenia und auf der ganzen Welt ist - ihre Bemühungen, die Sicherheit von KI-Systemen zu gewährleisten, sind immens wertvoll."
Der Sprecher fuhr fort: "Unsere Aufgabe ist es, sichere und nützliche AGI (künstliche allgemeine Intelligenz) zu entwickeln, und die menschliche Datenkommentierung ist einer der vielen Ströme unserer Arbeit, um menschliches Feedback zu sammeln und die Modelle zu einem sichereren Verhalten in der realen Welt zu führen. Wir glauben, dass diese Arbeit menschlich und freiwillig erfolgen muss, weshalb wir unsere eigenen ethischen und Wellness-Standards für unsere Datenannotatoren festlegen und weitergeben."
Martha Dark, die Direktorin von Foxglove, sagte: "ChatGPT ist als Symbol für das Potenzial von KI weltberühmt. Aber wie schon bei Facebook beruht sein Erfolg auf einem Heer von versteckten und unterbezahlten Menschen, die die grausame Arbeit machen, giftige Inhalte zu sichten, um den Dienst sicher zu machen. Die Moderatoren in Kenia gründen die erste Gewerkschaft für Inhaltsmoderatoren auf dem Kontinent, um sich zu wehren. Diese parlamentarische Petition ist der jüngste Beweis für die Macht der organisierten Tech-Arbeiter. Foxglove unterstützt diese Bewegung - und hofft, dass die kenianischen Abgeordneten das Outsourcing-Modell, das Unternehmen wie Sama die Ausbeutung durch ausländische Tech-Giganten ermöglicht, dringend reformieren werden."
Mercy Mutemi, geschäftsführende Partnerin der kenianischen Anwaltskanzlei Nzili & Sumbi Advocates, fügte hinzu: "Die Kenianer haben es satt, die Cash Cow der großen Technologiekonzerne zu sein, die riesige Gewinne einstreichen und dann ins Ausland schicken, während die jungen afrikanischen Arbeitnehmer, die sie erwirtschaftet haben, arbeitslos und gebrochen sind. Ich fordere die Gesetzgeber auf, diesen mutigen ehemaligen ChatGPT-Datenetikettierern zuzuhören und die Arbeitsbedingungen in den kenianischen Content-Moderationsbüros unverzüglich zu untersuchen."
In dem separaten Fall von Meta, einem Kenianisches Gericht entscheidet dass Meta für die Arbeiter verantwortlich war und nicht Sama, was als wegweisende Entscheidung gilt, die das Wesen des Tech-Outsourcing verändern könnte.
Die dunkle Geschichte der Inhaltsmoderation
Die Moderation von Inhalten hat eine düstere Geschichte, die bis in die Anfänge des Internets zurückreicht.
Das moderne Internet ist stark zensiert, und schädliche Inhalte verschiedener Art sind von den gängigen Websites weitgehend verbannt. Aber die Menschen versuchen es trotzdem, und die Last des Schutzes von Online-Gemeinschaften liegt oft auf den Schultern der Menschen.
Die schiere Menge an potenziell anstößigen Inhalten ist atemberaubend. Wie berichtet von Forbes im Jahr 2020Die KI für Inhaltsanalyse und -moderation von Facebook hat täglich über 3 Millionen Inhalte markiert, die möglicherweise gegen die Gemeinschaftsstandards verstoßen.
Facebook beschäftigte damals etwa 15.000 Inhaltsmoderatoren, die jeden Tag Tausende von Inhalten sichten. Mark Zuckerberg gab zu, dass etwa einer von zehn Inhalten das Netz verlässt und auf Facebook oder Instagram veröffentlicht wird.
Trotz Fortschritten bei der automatischen Inhaltsfilterung ist eine 2021 Studie von Forschern der Virginia Tech, der St. Mary's University, Texas, und der University of Texas in Austin schätzten, dass weltweit etwa 100.000 Content-Moderatoren tätig sind.
Die Autoren weisen darauf hin, dass aufgrund der hohen Genauigkeitsanforderungen, des subjektiven Charakters der Aufgabe und der komplexen, sich ständig ändernden Moderationsrichtlinien häufig eine menschliche Interpretation erforderlich ist.
In der akademischen Literatur wird beschrieben, dass Moderatoren unter anderem an posttraumatischen Belastungsstörungen (PTSD), Stress, Depressionen und Angstzuständen leiden. Bezahlte Moderatoren müssen sich mit beunruhigenden Inhalten auseinandersetzen und gleichzeitig strenge Quoten für eine akzeptable Arbeitsleistung einhalten und werden oft schlecht bezahlt.
Einige Moderatoren sind bei ihrer Arbeit an der so genannten "Terror-Warteschlange" - der Warteschlange mit den verstörendsten Inhalten wie Mord, Selbstmord und Folter - extrem belastenden Inhalten ausgesetzt.
In The Verge's 2019 Exposé der Inhaltsmoderation für Google und YouTubeein Moderator, der bei Alphabet in Austin, Texas, arbeitet, sagte: "Wenn ich sagen würde, dass es mich nicht beeinflusst, wäre das eine komplette Lüge." "Was man jeden Tag sieht ... das prägt einen", und weiter: "Am Anfang hat jeder gesagt: 'Hallo, wie geht's?'" "Alle waren freundlich. Sie gingen herum und schauten nach dem Rechten. Jetzt will niemand mehr mit den anderen reden."
Ein anderer sagte: "Jeden Tag siehst du, wie jemand enthauptet wird oder wie jemand seine Freundin erschießt. Danach hat man das Gefühl, wow, diese Welt ist wirklich verrückt. Das macht dich krank. Du hast das Gefühl, dass es nichts gibt, wofür es sich zu leben lohnt. Warum tun wir uns das gegenseitig an?"
Während AI-Inhaltsfilter werden immer besser und entlasten die menschlichen Moderationsteams, aber die menschliche Aufsicht ist nach wie vor entscheidend für die Erfassung von Inhalten, die ihren Blick abwenden.
Wenn es um die Erstellung von KI-Trainingsdaten geht, ist ein gewisses Maß an menschlichem Kontakt mit schädlichen Inhalten weitgehend unvermeidlich.
Wenn die kenianischen Gerichte zu Gunsten der Content-Moderatoren entscheiden und andere ausgelagerte Auftragnehmer ihrem Beispiel folgen, werden die KI-Unternehmen keine andere Wahl haben, als eine angemessene Vergütung für diese aufreibende Aufgabe zu zahlen.
Schließlich hängt die Leistung ihrer Modelle davon ab.