Das Oversight Board ist ein unabhängiges Expertengremium, das von Meta im Jahr 2020 eingerichtet wurde, um die schwierigsten Entscheidungen des Unternehmens zur Moderation von Inhalten auf Facebook, Instagram und Threads zu überprüfen.
Sie kündigte am Dienstag an, dass sie Metas Umgang mit zwei Fällen überprüfen wird, bei denen es um KI-generierte sexuell eindeutige Bilder ging, auf denen weibliche Personen des öffentlichen Lebens abgebildet waren.
Dem Gremium gehören 20 Mitglieder aus aller Welt an, darunter Rechtsanwälte, Menschenrechtsaktivisten, Journalisten und Akademiker.
Sie arbeitet unabhängig von Meta, verfügt über eigenes Personal und Budget und kann verbindliche Entscheidungen über Inhalte treffen, die Meta umsetzen muss, sofern dies nicht gegen das Gesetz verstößt.
Der Vorstand kann auch unverbindliche politische Empfehlungen an Meta richten.
In einem Blog-BeitragDas Oversight Board erklärte: "Heute kündigt das Board zwei neue Fälle zur Prüfung an. In diesem Zusammenhang laden wir Personen und Organisationen dazu ein, öffentliche Kommentare abzugeben".
Im ersten Fall geht es um ein explizit von der KI generiertes Bild, das auf Instagram gepostet wurde und eine öffentliche Person aus Indien zeigen soll.
Das Bild wurde mit Hilfe künstlicher Intelligenz (KI) so erstellt, dass es einer indischen Persönlichkeit des öffentlichen Lebens ähnelt", so die Behörde. Das Konto, das diesen Inhalt gepostet hat, teilt nur KI-generierte Bilder von indischen Frauen. Die Mehrheit der Nutzer, die darauf reagiert haben, haben Konten in Indien, wo Deepfakes zunehmend zu einem Problem werden.
Der zweite Fall betrifft ein Bild, das in einer Facebook-Gruppe gepostet wurde, die sich mit KI-Kreationen befasst. Es zeigt eine KI-generierte nackte Frau, die einer amerikanischen Persönlichkeit des öffentlichen Lebens ähnelt und von einem Mann betatscht wird.
Das Oversight Board stellte fest: "Es zeigt ein KI-generiertes Bild einer nackten Frau mit einem Mann, der ihre Brust betatscht. Das Bild wurde mit KI so erstellt, dass es einer amerikanischen Persönlichkeit des öffentlichen Lebens ähnelt, die auch in der Bildunterschrift genannt wird. Die Mehrheit der Nutzer, die darauf reagierten, haben Konten in den Vereinigten Staaten".
Zunächst erlaubte Meta, dass das Bild der indischen Persönlichkeit des öffentlichen Lebens auf Instagram verbleibt, entfernte es aber später wegen Verstoßes gegen den Gemeinschaftsstandard für Mobbing und Belästigung, nachdem das Oversight Board den Fall zur Überprüfung ausgewählt hatte.
Meta entfernte das Bild der amerikanischen Persönlichkeit des öffentlichen Lebens, weil es gegen dieselbe Richtlinie verstieß, insbesondere gegen die Klausel, die "herabwürdigende, sexualisierte Photoshops oder Zeichnungen" verbietet.
Das Oversight Board erklärte, dass es "diese Fälle auswählte, um zu bewerten, ob Metas Richtlinien und seine Durchsetzungspraktiken wirksam gegen explizite, durch KI erzeugte Bilder vorgehen. Dieser Fall steht im Einklang mit der strategischen Priorität des Boards im Bereich Gender.
Im Rahmen der Überprüfung bittet das Oversight Board um öffentliche Stellungnahmen zu verschiedenen Aspekten der Fälle, darunter "die Art und Schwere der Schäden, die von gefälschter Pornografie ausgehen", "kontextbezogene Informationen über die Nutzung und Verbreitung von gefälschter Pornografie weltweit" und "Strategien, wie Meta gegen gefälschte Pornografie auf seinen Plattformen vorgehen kann".
Die Frist für öffentliche Stellungnahmen bleibt 14 Tage lang offen und endet am 30. April. Das Oversight Board wird dann über die Fälle beraten und seine Entscheidungen treffen, die für Meta verbindlich sind. Etwaige politische Empfehlungen des Gremiums sind nicht bindend, Meta muss jedoch innerhalb von 60 Tagen darauf reagieren.
Die Ankündigung des Oversight Board kommt mitten in der zunehmende Besorgnis über die Ausbreitung nicht einvernehmlicher, tiefgründiger Fake-Pornografie, die sich an Frauen, insbesondere an Prominente, richtet.
Taylor Swift war die produktivstes Zielmit KI-generierten expliziten Bildern der Sängerin, die eine digitale Fahndung nach dem Täter auslösten.
Als Reaktion auf die zunehmende Bedrohung durch gefälschte Pornografie hat der Gesetzgeber das DEFIANCE-Gesetz im Januardie es den Opfern von unerlaubten Fälschungen ermöglichen würde, Klage zu erheben, wenn sie beweisen können, dass der Inhalt ohne ihre Zustimmung erstellt wurde.
Die Kongressabgeordnete Alexandria Ocasio-Cortez, die den Gesetzentwurf eingebracht hat und selbst Ziel von Deep Fake-Pornografie war, betonte, dass der Kongress handeln müsse, um die Opfer zu unterstützen, da Deep Fakes immer zugänglicher werden.