AI-Bilddetektoren können durch Hinzufügen von Texturen zu Bildern ausgetrickst werden

Juli 2, 2023

Gefälschte KI-Bilder können KI-Bilddetektoren täuschen

Einige der besten KI-Bilddetektoren lassen sich täuschen, indem man dem Bild eine Textur hinzufügt oder das Bild leicht verschlechtert.

Obwohl es KI-generierte Bilder noch nicht sehr lange gibt, wissen wir, dass wir unseren Augen nicht trauen sollten. Aber es stellt sich heraus, dass wir nicht einmal den Maschinen trauen können, die uns sagen sollen, ob ein Bild echt oder gefälscht ist.

Ein neues Experiment berichtet die New York Times festgestellt, dass die meisten KI-Bilddetektoren wie Bienenstock oder Umm-maybe waren in der Lage, KI-generierte Bilder korrekt zu klassifizieren. Das heißt, bis sie dem Bild Körnung hinzufügten.

Wenn sie die Bilder durch Hinzufügen einer kleinen Menge von Körnung oder pixeligem Rauschen verschlechterten, waren die Detektoren meist davon überzeugt, dass die von der KI erzeugten Bilder echt waren. In einem Fall wurde ein Schwarz-Weiß-Bild eines Mannes zunächst mit einer Wahrscheinlichkeit von 99% als KI-generiert eingestuft. Durch das Hinzufügen einer leichten Körnung verringerte der Detektor diese Wahrscheinlichkeit plötzlich auf 3,3%, was bedeutet, dass das Bild mit ziemlicher Sicherheit echt war.

Wenn gefälschte Bilder des Papstes in einem Balenciaga-Pullover einige Leute täuschen, ist das ein harmloser Spaß. Aber wenn KI-generierte Bilder bei Wahlen verwendet werden und nicht als Fälschung erkannt werden können, könnten die Folgen noch schlimmer sein.

Ron DeSantis wurde kürzlich für die Verwendung von KI-generierten Bildern in seiner Kampagne kritisiert. Seine Kampagne hat 3 echte Bilder von Trump mit 3 KI-generierten Bildern von Trump, der Dr. Anthony Fauci umarmt und küsst, vermischt. Agence France-Press war der erste, der auf die Fälschungen hinwies.

Wenn Sie mit Trumps Politik auch nur annähernd vertraut sind, brauchen Sie keine Software, die Ihnen sagt, dass ein Foto, auf dem er Fauci küsst, gefälscht ist. Aber KI-Bilddetektoren verwenden nicht den Kontext oder das Thema, um zu entscheiden, ob ein Foto echt ist oder nicht. Sie sehen sich verräterische Pixelmuster an, die KI-Bildgeneratoren bei der Erstellung eines Bildes erzeugen.

Es hat sich herausgestellt, dass selbst die besten KI-Fälschungsdetektoren das Bild oft als echt einstufen, wenn man diese hochauflösenden Bilder nur ein wenig verschlechtert. Selbst wenn man Midjourney bittet, ein Vintage-Foto von schlechter Qualität zu erstellen, können einige dieser Tools getäuscht werden.

Das ist eine interessante Entwicklung, aber es bleibt abzuwarten, wie bedeutend sie ist. Die realen Folgen von KI-generierte Desinformation werden wahrscheinlich nicht durch narrensichere Detektoren vermieden werden können. Eine gesunde Portion Skepsis und die Aufklärung der Menschen über die Risiken, ihren Augen zu vertrauen, sind wahrscheinlich weitaus wirksamer. 

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen