DeepMind-onderzoek onthult deep fakes als belangrijkste vorm van AI-misbruik

26 juni 2024

  • DeepMind en Jigsaw onderzochten meer dan 200 incidenten van AI-misbruik op verschillende platforms
  • Het onderzoek heeft uitgewezen dat AI-gegenereerde diepe vervalsingen de belangrijkste vorm van AI-misbruik zijn
  • De meeste diepe vervalsingen worden gemotiveerd door de intentie om meningen te manipuleren

AI heeft talloze toepassingen, maar een van de meest verontrustende is het creëren van nepmedia en misinformatie.

Een nieuwe onderzoek van Google DeepMind en Decoupeerzaag, een technologie-incubator van Google die maatschappelijke bedreigingen in de gaten houdt, analyseerde misbruik van AI tussen januari 2023 en maart 2024.

Het onderzoek beoordeelde ongeveer 200 echte incidenten van AI-misbruik en onthulde dat het creëren en verspreiden van misleidende nepmedia, met name gericht op politici en publieke figuren, de meest voorkomende vorm van kwaadwillig AI-gebruik is.

Deep fakes, synthetische media die met behulp van AI-algoritmen worden gegenereerd om zeer realistische, maar valse afbeeldingen, video's en audio te maken, zijn levensecht en alomtegenwoordig geworden. 

Incidenten zoals wanneer expliciete nepafbeeldingen van Taylor Swift verschenen op X liet zien dat dergelijke afbeeldingen miljoenen mensen kunnen bereiken voordat ze worden verwijderd. 

Maar het meest verraderlijk zijn diepe vervalsingen gericht op politieke kwesties, zoals het Israëlisch-Palestijns conflict. In sommige gevallen kunnen zelfs de feitencheckers die ze als "AI-gegenereerd" moeten bestempelen, de echtheid ervan niet betrouwbaar vaststellen. 

Het onderzoek van DeepMind verzamelde gegevens uit een breed scala aan bronnen, waaronder sociale mediaplatforms zoals X en Reddit, online blogs en mediaberichten. 

Elk incident werd geanalyseerd om het specifieke type AI-technologie te bepalen dat werd misbruikt, het beoogde doel achter het misbruik en het niveau van technische expertise dat nodig was om de kwaadaardige activiteit uit te voeren.

Diepe vervalsingen zijn de dominante vorm van AI-misbruik

De bevindingen schetsen een alarmerend beeld van het huidige landschap van kwaadwillig AI-gebruik:

  1. Deep fakes kwamen naar voren als de dominante vorm van AI-misbruik, goed voor bijna twee keer zoveel incidenten als de op één na meest voorkomende categorie.
  2. Het op een na meest waargenomen type AI-misbruik was het gebruik van taalmodellen en chatbots om online desinformatie te genereren en te verspreiden. Door de creatie van misleidende inhoud te automatiseren, kunnen kwaadwillenden sociale media en andere platforms op ongekende schaal overspoelen met nepnieuws en propaganda.
  3. Het beïnvloeden van de publieke opinie en politieke verhalen was de primaire motivatie achter meer dan een kwart (27%) van de geanalyseerde gevallen van AI-misbruik. Dit illustreert de dreiging die deep fakes en AI-gegenereerde desinformatie vormen voor democratische processen en de integriteit van verkiezingen wereldwijd, die we hebben waargenomen van recente opvallende incidenten.
  4. Financieel gewin werd geïdentificeerd als de tweede meest voorkomende drijfveer van kwaadaardige AI-activiteit, waarbij gewetenloze actoren betaalde diensten aanboden voor het maken van diepe vervalsingen, waaronder niet-consensueel expliciet beeldmateriaal, en gebruik maakten van generatieve AI om massaal valse inhoud te produceren voor winst.
  5. Bij de meeste gevallen van AI-misbruik ging het om gemakkelijk toegankelijke tools en diensten waarvoor minimale technische kennis nodig was om ze te kunnen gebruiken. Deze lage instapdrempel vergroot de groep potentiële kwaadwillende actoren enorm, waardoor het voor individuen en groepen eenvoudiger dan ooit is om zich bezig te houden met AI-gestuurde misleiding en manipulatie.
DeepMind
AI-misbruik in kaart brengen. Bron: DeepMind.

Dr. Nahema Marchal van DeepMind legde het veranderende landschap van AI-misbruik uit aan de Financiële Times: "Er was veel begrijpelijke bezorgdheid over behoorlijk geraffineerde cyberaanvallen die mogelijk werden gemaakt door deze tools," vervolgt hij, "We zagen vrij algemeen misbruik van GenAI [zoals diepe vervalsingen die] misschien wat meer onder de radar gaan."

Beleidsmakers, technologiebedrijven en onderzoekers moeten samenwerken om uitgebreide strategieën te ontwikkelen voor het detecteren en tegengaan van deepfakes, door AI gegenereerde desinformatie en andere vormen van AI-misbruik.

Maar de waarheid is dat ze het al hebben geprobeerd - en grotendeels hebben gefaald. Recentelijk hebben we meer incidenten waargenomen van kinderen die verstrikt raken in valse incidentenwaaruit blijkt dat de maatschappelijke schade die ze aanrichten ernstig kan zijn. 

Op dit moment kunnen techbedrijven niet betrouwbaar deep fakes op schaal detecteren en ze zullen in de loop der tijd alleen maar realistischer en moeilijker te detecteren worden. 

En zodra tekst-naar-videosystemen zoals OpenAI's Sora landt, komt er een hele nieuwe dimensie van diepe vervalsingen om mee om te gaan. 

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden