Op de Munich Security Conference heeft een coalitie van 20 techgiganten, waaronder OpenAI, Meta, Microsoft en anderen, een gezamenlijke inspanning aangekondigd om misleidende AI-inhoud te bestrijden die verkiezingen wereldwijd beïnvloedt.
Dit komt door de groeiende bezorgdheid dat AI-gegenereerde diepe vervalsingen verkiezingsprocessen zouden kunnen manipuleren, vooral nu er dit jaar in verschillende landen grote verkiezingen op til zijn.
We hebben al gezien diepe vervalsingen spelen een rol in ieder geval bij de verkiezingen in Pakistan, Indonesië, Slowakije en Bangladesh.
Deze nieuwe overeenkomst omvat toezeggingen om tools te ontwikkelen voor het detecteren en aanpakken van misleidende AI-gegenereerde media, het publiek bewust te maken van misleidende inhoud en snel actie te ondernemen om dergelijke inhoud van hun platforms te verwijderen.
De waarheid is echter dat we dit al zo vaak hebben gehoord. Dus wat is er nu anders?
Hoewel details over implementatietijdlijnen vaag blijven, benadrukten bedrijven de noodzaak van een collectieve aanpak om deze veranderende dreiging aan te pakken.
Technologiebedrijven hebben toegezegd gezamenlijke tools in te zetten om de verspreiding van schadelijke, door AI gegenereerde verkiezingscontent te detecteren en te beperken, waaronder technieken als watermerken om de herkomst van content en wijzigingen te certificeren. Ze hebben ook toegezegd transparant te zijn over hun inspanningen en de risico's van hun AI-modellen te beoordelen.
"Ik denk dat het nut van dit (akkoord) ligt in de breedte van de bedrijven die het ondertekenen," zei Nick Clegg, voorzitter van wereldwijde zaken bij Meta Platforms.
"Het is allemaal goed en wel als individuele platforms nieuw beleid ontwikkelen voor detectie, provenance, labeling, watermerken enzovoort, maar tenzij er een bredere toezegging is om dit op een gedeelde interoperabele manier te doen, blijven we zitten met een mengelmoes van verschillende toezeggingen."
Nogmaals, niets wat we niet eerder hebben gehoord. Er zijn verschillende branche-overschrijdende afspraken gemaakt, maar er is nog geen substantieel effectief plan om diepgaande vervalsingen te stoppen.
Bijvoorbeeld, MLCommons werkt samen met Big Tech om veiligheidsbenchmarks te definiëren, bedrijven die zich inzetten voor watermerkenen lid geworden van het Frontier Model ForumNogmaals, om tot een 'gezamenlijke aanpak' te komen. Deze drie sectorbrede overeenkomsten schieten me te binnen, maar er zijn er zeker nog veel meer.
Diepe vervalsingen zijn niet gemakkelijk op te sporen, zeker niet op schaal. Ze lijken zo dicht op de echte dat het identificeren met behulp van AI of algoritmische technieken niet eenvoudig is. uitzonderlijk moeilijk.
Technologiebedrijven hebben hierop gereageerd door inhoud te taggen met metadata, waardoor het wordt geïdentificeerd als AI-gegenereerd, maar hoe identificeert dat het doel van de afbeelding?
Metadata kan ook gemakkelijk uit een bestand worden verwijderd. Ook zullen er altijd AI-bedrijven zijn die zich niet aan de afspraken houden en de bestaande controles omzeilen.
Dana Rao, Adobe's Chief Trust Officer, legde uit hoe en waarom deze content effectief was: "Er is een emotionele connectie met audio, video en afbeeldingen", zei hij. "Je hersenen zijn erop ingesteld om dat soort media te geloven."
Sterker nog, deep fakes lijken zich nog lang nadat ze nep zijn verklaard te verspreiden. Hoewel het moeilijk is om te kwantificeren hoezeer ze ons gedrag veranderen, is de schaal van hun impact - waarbij de inhoud door miljoenen mensen tegelijk wordt bekeken - niet iets waar je risico's mee kunt nemen.
Feit is dat we meer AI-gerelateerde deep fake incidenten en controverses kunnen verwachten.
Individueel bewustzijn en kritisch denken zullen het grootste wapen van de mensheid zijn om negatieve gevolgen te bestrijden.