In een poging om diepgaande vervalsingen en misinformatie aan te pakken, hebben de 7 AI-bedrijven die deze week hebben ingestemd met het vrijwillige Amerikaanse AI-raamwerk toegezegd om AI-gegenereerde inhoud te voorzien van een watermerk.
Deelnemers aan de vrijwillig kaderdie op 21 juni door het Witte Huis werden aangekondigd, zijn Google, OpenAI, Microsoft, Meta, Amazon, Anthropic en Inflection.
Als onderdeel van dat raamwerk hebben deze bedrijven toegezegd watermerken te ontwikkelen om het publiek te helpen de herkomst van AI-gegenereerde inhoud te identificeren en misleiding te verminderen.
Net als een conventioneel watermerk wordt een AI-watermerk aan een afbeelding, video, audiobestand of tekst gekoppeld.
Het aanbrengen van een watermerk op AI-gegenereerde inhoud kan oplichting, valse virale campagnes en sextortion tegengaan. "Dit watermerk laat creativiteit met AI floreren, maar beperkt de risico's van fraude en misleiding", aldus het Witte Huis.
In een blogpost OpenAI, dat kort na de aankondigingen van het Witte Huis werd gepubliceerd, beschreef zijn overeenkomst om "robuuste mechanismen te ontwikkelen, waaronder herkomst- en/of watermerksystemen voor audio- of visuele inhoud". Het zal ook "tools of API's ontwikkelen om vast te stellen of een stuk content is gemaakt met hun systeem".
Google is van plan om de betrouwbaarheid van informatie te vergroten door naast watermerken ook metadata en "andere innovatieve technieken" te integreren.
Het Witte Huis kondigde vrijdag diverse andere voorzorgsmaatregelen aan, waaronder het uitvoeren van interne en externe tests op AI-systemen voordat ze worden vrijgegeven, het verhogen van de investeringen in cyberbeveiliging en het bevorderen van samenwerking binnen de industrie om AI-risico's te beperken.
OpenAI zei dat deze toezeggingen "een belangrijke stap zijn in het bevorderen van zinvolle en effectieve AI-governance, zowel in de VS als wereldwijd."
Het bedrijf beloofde ook om "te investeren in onderzoek op gebieden die kunnen helpen bij het informeren van regelgeving, zoals technieken voor het beoordelen van potentieel gevaarlijke capaciteiten in AI-modellen."
Nick Clegg, Meta's voorzitter van wereldwijde zaken, sloot zich aan bij de mening van OpenAI en beschreef deze toezeggingen als een "belangrijke eerste stap om ervoor te zorgen dat er verantwoorde vangrails worden opgesteld voor AI".
Zullen AI-watermerken werken?
Hoewel het concept van watermerken op AI-gegenereerde inhoud aantrekkelijk is, is het verre van waterdicht.
Afbeeldingen, video's en geluidsopnamen kunnen kleine, vage afbeeldingen of geluiden bevatten die aangeven dat ze door AI zijn gemaakt.
Op dezelfde manier kan het integreren van metadata in AI-gegenereerde bestanden informatie geven over de bron en het creatieproces van de inhoud. Het verwijderen van watermerken met andere AI-tools of het verwijderen van metadata zal echter waarschijnlijk eenvoudig zijn.
Als watermerken verwijderd kunnen worden, dan krijgt AI-gegenereerde inhoud zonder watermerk plotseling meer legitimiteit. De afwezigheid van een watermerk kan worden gebruikt om te beweren dat een afbeelding echt is terwijl dat niet zo is - een potentieel gevaarlijke ruil.
Als het aankomt op AI-gegenereerde tekst, is er geen eenvoudige oplossing. In tegenstelling tot afbeeldingen of audio leent tekst zich niet gemakkelijk voor het insluiten van watermerken.
De primaire benadering hier is het passeren van tekst door AI-detectors, die de perplexiteit van de tekst analyseren - een maatstaf voor hoe waarschijnlijk het is dat een AI-model een gegeven reeks woorden kan voorspellen - om in te schatten of de tekst door AI is gegenereerd.
AI-detectors hebben hun tekortkomingen. Ze geven vaak een hoog percentage fout-positieven, waardoor niet door AI gegenereerde inhoud ten onrechte wordt gemarkeerd.
Dit probleem wordt nog groter wanneer tekst wordt geanalyseerd die is geschreven door mensen die het Engels niet als moedertaal hebben en die mogelijk minder gebruikelijke zinsconstructies of een atypische syntaxis gebruiken, waardoor het aantal fout-positieven verder toeneemt. Een recent onderzoek om deze redenen het gebruik van AI-detectoren in het onderwijs en bij werving afgeraden.
Bovendien wordt de grens tussen door mensen en AI geschreven inhoud steeds vager naarmate AI-modellen zich verder ontwikkelen. Naarmate AI beter wordt in het nabootsen van menselijke schrijfstijlen, zullen detectors gebaseerd op perplexiteit minder betrouwbaar worden.
Hoewel watermerken een stap zijn in de richting van meer transparantie en controleerbaarheid van AI-gegenereerde inhoud, is het geen eenvoudige oplossing en dient het niet als ultiem afschrikmiddel of 'wondermiddel'.