I et forsøk på å bekjempe forfalskninger og feilinformasjon har de syv AI-selskapene som denne uken sluttet seg til USAs frivillige rammeverk for kunstig intelligens, forpliktet seg til å vannmerke AI-generert innhold.
Deltakerne i frivillig rammeverksom ble kunngjort av Det hvite hus 21. juni, inkluderer Google, OpenAI, Microsoft, Meta, Amazon, Anthropic og Inflection.
Som en del av dette rammeverket har disse selskapene forpliktet seg til å utvikle vannmerker for å hjelpe publikum med å identifisere opprinnelsen til AI-generert innhold og redusere bedrag.
På samme måte som et vanlig vannmerke festes et AI-vannmerke til et bilde, en video, en lydfil eller en tekst.
Vannmerking av AI-generert innhold kan redusere svindel, falske virale kampanjer og sextortion. "Dette vannmerket vil la kreativiteten med kunstig intelligens blomstre, samtidig som det reduserer risikoen for svindel og bedrag", sier Det hvite hus.
I en blogginnlegg som ble publisert kort tid etter kunngjøringene fra Det hvite hus, beskriver OpenAI sin avtale om å "utvikle robuste mekanismer, inkludert proveniens- og/eller vannmerkesystemer for lyd- og bildeinnhold". De vil også utvikle "verktøy eller API-er for å fastslå om et stykke innhold er laget med deres system".
Google planlegger å forbedre informasjonens pålitelighet ved å integrere metadata og "andre innovative teknikker" i tillegg til vannmerking.
Det hvite hus kunngjorde en rekke andre sikkerhetstiltak på fredag, blant annet at AI-systemer skal testes internt og eksternt før lansering, at investeringene i cybersikkerhet skal økes, og at samarbeid på tvers av bransjen skal fremmes for å redusere AI-risiko.
OpenAI sa at disse forpliktelsene markerer "et viktig skritt i arbeidet med å fremme meningsfull og effektiv styring av kunstig intelligens, både i USA og i resten av verden".
Selskapet lovet også å "investere i forskning på områder som kan bidra til å informere om regulering, for eksempel teknikker for å vurdere potensielt farlige evner i AI-modeller".
Nick Clegg, Metas president for globale anliggender, sluttet seg til OpenAIs synspunkt og beskrev disse forpliktelsene som et "viktig første skritt i retning av å sikre at det etableres ansvarlige rekkverk for kunstig intelligens".
Vil AI-vannmerker fungere?
Selv om det er konseptuelt tiltalende å vannmerke AI-generert innhold, er det langt fra idiotsikkert.
Bilder, videoer og lydopptak kan være utstyrt med små, svake grafiske elementer eller lyd som signaliserer at de er AI-genererte.
På samme måte kan integrering av metadata i AI-genererte filer gi informasjon om kilden og prosessen som ligger til grunn for innholdet. Det vil imidlertid sannsynligvis være enkelt å fjerne vannmerker ved hjelp av andre AI-verktøy eller fjerne metadata.
Hvis vannmerker kan fjernes, får AI-generert innhold uten vannmerke plutselig legitimitet. Fraværet av et vannmerke kan brukes til å hevde at et bilde er ekte, selv om det ikke er det - en potensielt farlig avveining.
Når det gjelder AI-generert tekst, finnes det ingen enkel løsning. I motsetning til bilder og lyd er det ikke så lett å legge inn vannmerker i tekst.
Den primære tilnærmingen her er å sende tekst gjennom AI-detektorer, som analyserer tekstens perpleksitet - et mål på hvor sannsynlig det er at en AI-modell kan forutsi en gitt sekvens av ord - for å anslå om den er AI-genererte.
AI-detektorer har sine svakheter. De gir ofte mange falske positiver, noe som fører til at innhold som ikke er AI-generert, blir feilaktig flagget.
Dette problemet forsterkes når man analyserer tekst skrevet av personer som ikke har engelsk som morsmål, som kan bruke mindre vanlige formuleringer eller ha atypisk syntaks, noe som øker andelen falske positive ytterligere. En fersk undersøkelse frarådet av disse grunnene bruk av AI-detektorer i utdannings- og rekrutteringssammenheng.
Etter hvert som AI-modellene utvikler seg, blir dessuten skillet mellom menneskeskrevet og AI-skrevet innhold stadig mer utydelig. Etter hvert som AI blir flinkere til å etterligne menneskelige skrivestiler, vil detektorer basert på forvirring bli mindre pålitelige.
Selv om vannmerking er et skritt i retning av mer åpenhet og ansvarlighet i AI-generert innhold, er det ikke en enkel løsning, og det fungerer ikke som et ultimat avskrekkende middel eller en "sølvkule".