I ett försök att hantera djupa förfalskningar och felaktig information har de 7 AI-företag som i veckan anslöt sig till USA:s frivilliga AI-ramverk lovat att vattenstämpla AI-genererat innehåll.
Deltagarna i frivilligt ramverksom tillkännagavs av Vita huset den 21 juni, inkluderar Google, OpenAI, Microsoft, Meta, Amazon, Anthropic och Inflection.
Som en del av detta ramverk har dessa företag åtagit sig att utveckla vattenstämplar för att hjälpa allmänheten att identifiera ursprunget till AI-genererat innehåll och minska bedrägerier.
Precis som en vanlig vattenstämpel fästs en AI-vattenstämpel på en bild, video, ljudfil eller text.
Vattenmärkning av AI-genererat innehåll kan minska bedrägerier, falska virala kampanjer och sextortion. "Denna vattenstämpel kommer att låta kreativiteten med AI blomstra men minskar riskerna för bedrägeri och vilseledande", säger Vita huset.
I en Blogginlägg som publicerades kort efter tillkännagivandena från Vita huset, beskriver OpenAI sitt avtal om att "utveckla robusta mekanismer, inklusive system för proveniens och/eller vattenmärkning för ljud- eller bildinnehåll". De kommer också att utveckla "verktyg eller API:er för att fastställa om en del av innehållet har skapats med deras system".
Google planerar att förbättra informationens tillförlitlighet genom att integrera metadata och "andra innovativa tekniker" utöver vattenmärkning.
Vita huset tillkännagav på fredagen flera andra skyddsåtgärder, bland annat att AI-system ska testas internt och externt innan de släpps, att investeringarna i cybersäkerhet ska öka och att samarbete mellan olika branscher ska främjas för att minska riskerna med AI.
OpenAI sade att dessa åtaganden utgör "ett viktigt steg för att främja en meningsfull och effektiv styrning av AI, både i USA och runt om i världen".
Företaget lovade också att "investera i forskning inom områden som kan bidra till att informera om reglering, till exempel tekniker för att bedöma potentiellt farliga funktioner i AI-modeller".
Nick Clegg, Metas president för globala frågor, upprepade OpenAI: s känsla och beskrev dessa åtaganden som ett "viktigt första steg för att säkerställa att ansvarsfulla skyddsräcken upprättas för AI."
Kommer AI-vattenstämplar att fungera?
Att vattenstämpla AI-genererat innehåll är visserligen konceptuellt tilltalande, men det är långt ifrån idiotsäkert.
Bilder, videor och ljudinspelningar kan ha små, svaga grafik- eller ljudinslag som visar att de är AI-genererade.
På samma sätt kan integrering av metadata i AI-genererade filer ge information om källan och skapandeprocessen för innehållet. Det kommer dock sannolikt att vara enkelt att ta bort vattenstämplar med hjälp av andra AI-verktyg eller att ta bort metadata.
Om vattenstämplar kan tas bort får AI-genererat innehåll utan vattenstämpel plötsligt legitimitet. Avsaknaden av en vattenstämpel kan användas för att hävda att en bild är äkta när den inte är det - en potentiellt farlig avvägning.
När det gäller AI-genererad text finns det ingen enkel lösning. Till skillnad från bilder eller ljud är det inte lätt att bädda in vattenstämplar i text.
Den primära metoden här är att låta text passera genom AI-detektorer, som analyserar textens perplexitet - ett mått på hur sannolikt det är att en AI-modell kan förutsäga en viss ordsekvens - för att uppskatta om den är AI-genererad.
AI-detektorer har sina brister. De ger ofta en hög andel falska positiva resultat, vilket leder till att innehåll som inte genererats av AI flaggas felaktigt.
Detta problem förstärks när man analyserar text som är skriven av personer som inte har engelska som modersmål, som kan använda mindre vanliga formuleringar eller ha en atypisk syntax, vilket ytterligare ökar antalet falska positiva resultat. En nyligen genomförd studie avrådde av dessa skäl från användning av AI-detektorer i utbildnings- och rekryteringssammanhang.
I takt med att AI-modellerna utvecklas blir dessutom gränsen mellan mänskligt skrivet och AI-skrivet innehåll allt suddigare. I takt med att AI blir bättre på att efterlikna mänskliga skrivstilar kommer detektorer som baseras på perplexitet att bli mindre tillförlitliga.
Även om vattenmärkning är ett steg mot att förbättra transparensen och ansvarigheten i AI-genererat innehåll, är det inte en enkel lösning och fungerar inte som en ultimat avskräckande eller "silver bullet".