Meta har meddelat nya initiativ för att förbättra transparensen kring AI-genererat innehåll på sina plattformar.
Skriva i en BlogginläggNick Clegg, Metas President for Global Affairs, betonade företagets åtagande att märka AI-genererade bilder för att hjälpa användare att skilja mellan mänskligt skapat och syntetiskt innehåll.
Clegg sa: "När skillnaden mellan mänskligt och syntetiskt innehåll blir suddig vill människor veta var gränsen ligger." Han tillade vidare att Meta har "arbetat med branschpartner för att anpassa sig till gemensamma tekniska standarder som signalerar när ett innehåll har skapats med AI."
Meta erkänner den ökande förekomsten av fotorealistiskt AI-genererat innehåll, nu allmänt känt som djupa förfalskningar.
Taylor Swift var det senaste högprofilerade offret för explicit AI-genererade bilder utan samtyckesom användarna spårade tillbaka till en "utmaning" på 4Chan.
Ett bedrägeri orkestrerat av video deep fakes extraherade ett multinationellt företag $25.6 miljoner på måndag.
Ansvarsbördan för att förhindra att dessa bilder sprids faller helt och hållet på sociala medieföretag som X och Meta.
Meta har märkt fotorealistiska bilder som skapats med sin egen Meta AI-funktion som "Imagined with AI" och planerar att utvidga denna praxis till innehåll som genereras av andra företags verktyg.
Företaget säger att det utvecklar verktyg som kan identifiera osynliga markörer och metadata som är inbäddade i AI-genererade bilder, vilket gör det möjligt att märka innehåll från ett brett spektrum av källor, inklusive Google, OpenAI, Microsoft, Adobe, Midjourney och Shutterstock.
Meta är nu redo att tillämpa dessa etiketter på alla språk som stöds på sina plattformar.
Clegg lyfte också fram behovet av samarbete inom teknikbranschen och skrev: "Eftersom AI-genererat innehåll dyker upp över hela internet har vi arbetat med andra företag i vår bransch för att utveckla gemensamma standarder för att identifiera det genom forum som Partnership on AI (PAI). De osynliga markörer som vi använder för Meta AI-bilder - IPTC-metadata och osynliga vattenstämplar - är i linje med PAI:s bästa praxis."
Trots alla ansträngningar och framsteg när det gäller att stävja deep fakes, påpekade Clegg att det fortfarande är en utmaning att upptäcka AI-genererat ljud och video på grund av bristen på jämförbara signaler.
Men även när det gäller falska bilder kan dessa få miljontals visningar innan de tas bort helt och hållet - som vi såg i den senaste Taylor Swift-incidenten.
Andra incidenter, som kommentatorn Ben Shapiro som delade en trolig AI-genererad bild av ett dött spädbarn från Israel-Palestina-konflikten, fick också enorm uppmärksamhet världen över innan den bemöttes.
Som en tillfällig åtgärd kommer Meta att införa en funktion som gör det möjligt för användare att avslöja när de delar AI-genererad video eller ljud.
Men vem kommer att använda det om de publicerar innehåll som är utformat för att skapa kontroverser?
Förutom märkning utforskar Meta olika tekniker för att förbättra sin förmåga att upptäcka AI-genererat innehåll, även i avsaknad av osynliga markörer.
Detta inkluderar forskning om osynlig vattenmärkningsteknik, till exempel Stabil signatur utvecklat av Metas AI Research Lab, FAIR, som integrerar vattenmärkning direkt i bildgenereringsprocessen.
Valet närmar sig, djupa förfalskningar intensifieras
Vi har bevittnat många fall av politisk felaktig information kanaliseras genom djupa förfalskningar.
Google, Meta, YouTube, X och andra ökar ansträngningarna för att ta itu med djupa förfalskningar inför kommande val, inklusive i USA och Storbritannien (troligen).
I takt med att AI-genererat innehåll blir allt mer sofistikerat och utbrett ökar behovet av vaksamhet och innovation när det gäller autentisering och transparens av innehåll.
Är en slutlig lösning i sikte? Det verkar inte så.