Meta har annonceret nye initiativer for at øge gennemsigtigheden omkring AI-genereret indhold på sine platforme.
At skrive i en blogindlægNick Clegg, Metas præsident for globale anliggender, understregede virksomhedens forpligtelse til at mærke AI-genererede billeder for at hjælpe brugerne med at skelne mellem menneskeskabt og syntetisk indhold.
Clegg sagde: "Efterhånden som forskellen mellem menneskeligt og syntetisk indhold udviskes, vil folk gerne vide, hvor grænsen går." Han tilføjede desuden, at Meta har "arbejdet med industripartnere for at tilpasse sig fælles tekniske standarder, der signalerer, hvornår et stykke indhold er blevet skabt ved hjælp af AI."
Meta anerkender den stigende udbredelse af fotorealistisk AI-genereret indhold, der nu er kendt som deep fakes.
Taylor Swift var det seneste højt profilerede offer for eksplicit AI-genererede billeder uden samtykkesom brugerne sporede tilbage til en "udfordring" på 4Chan.
Et svindelnummer orkestreret af video deep fakes skaffede en multinational virksomhed $25,6 millioner i mandags.
Ansvaret for at forhindre, at disse billeder spredes, ligger helt klart hos sociale medier som X og Meta.
Meta har mærket fotorealistiske billeder, der er skabt ved hjælp af sin egen Meta AI-funktion, som "Imagined with AI" og planlægger at udvide denne praksis til indhold genereret af andre virksomheders værktøjer.
Virksomheden siger, at den er ved at udvikle værktøjer, der kan identificere usynlige markører og metadata indlejret i AI-genererede billeder, så den kan mærke indhold fra et bredt spektrum af kilder, herunder Google, OpenAI, Microsoft, Adobe, Midjourney og Shutterstock.
Meta er nu klar til at anvende disse etiketter på alle understøttede sprog på sine platforme.
Clegg fremhævede også behovet for samarbejde på tværs af teknologibranchen og skrev: "Da AI-genereret indhold dukker op på hele internettet, har vi arbejdet sammen med andre virksomheder i vores branche om at udvikle fælles standarder for at identificere det gennem fora som Partnership on AI (PAI). De usynlige markører, vi bruger til Meta AI-billeder - IPTC-metadata og usynlige vandmærker - er i overensstemmelse med PAI's bedste praksis."
På trods af den bedste indsats og fremskridt med at slå ned på deep fakes, påpegede Clegg, at det stadig er en udfordring at opdage AI-genereret lyd og video på grund af manglen på sammenlignelige signaler.
Men selv når det drejer sig om falske billeder, kan de få millioner af visninger, før de bliver fjernet - som vi så det i den seneste Taylor Swift-hændelse.
Andre hændelser, som kommentatoren Ben Shapiro, der delte en sandsynligt AI-genereret billede af en død baby fra Israel-Palæstina-konflikten, fik også enorm opmærksomhed verden over, før den blev imødegået.
Som en midlertidig foranstaltning vil Meta introducere en funktion, der giver brugerne mulighed for at oplyse, når de deler AI-genereret video eller lyd.
Men hvem vil bruge det, hvis de poster indhold, der er designet til at skabe kontrovers?
Ud over mærkning undersøger Meta forskellige teknologier for at forbedre sin evne til at opdage AI-genereret indhold, selv i mangel af usynlige markører.
Dette omfatter forskning i usynlig vandmærkningsteknologi, som f.eks. Stabil signatur udviklet af Metas AI-forskningslaboratorium, FAIR, som integrerer vandmærkning direkte i billedgenereringsprocessen.
Valget nærmer sig, og deep fakes intensiveres
Vi har været vidne til talrige tilfælde af politisk misinformation kanaliseret gennem dybe forfalskninger.
Google, Meta, YouTube, X og andre øger indsatsen for at tackle deep fakes forud for kommende valg, herunder i USA og Storbritannien (højst sandsynligt).
Efterhånden som AI-genereret indhold bliver mere sofistikeret og udbredt, vokser behovet for årvågenhed og innovation inden for indholdsgodkendelse og gennemsigtighed.
Er der en endelig løsning i sigte? Det ser ikke ud til det.