Meta har kunngjort nye initiativer for å øke åpenheten rundt AI-generert innhold på plattformene sine.
Å skrive i en blogginnleggNick Clegg, Metas president for Global Affairs, understreket selskapets forpliktelse til å merke AI-genererte bilder for å hjelpe brukerne med å skille mellom menneskeskapt og syntetisk innhold.
Clegg uttalte: "Etter hvert som forskjellen mellom menneskelig og syntetisk innhold blir stadig mer utydelig, vil folk vite hvor grensen går." Han la til at Meta har "samarbeidet med bransjepartnere for å utarbeide felles tekniske standarder som signaliserer når et stykke innhold er skapt ved hjelp av kunstig intelligens."
Meta erkjenner den økende utbredelsen av fotorealistisk AI-generert innhold, nå allment kjent som deep fakes.
Taylor Swift var det siste høyprofilerte offeret for eksplisitt AI-genererte bilder uten samtykkesom brukerne sporet tilbake til en "utfordring" på 4Chan.
En svindel orkestrert av video deep fakes hentet ut et multinasjonalt selskap $25.6 millioner på mandag.
Ansvaret for å forhindre at slike bilder spres, faller helt og holdent på sosiale medieselskaper som X og Meta.
Meta har merket fotorealistiske bilder som er opprettet ved hjelp av sin egen Meta AI-funksjon som "Imagined with AI", og planlegger å utvide denne praksisen til å omfatte innhold generert av andre selskapers verktøy.
Selskapet sier at det utvikler verktøy som kan identifisere usynlige markører og metadata som er innebygd i AI-genererte bilder, slik at det kan merke innhold fra et bredt spekter av kilder, inkludert Google, OpenAI, Microsoft, Adobe, Midjourney og Shutterstock.
Meta er nå klar til å bruke disse merkelappene på alle språk som støttes på plattformene.
Clegg fremhevet også behovet for samarbeid på tvers av teknologibransjen, og skrev: "Siden AI-generert innhold dukker opp over hele Internett, har vi samarbeidet med andre selskaper i bransjen vår om å utvikle felles standarder for å identifisere det gjennom fora som Partnership on AI (PAI). De usynlige markørene vi bruker for Meta AI-bilder - IPTC-metadata og usynlige vannmerker - er i tråd med PAIs beste praksis."
Til tross for alle anstrengelser og fremskritt i arbeidet med å slå ned på dype forfalskninger, påpekte Clegg at det fortsatt er utfordrende å oppdage AI-genererte lyd- og videosignaler på grunn av mangelen på sammenlignbare signaler.
Men selv når det gjelder falske bilder, kan disse få millioner av visninger før de blir fjernet - som vi så i det siste tilfellet med Taylor Swift.
Andre hendelser, som kommentatoren Ben Shapiro som delte en sannsynlig AI-generert bilde av et dødt spedbarn fra Israel-Palestina-konflikten, fikk også enorm oppmerksomhet verden over før den ble motarbeidet.
Som et midlertidig tiltak vil Meta introdusere en funksjon som gjør det mulig for brukere å opplyse om når de deler AI-genererte videoer eller lyd.
Men hvem vil bruke det hvis de legger ut innhold som er designet for å skape kontrovers?
I tillegg til merking utforsker Meta ulike teknologier for å forbedre evnen til å oppdage AI-generert innhold, selv i fravær av usynlige markører.
Dette inkluderer forskning på usynlig vannmerketeknologi, som for eksempel Stabil signatur utviklet av Metas AI-forskningslaboratorium, FAIR, som integrerer vannmerking direkte i bildegenereringsprosessen.
Valget nærmer seg, og de dype forfalskningene intensiveres
Vi har vært vitne til mange tilfeller av politisk feilinformasjon kanalisert gjennom dype forfalskninger.
Google, Meta, YouTube, X og andre øker innsatsen for å takle dype forfalskninger i forkant av kommende valg, inkludert i USA og Storbritannia (mest sannsynlig).
Etter hvert som AI-generert innhold blir mer sofistikert og utbredt, øker behovet for årvåkenhet og innovasjon når det gjelder autentisering av innhold og åpenhet.
Er en endelig løsning i sikte? Det ser ikke ut til det.