Førende AI-virksomheder forpligter sig til at udvikle vandmærkningsteknikker

22. juli 2023

AI-vandmærkning

I et forsøg på at tackle dybe forfalskninger og misinformation har de 7 AI-virksomheder, der blev enige om denne uges frivillige amerikanske AI-rammeværk, lovet at vandmærke AI-genereret indhold.

Deltagere i frivillige rammerder blev annonceret af Det Hvide Hus den 21. juni, omfatter Google, OpenAI, Microsoft, Meta, Amazon, Anthropic og Inflection.

Som en del af denne ramme har disse virksomheder forpligtet sig til at udvikle vandmærker for at hjælpe offentligheden med at identificere oprindelsen af AI-genereret indhold og reducere bedrag.

Ligesom et konventionelt vandmærke er et AI-vandmærke knyttet til et billede, en video, en lydfil eller en tekst. 

Vandmærkning af AI-genereret indhold kan reducere svindel, falske virale kampagner og sextortion. "Dette vandmærke vil lade kreativiteten med AI blomstre, men begrænser risikoen for svindel og bedrag," siger Det Hvide Hus. 

I en blogindlæg som blev offentliggjort kort efter Det Hvide Hus' udmeldinger, beskriver OpenAI sin aftale om at "udvikle robuste mekanismer, herunder herkomst- og/eller vandmærkesystemer til lyd- eller billedindhold." De vil også udvikle "værktøjer eller API'er til at fastslå, om et stykke indhold er lavet med deres system."

Google planlægger at forbedre informationens pålidelighed ved at integrere metadata og "andre innovative teknikker" ud over vandmærkning. 

Det Hvide Hus annoncerede i fredags forskellige andre sikkerhedsforanstaltninger, herunder gennemførelse af interne og eksterne tests af AI-systemer, før de frigives, øgede investeringer i cybersikkerhed og fremme af samarbejde på tværs af branchen for at reducere AI-risici.

OpenAI sagde, at disse forpligtelser markerer "et vigtigt skridt i retning af at fremme meningsfuld og effektiv AI-styring, både i USA og i resten af verden."

Virksomheden lovede også at "investere i forskning inden for områder, der kan hjælpe med at informere om regulering, såsom teknikker til at vurdere potentielt farlige evner i AI-modeller."

Nick Clegg, Metas præsident for globale anliggender, tilsluttede sig OpenAI's holdning og beskrev disse forpligtelser som et "vigtigt første skridt i retning af at sikre, at der etableres ansvarlige beskyttelseslinjer for AI".

Vil AI-vandmærker virke?

Vandmærkning af AI-genereret indhold er langt fra idiotsikkert, selv om det er konceptuelt tiltalende. 

Billeder, videoer og lydoptagelser kan være forsynet med små, svage grafikker eller lyd, som signalerer, at de er AI-genererede.

På samme måde kan integration af metadata i AI-genererede filer give oplysninger om kilden og skabelsesprocessen for indholdet. Men at fjerne vandmærker ved hjælp af andre AI-værktøjer eller fjerne metadata vil sandsynligvis være ligetil. 

Hvis vandmærker kan fjernes, får AI-genereret indhold uden vandmærke pludselig legitimitet. Fraværet af et vandmærke kan bruges til at argumentere for, at et billede er ægte, når det ikke er det - en potentielt farlig afvejning. 

Når det drejer sig om AI-genereret tekst, er der ingen enkel løsning. I modsætning til billeder eller lyd er det ikke nemt at indlejre vandmærker i tekst. 

Den primære tilgang her er at sende tekst gennem AI-detektorer, som analyserer tekstens perplexitet - et mål for, hvor sandsynligt det er, at en AI-model kan forudsige en given sekvens af ord - for at vurdere, om den er AI-genereret. 

AI-detektorer har deres mangler. De giver ofte mange falske positiver, hvilket fører til, at ikke-AI-genereret indhold bliver markeret forkert. 

Dette problem forstærkes, når man analyserer tekst skrevet af personer, der ikke har engelsk som modersmål, og som måske bruger mindre almindelige formuleringer eller har en atypisk syntaks, hvilket yderligere øger antallet af falske positive. En nylig undersøgelse frarådede brugen af AI-detektorer i uddannelses- og rekrutteringssammenhænge af disse grunde.

Efterhånden som AI-modellerne udvikler sig, bliver grænsen mellem menneskeskrevet og AI-skrevet indhold desuden mere og mere sløret. Efterhånden som AI bliver bedre til at efterligne menneskelige skrivestile, vil detektorer baseret på forvirring blive mindre pålidelige. 

Selv om vandmærkning er et skridt i retning af at forbedre gennemsigtigheden og ansvarligheden i AI-genereret indhold, er det ikke en ligetil løsning og fungerer ikke som en ultimativ afskrækkelse eller 'silver bullet'.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser