På sikkerhedskonferencen i München erklærede en koalition af 20 tech-giganter, herunder OpenAI, Meta, Microsoft og andre, at de ville gøre en fælles indsats for at bekæmpe vildledende AI-indhold, der påvirker valg verden over.
Dette kommer midt i en voksende bekymring for, at AI-genererede deep fakes kan manipulere valgprocesser, især når der er store valg på vej i flere lande i år.
Vi har allerede set dybe forfalskninger spiller en rolle I hvert fald ved valgene i Pakistan, Indonesien, Slovakiet og Bangladesh.
Denne nye aftale omfatter forpligtelser til at udvikle værktøjer til at opdage og håndtere vildledende AI-genererede medier, øge den offentlige bevidsthed om vildledende indhold og træffe hurtige foranstaltninger til at fjerne sådant indhold fra deres platforme.
Men sandheden er, at vi har hørt det mange gange. Så hvad er anderledes nu?
Mens detaljerne om implementeringstidspunkterne stadig er vage, understregede virksomhederne behovet for en kollektiv tilgang til at tackle denne voksende trussel.
Teknologivirksomhederne lovede at implementere samarbejdsværktøjer til at opdage og afbøde spredningen af skadeligt AI-genereret valgindhold, herunder teknikker som vandmærkning til at certificere indholdets oprindelse og ændringer. De forpligtede sig også til at være åbne om deres indsats og vurdere de risici, som deres generative AI-modeller udgør.
"Jeg tror, at det nyttige ved denne (aftale) er bredden af de virksomheder, der skriver under på den," siger Nick Clegg, præsident for globale anliggender hos Meta Platforms.
"Det er fint nok, hvis individuelle platforme udvikler nye politikker for sporing, oprindelse, mærkning, vandmærkning og så videre, men hvis der ikke er en bredere forpligtelse til at gøre det på en fælles interoperabel måde, vil vi sidde fast med et sammensurium af forskellige forpligtelser."
Igen, ikke noget vi ikke har hørt før. Der har været flere aftaler på tværs af brancher, men der er ikke nogen egentlig effektiv plan for at stoppe deep fakes.
For eksempel, MLCommons samarbejdede med Big Tech at definere sikkerhedsbenchmarks, virksomheder, der forpligter sig til vandmærkningog blev medlem af Frontier Model Forumigen for at etablere en "fælles tilgang". Disse tre brancheaftaler kom jeg lige til at tænke på, men der er helt sikkert mange andre.
Deep fakes er ikke nemme at opdage, især ikke i stor skala. De er kommet så tæt på den ægte vare, at det er svært at identificere dem ved hjælp af AI eller algoritmiske teknikker. usædvanligt vanskeligt.
Teknologivirksomheder har reageret ved at tagge indhold med metadata, der identificerer det som AI-genereret, men hvordan identificerer det formålet med billedet?
Metadata kan også nemt fjernes fra en fil. Der vil også altid være AI-virksomheder, som ikke overholder aftaler og måder at omgå kontrolforanstaltninger på.
Dana Rao, Adobes Chief Trust Officer, forklarede, hvordan og hvorfor dette indhold var effektivt: "Der er en følelsesmæssig forbindelse til lyd, video og billeder," sagde han. "Din hjerne er indrettet til at tro på den slags medier."
Faktisk ser deep fakes ud til at sprede sig længe efter, at de er blevet erklæret falske. Det er svært at sætte tal på, hvor meget de ændrer vores adfærd, men alene omfanget af deres effekt - hvor indholdet ses af millioner af mennesker ad gangen - er ikke noget, man kan løbe nogen risiko med.
Faktum er, at vi kan forvente flere AI-relaterede deep fake-hændelser og -kontroverser.
Individuel bevidsthed og kritisk tænkning vil være menneskehedens største våben til at bekæmpe negative påvirkninger.