Vid säkerhetskonferensen i München deklarerade en koalition av 20 teknikjättar, inklusive OpenAI, Meta, Microsoft och andra, en gemensam insats för att bekämpa vilseledande AI-innehåll som påverkar val över hela världen.
Detta sker mot bakgrund av en växande oro för att AI-genererade "deep fakes" skulle kunna manipulera valprocesser, särskilt med tanke på de stora val som väntar i flera länder i år.
Vi har redan sett djupa förfalskningar spelar en roll Åtminstone i valen i Pakistan, Indonesien, Slovakien och Bangladesh.
Det nya avtalet omfattar åtaganden om att utveckla verktyg för att upptäcka och hantera vilseledande AI-genererade medier, öka allmänhetens medvetenhet om vilseledande innehåll och vidta snabba åtgärder för att ta bort sådant innehåll från sina plattformar.
Sanningen är dock att vi har hört det här många gånger. Så vad är annorlunda nu?
Även om tidsramarna för implementeringen fortfarande är vaga, betonade företagen behovet av en kollektiv strategi för att hantera detta föränderliga hot.
Teknikföretagen lovade att använda samarbetsverktyg för att upptäcka och minska spridningen av skadligt AI-genererat valinnehåll, inklusive tekniker som vattenmärkning för att certifiera innehållets ursprung och ändringar. De åtog sig också att vara transparenta med sina insatser och bedöma riskerna med sina generativa AI-modeller.
"Jag tror att nyttan med detta (avtal) är bredden av de företag som undertecknar det", säger Nick Clegg, president för globala frågor på Meta Platforms.
"Det är bra och bra om enskilda plattformar utvecklar nya policyer för upptäckt, ursprung, märkning, vattenstämpel och så vidare, men om det inte finns ett bredare åtagande att göra det på ett delat interoperabelt sätt kommer vi att fastna med ett sammelsurium av olika åtaganden."
Återigen, inget som vi inte har hört förut. Det har funnits flera branschövergripande avtal, men ändå ingen verkligt effektiv plan för att stoppa djupa förfalskningar.
Till exempel, MLCommons samarbetade med Big Tech att definiera riktmärken för säkerhet, företag som engagerar sig i vattenmärkning, och gick med i Frontier Model Forumåterigen för att skapa ett "enhetligt tillvägagångssätt". Jag kom just att tänka på dessa tre branschövergripande avtal, men det finns säkert många andra.
Deep fakes är inte lätta att upptäcka, särskilt inte i stor skala. De har blivit så lika den äkta varan att det är svårt att identifiera dem med hjälp av AI eller algoritmiska tekniker. exceptionellt svårt.
Teknikföretag har svarat genom att tagga innehåll med metadata och identifiera det som AI-genererat, men hur identifierar det syftet med bilden?
Metadata är också lätt att ta bort från en fil. Dessutom kommer det alltid att finnas AI-företag som inte följer avtalen och som kan kringgå de kontroller som finns på plats.
Dana Rao, Adobes Chief Trust Officer, förklarade hur och varför det här innehållet var effektivt: "Det finns en känslomässig koppling till ljud, video och bilder", sa han. "Din hjärna är kopplad till att tro på den typen av media."
Deep fakes verkar faktiskt spridas långt efter att de har förklarats vara falska. Även om det är svårt att kvantifiera hur mycket de förändrar vårt beteende, är den stora omfattningen av deras inverkan - med innehållet som ses av miljontals människor åt gången - inte något du kan ta några risker med.
Faktum är att vi kan förvänta oss fler AI-relaterade deep fake-incidenter och kontroverser.
Individuell medvetenhet och kritiskt tänkande kommer att vara mänsklighetens främsta vapen för att bekämpa negativ påverkan.