EU uppmuntrar stora teknikföretag som införlivar generativ AI i sina produkter, t.ex. TikTok, Meta, Google och Microsoft, att märka tjänster som kan sprida desinformation.
På måndagen lyfte EU-kommissionens vice ordförande Vera Jourova fram förmågan hos generativ AI att sprida desinformation genom falska nyheter och djupa förfalskningar. I maj månad spreds en mängd djupa förfalskningar på sociala medier, bland annat ett falskt foto av en explosion i Pentagon, vilket ledde till att den amerikanska aktiemarknaden S&P 500 sjönk med 0,3%.
Jourova sade att generativ AI innebär "nya utmaningar för kampen mot desinformation" och medför "nya risker och potential för negativa konsekvenser för samhället".
Hon sa att företag som registrerat sig för EU:s frivilliga kod för att bekämpa desinformation bör börja "tydligt märka" tjänster som riskerar att sprida felaktig information.
Brådska att reglera AI
Dessa kommentarer kommer före EU:s lag om digitala tjänstersom ska träda i kraft i augusti och som ålägger "större onlineplattformar" som verkar inom EU (definierade som plattformar med fler än 55 miljoner användare) att ta itu med skadligt innehåll och öka användarnas integritet. AI har utvecklats sedan lagen först utarbetades, så EU har uppdaterat den med regler för att stävja falska konton och djupa förfalskningar.
EU:s AI Act, en mer detaljerad och långtgående lagstiftning som syftar till att reglera AI, går till omröstning i plenum den 14 juni, varefter den går in i den slutliga lagstiftningsprocessen. Den kommer sannolikt att träda i kraft 2026, vilket både AI-teknikledare och EU-tjänstemän inser inte är tillräckligt snart.
Anmärkningsvärt är att det inte bara är politiker som oroas av AI:s snabba utveckling, utan även VD:arna för företag som OpenAI och Google, som separat diskuterade en potentiell "AI-pakt" eller "stoppregler för att bromsa AI-utvecklingen.
Förra månaden presenterade OpenAI:s VD Sam Altman uppmanade kongressen att reglera AI och senare sade vid en konferens, "Jag tror att det kommer att bli bra. Jag tycker att det är viktigt att vi gör det här. Det är bra med tydlighet i regelverket."
Kommer big tech att självreglera AI?
Självreglering är beroende av frivilliga åtgärder och samarbete mellan AI-protagonisterna i OpenAI, Microsoft, Alphabet osv.
Är det realistiskt? EU:s senaste frivilliga ramverk för desinformation hade en högprofilerad frånvarande: Twitter.
Twitter kraschade ut ur EU:s frivilliga kod och vägrade senare att lämna ytterligare kommentarer. Thierry Breton, EU-kommissionär med ansvar för den inre marknaden, sade att "man kan springa men inte gömma sig" och Jourova sade att "Twitter har valt den svåra vägen. De valde konfrontation."
OpenAI, Google, Microsoft och andra har alla diskuterat frivilliga ramverk eller pakter för AI, men Twitters agerande visar att det räcker med att en person överger skeppet för att hela besättningen ska hamna i oordning.
Självreglering kräver inte bara att AI-ledare samlas runt bordet och lägger konkurrensskillnader åt sidan, utan också att de potentiellt avslöjar några av sina innersta funktioner.