EU opfordrer store teknologivirksomheder, der inkorporerer generativ AI i deres produkter, såsom TikTok, Meta, Google og Microsoft, til at mærke tjenester, der kan sprede misinformation.
Mandag fremhævede EU-Kommissionens næstformand Vera Jourova den generative AI's evne til at sprede misinformation gennem falske nyheder og deep fakes. I maj måned gik en række deep fakes viralt på tværs af de sociale medier, herunder et falsk foto af en eksplosion i Pentagonhvilket fik det amerikanske S&P 500-aktiemarked til at falde med 0,3%.
Jourova sagde, at generativ AI introducerer "nye udfordringer for kampen mod desinformation" og skaber "nye risici og potentiale for negative konsekvenser for samfundet".
Hun sagde, at virksomheder, der tilmeldte sig EU's frivillige kodeks til bekæmpelse af desinformation bør begynde at "tydeligt mærke" tjenester, der risikerer at sprede misinformation.
Hastværket med at regulere AI
Disse kommentarer kommer forud for EU's lov om digitale tjenestersom skal træde i kraft i august, og som forpligter "større onlineplatforme", der opererer i EU (defineret som platforme med mere end 55 millioner brugere), til at tackle skadeligt indhold og øge brugernes privatliv. AI har udviklet sig, siden loven først blev udarbejdet, så EU har opdateret den med regler for at slå ned på falske konti og deep fakes.
EU's AI Act, en mere detaljeret og vidtrækkende lovgivning, der er designet til at regulere AI, skal til afstemning i plenum den 14. juni, hvorefter den går ind i den endelige lovgivningsproces. Den vil sandsynligvis træde i kraft i 2026, hvilket både AI-teknologiledere og EU-embedsmænd er klar over ikke er hurtigt nok.
Det er bemærkelsesværdigt, at det ikke kun er politikere, der er bekymrede over AI's hurtige udvikling, men også administrerende direktører for firmaer som OpenAI og Google, som hver for sig diskuterede en potentiel 'AI-pagt' eller 'stop gap'-regler for at bremse AI-udviklingen.
I sidste måned sagde OpenAI's CEO Sam Altman opfordrede Kongressen til at regulere AI og senere sagde på en konference"Jeg tror, det bliver et godt sted. Jeg synes, det er vigtigt, at vi gør det. Regulatorisk klarhed er en god ting."
Vil big tech selv regulere AI?
Selvregulering afhænger af frivillighed og samarbejde på tværs mellem AI-protagonisterne i OpenAI, Microsoft, Alphabet osv.
Er det realistisk? EU's seneste frivillige ramme for desinformation havde en højt profileret fraværende: Twitter.
Twitter meldte sig ud af EU's frivillige kodeks og nægtede senere at komme med yderligere kommentarer. EU's kommissær for det indre marked, Thierry Breton, sagde, at "man kan løbe, men man kan ikke gemme sig", og Jourova sagde, at "Twitter har valgt den hårde vej. De valgte konfrontation."
OpenAI, Google, Microsoft og andre har alle diskuteret frivillige AI-rammer eller -pagter, men Twitters handlinger understreger, at der kun skal én til at forlade skuden og bringe hele besætningen i uorden.
Ikke alene kræver selvregulering, at AI-ledere sætter sig sammen om bordet og lægger konkurrenceforskelle til side, men det kræver også, at de potentielt afslører nogle af deres inderste funktioner.