EU oppfordrer store teknologiselskaper som inkorporerer generativ AI i produktene sine, som TikTok, Meta, Google og Microsoft, til å merke tjenester som kan spre desinformasjon.
Mandag satte EU-kommisjonens visepresident Vera Jourova søkelyset på den generative AI-teknologiens evne til å spre desinformasjon gjennom falske nyheter og "deep fakes". I mai måned ble en rekke falske nyheter spredt på sosiale medier, deriblant et falskt bilde av en eksplosjonen i Pentagon, noe som førte til at det amerikanske S&P 500-aksjemarkedet falt med 0,3%.
Jourova sa at generativ AI introduserer "nye utfordringer for kampen mot desinformasjon" og medfører "nye risikoer og potensial for negative konsekvenser for samfunnet".
Hun sa at selskaper som registrerte seg for EUs frivillige kodeks for å bekjempe desinformasjon bør begynne å "tydelig merke" tjenester som risikerer å spre feilinformasjon.
Hastverket med å regulere AI
Disse kommentarene kommer i forkant av EUs lov om digitale tjenesterLoven skal tre i kraft i august og forplikter "store nettplattformer" som opererer i EU (definert som plattformer med mer enn 55 millioner brukere), til å håndtere skadelig innhold og øke brukernes personvern. Siden loven først ble utarbeidet, har kunstig intelligens utviklet seg, og EU har derfor oppdatert den med regler for å slå ned på falske kontoer og dype forfalskninger.
EUs AI Act, et mer detaljert og vidtrekkende lovverk som er utformet for å regulere AI, skal opp til avstemning i plenum 14. juni, og deretter går det inn i den endelige lovgivningsprosessen. Den vil sannsynligvis tre i kraft i 2026, noe både AI-teknologiledere og EU-tjenestemenn innser ikke er raskt nok.
Det er bemerkelsesverdig at det ikke bare er politikere som er bekymret for AIs raske utvikling, men også administrerende direktører i selskaper som OpenAI og Google, som hver for seg diskuterte en potensiell AI-pakt eller "stoppkloss"-regler for å bremse utviklingen av kunstig intelligens.
I forrige måned sa OpenAI-sjef Sam Altman oppfordret Kongressen til å regulere AI og senere sa på en konferanse"Jeg tror det kommer til å bli et bra sted. Jeg tror det er viktig at vi gjør dette. Klarhet i regelverket er en god ting."
Vil big tech selvregulere AI?
Selvregulering er avhengig av frivillighet og samarbeid på tvers av AI-aktørene i OpenAI, Microsoft, Alphabet osv.
Er det realistisk? Vel, EUs siste frivillige rammeverk for desinformasjon hadde et høyprofilert fravær: Twitter.
Twitter meldte seg ut av EUs frivillige kodeks og nektet senere å komme med ytterligere kommentarer. EUs kommissær for det indre marked, Thierry Breton, sa at "du kan løpe, men du kan ikke gjemme deg", og Jourova sa at "Twitter har valgt den harde veien. De valgte konfrontasjon."
OpenAI, Google, Microsoft og andre har alle diskutert frivillige rammeverk eller pakter for kunstig intelligens, men Twitters handlinger viser at det kan være nok at én forlater skuta og kaster hele mannskapet ut i uorden.
Selvregulering krever ikke bare at AI-ledere setter seg rundt bordet sammen og legger konkurranseforskjeller til side, men det krever også at de potensielt avslører noe av sitt innerste virke.