L'UE sta incoraggiando le grandi aziende tecnologiche che incorporano l'IA generativa nei loro prodotti, come TikTok, Meta, Google e Microsoft, a etichettare i servizi che potrebbero diffondere disinformazione.
Lunedì scorso, la vicepresidente della Commissione europea Vera Jourova ha evidenziato la capacità dell'intelligenza artificiale generativa di far circolare la disinformazione attraverso le fake news e i deep fake. Il mese di maggio ha visto una serie di falsi profondi diventare virali sui social media, tra cui una foto falsa di un esplosione al Pentagonoche ha visto il mercato azionario statunitense S&P 500 scendere dello 0,3%.
Jourova ha affermato che l'IA generativa introduce "nuove sfide per la lotta alla disinformazione" e solleva "nuovi rischi e il potenziale di conseguenze negative per la società".
Ha detto che le aziende che si sono iscritte al Codice volontario dell'UE per combattere la disinformazione dovrebbe iniziare a "etichettare chiaramente" i servizi che rischiano di diffondere disinformazione.
La fretta di regolamentare l'IA
Questi commenti precedono il Legge sui servizi digitali dell'UEche entrerà in vigore ad agosto e che obbliga le "principali piattaforme online" operanti nell'UE (definite come piattaforme con più di 55 milioni di utenti) a contrastare i contenuti dannosi e ad aumentare la privacy degli utenti. L'intelligenza artificiale si è evoluta da quando la legge è stata redatta per la prima volta, quindi l'UE l'ha aggiornata con norme per la repressione dei falsi account e dei falsi profondi.
L'EU AI Act, un atto legislativo più dettagliato e di ampia portata progettato per regolamentare l'IA, sarà sottoposto a votazione plenaria il 14 giugno, dopo di che entrerà nel processo legislativo finale. Probabilmente entrerà in vigore nel 2026, data che sia i leader tecnologici dell'IA che i funzionari dell'UE ritengono non sia abbastanza vicina.
È sorprendente che non siano solo i politici ad essere allarmati dalla rapida evoluzione dell'IA, ma anche gli amministratori delegati di aziende come OpenAI e Google, che hanno discusso separatamente di una potenziale Patto per l'intelligenza artificiale o regole "di ripiego". per rallentare lo sviluppo dell'intelligenza artificiale.
Il mese scorso, il CEO di OpenAI Sam Altman ha incoraggiato il Congresso a regolamentare l'IA e successivamente ha dichiarato in una conferenzaPenso che si arriverà a un buon punto. Penso che sia importante farlo. La chiarezza normativa è una buona cosa".
Le big tech si autoregoleranno con l'IA?
L'autoregolamentazione dipende dall'azione volontaria e dalla collaborazione incrociata tra i protagonisti dell'IA di OpenAI, Microsoft, Alphabet, ecc.
È realistico? Beh, il più recente quadro volontario dell'UE per la disinformazione aveva un assente di alto profilo: Twitter.
Twitter si è tirato fuori dal codice volontario dell'UE e in seguito si è rifiutato di fare ulteriori commenti. Thierry Breton, commissario europeo per il mercato interno, ha detto che "si può scappare ma non ci si può nascondere", mentre Jourova ha affermato che "Twitter ha scelto la via più difficile. Ha scelto il confronto".
OpenAI, Google, Microsoft e altri hanno tutti discusso di quadri o patti volontari sull'IA, ma le azioni di Twitter evidenziano che potrebbe bastarne uno solo per abbandonare la nave e gettare l'intero equipaggio nello scompiglio.
L'autoregolamentazione non solo richiede che i leader dell'IA si riuniscano intorno a un tavolo e mettano da parte le differenze competitive, ma richiede anche che rivelino potenzialmente alcuni dei loro meccanismi più intimi.