Mentre il mondo si avvicina a diverse elezioni di alto profilo quest'anno, un post sul blog di OpenAI descrive i metodi per fortificare il processo democratico contro l'uso improprio della tecnologia AI.
OpenAI strategia ruota attorno a tre aree fondamentali: prevenire gli abusi, aumentare la trasparenza e migliorare l'accesso a informazioni di voto accurate.
L'azienda sta lavorando attivamente per contrastare i dannosi deep fake, per limitare le operazioni su scala AI volte a influenzare le opinioni degli elettori e per limitare i chatbot che si spacciano per candidati politici.
OpenAI ha inoltre dichiarato che sta perfezionando attivamente i propri strumenti per migliorare l'accuratezza dei fatti, ridurre i pregiudizi e rifiutare le richieste che potrebbero danneggiare l'integrità elettorale, come ad esempio il rifiuto delle richieste di generazione di immagini di persone reali, compresi i candidati.
Per dirla con le loro parole: "Ci aspettiamo e vogliamo che le persone usino i nostri strumenti in modo sicuro e responsabile, e le elezioni non sono diverse".
Questo include un rigoroso red teaming dei nuovi sistemi, la richiesta di feedback da parte degli utenti e dei partner e la creazione di misure di sicurezza.
Migliorare la trasparenza
I falsi profondi sono il nemico pubblico numero uno del settore in questo momento.
Episodi recenti come le pubblicità false in profondità impersonando il primo ministro britannico Rishi Sunak su Facebook, raggiungendo circa 400.000 persone, e le potenziali interferenze nelle elezioni slovacche e svedesi. Elezioni in Bangladesh hanno illustrato il potenziale di ingerenza dell'IA nella politica.
L'intelligenza artificiale è già stata schierato in vista delle elezioni americaneI candidati utilizzano la tecnologia per generare immagini promozionali.
OpenAI sta portando avanti gli sforzi per aumentare la trasparenza. È prevista l'implementazione delle credenziali digitali della Coalition for Content Provenance and Authenticity per le immagini generate da DALL-E 3, che utilizzano la crittografia per codificare i dettagli sulla provenienza dei contenuti.
Inoltre, è in fase di sviluppo un nuovo classificatore di provenienza per individuare le immagini generate da DALL-E. "I nostri test interni hanno mostrato i primi risultati promettenti", afferma OpenAI, che prevede di rilasciare questo strumento a giornalisti, piattaforme e ricercatori per ottenere un feedback.
OpenAI sta inoltre integrando ChatGPT con le notizie in tempo reale a livello globale, con l'obiettivo di fornire agli utenti fonti trasparenti per le loro ricerche.
Negli Stati Uniti, OpenAI sta collaborando con la National Association of Secretaries of State (NASS) per indirizzare gli utenti di ChatGPT a CanIVote.org per ottenere informazioni autorevoli sul voto negli Stati Uniti.
L'intenzione è quella di utilizzare le conoscenze acquisite da questa partnership per guidare le strategie in altri Paesi.
Le domande più scottanti restano: è sufficiente? Le aziende di IA sono in grado di affrontare questi problemi in modo pratico o la questione è già andata oltre un controllo efficace?