I ricercatori si uniscono alla lettera aperta per chiedere valutazioni indipendenti dell'IA

7 marzo 2024

Oltre 100 esperti di IA di primo piano hanno pubblicato una lettera aperta in cui chiedono alle aziende che si occupano di tecnologie di IA generativa, come OpenAI, Meta e altre, di aprire le porte a test indipendenti. 

Il loro messaggio è chiaro: i termini e le condizioni degli sviluppatori di IA stanno limitando gli sforzi della ricerca indipendente sulla sicurezza degli strumenti di IA. 

Tra i cofirmatari figurano esperti di spicco come Percy Liang di Stanford, Julia Angwin, vincitrice del premio Pulitzer, Renée DiResta dello Stanford Internet Observatory, Deb Raji, membro del Parlamento europeo e Suresh Venkatasubramanian della Brown University.

I ricercatori sostengono che le lezioni dell'era dei social media, quando la ricerca indipendente era spesso emarginata, non dovrebbero ripetersi.

Per combattere questo rischio, chiedono che OpenAI, Meta, Anthropic, Google, Midjourney e altri creino uno spazio sicuro dal punto di vista legale e tecnico in cui i ricercatori possano valutare i prodotti di IA senza temere di essere citati in giudizio o banditi.

Nella lettera si legge: "Se da un lato i termini di servizio delle aziende scoraggiano l'uso malevolo, dall'altro non offrono alcuna esenzione per la ricerca indipendente in buona fede, lasciando i ricercatori a rischio di sospensione dell'account o addirittura di rappresaglie legali".

Gli strumenti di IA impongono politiche di utilizzo rigorose per evitare che vengano manipolati per aggirare i loro confini. Per esempio, OpenAI ha recentemente bollato gli sforzi investigativi del New York Times come "hackeraggio". e Meta ha minacciato di ritirare le licenze per controversie sulla proprietà intellettuale. 

Uno studio recente sondato a metà viaggio di rivelare numerosi casi di violazione del copyright, che sarebbero stati contrari ai T&C dell'azienda.

Il problema è che, poiché gli strumenti di IA sono in gran parte imprevedibili sotto il cofano, per rimanere "sicuri" dipendono dal fatto che le persone li utilizzino in un modo specifico. 

Tuttavia, queste stesse politiche rendono difficile per i ricercatori sondare e comprendere i modelli. 

La lettera, pubblicato sul sito web del MIT, fa due appelli:

1. "In primo luogo, un porto sicuro legale indennizzerebbe la ricerca indipendente in buona fede sulla sicurezza, la protezione e l'affidabilità dell'IA, a condizione che sia condotta in conformità con le regole consolidate di divulgazione delle vulnerabilità".

2. "In secondo luogo, le aziende dovrebbero impegnarsi a garantire un accesso più equo, utilizzando revisori indipendenti per moderare le domande di valutazione dei ricercatori, il che proteggerebbe la ricerca sulla sicurezza che rispetta le regole da controproducenti sospensioni di account e attenuerebbe la preoccupazione delle aziende di selezionare i propri valutatori".

La lettera introduce anche una proposta politica, elaborata congiuntamente da alcuni firmatari, che suggerisce di modificare i termini di servizio delle aziende per favorire la ricerca accademica e sulla sicurezza.

Ciò contribuisce ad ampliare il consenso sui rischi associati all'IA generativa, tra cui pregiudizi, violazione del copyright e creazione di immagini intime non consensuali. 

Sostenendo un "porto sicuro" per la valutazione indipendente, questi esperti sostengono la causa dell'interesse pubblico, con l'obiettivo di creare un ecosistema in cui le tecnologie dell'IA possano essere sviluppate e utilizzate in modo responsabile, con il benessere della società in primo piano.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni