Questa settimana, due situazioni di insider che hanno coinvolto i giganti tecnologici Microsoft e Google hanno sollevato interrogativi sullo sviluppo responsabile dei sistemi di intelligenza artificiale e sulla gestione della proprietà intellettuale.
In primo luogo, in Microsoft, Shane Jones, responsabile dell'ingegneria del software con sei anni di esperienza, ha testato in modo indipendente il generatore di immagini AI Copilot Designer nel suo tempo libero.
Jones ha detto CNBC di essere rimasto profondamente turbato dalle immagini violente, sessuali e protette da copyright che lo strumento era in grado di generare. "È stato un momento che mi ha aperto gli occhi", ha detto Jones. "È stato il momento in cui ho capito che questo non è un modello sicuro".
Dal novembre 2022, Jones ha testato attivamente il prodotto alla ricerca di vulnerabilità, una pratica nota come red-teaming.
Ha scoperto che Copilot Designer poteva creare immagini che raffiguravano "demoni e mostri insieme alla terminologia relativa ai diritti dell'aborto, adolescenti con fucili d'assalto, immagini sessualizzate di donne in scene di violenza, consumo di alcol e droga da parte di minorenni".
Nonostante abbia riferito le sue scoperte a Microsoft a dicembre, Jones ha dichiarato che l'azienda è stata riluttante a rimuovere il prodotto dal mercato.
Copilot di Microsoft si è comportato in modo strano in alcune occasioni, tra cui adottare un "modo Dio" che lo ha visto giurare di perseguire il dominio del mondo.
In una lettera indirizzata al presidente della Federal Trade Commission Lina Khan, Jones ha scritto: "Negli ultimi tre mesi ho ripetutamente sollecitato Microsoft a rimuovere Copilot Designer dall'uso pubblico fino a quando non fossero state messe in atto migliori garanzie".
Ha aggiunto che, dal momento che Microsoft ha "rifiutato questa raccomandazione", esorta l'azienda ad aggiungere chiare avvertenze al prodotto e a modificare la classificazione dell'applicazione Android di Google per indicare che è adatta solo a un pubblico maturo.
Secondo quanto riferito, Copilot Designer è stato facile da convincere a bypassare le sue protezioni ed è stato responsabile del recente e famigerato caso di furto di un'autovettura. immagini di Taylor Swiftche è circolata a milioni di persone sui social media.
Come sostiene Jones, il La capacità dei sistemi di intelligenza artificiale di generare immagini inquietanti e potenzialmente dannose solleva seri interrogativi sull'efficacia dei dispositivi di sicurezza e sulla facilità con cui possono essere sovvertiti.
Polemiche interne a Google
Nel frattempo, Google è alle prese con una propria controversia legata all'IA.
Linwei Ding, noto anche come Leon Ding, ex ingegnere software di Google, è stato incriminato in California per quattro accuse relative al presunto furto di segreti commerciali sull'IA mentre lavorava segretamente per due aziende cinesi.
Il cittadino cinese è accusato di furto oltre 500 file riservati relativi all'infrastruttura dei centri dati di supercalcolo di Google, che ospitano e addestrano grandi modelli di intelligenza artificiale.
Secondo l'accusa, Google ha assunto Ding nel 2019 e ha iniziato a caricare dati sensibili dalla rete di Google al suo account personale di Google nel maggio 2022.
Questi upload sono continuati periodicamente per un anno, durante il quale Ding ha trascorso alcuni mesi in Cina lavorando per la Beijing Rongshu Lianzhi Technology. Questa start-up tecnologica lo ha contattato offrendogli uno stipendio mensile di $14.800 per ricoprire il ruolo di Chief Technology Officer (CTO).
Ding avrebbe anche fondato una propria azienda di AI, la Shanghai Zhisuan Technology.
Il procuratore generale degli Stati Uniti Merrick Garland dichiaratoIl Dipartimento di Giustizia non tollererà il furto di intelligenza artificiale e di altre tecnologie avanzate che potrebbero mettere a rischio la nostra sicurezza nazionale". Il direttore dell'FBI Christopher Wray ha aggiunto che le presunte azioni di Ding "sono l'ultima dimostrazione di quanto le aziende cinesi siano disposte a fare "per rubare l'innovazione americana"".
Mentre il mondo è alle prese con il potenziale di trasformazione dell'IA, le controversie interne alle aziende tecnologiche minacciano di alimentare le fiamme del dissenso.
I casi di Microsoft e Google evidenziano l'importanza di promuovere una cultura dell'innovazione responsabile, che comprenda la fiducia e la trasparenza all'interno dell'azienda stessa.
L'intelligenza artificiale è una tecnologia che richiede fiducia e le aziende tecnologiche devono fornire maggiori garanzie. Questo non è sempre avvenuto.
FPer esempio, un gruppo di oltre 100 esperti di tecnologia ha recentemente co-firmare una lettera implorando le aziende di IA di aprire le porte a test indipendenti.
Hanno sostenuto che le aziende tecnologiche sono troppo riservate sui loro prodotti, tranne quando sono costrette a farlo, come si è visto quando Google ha ritirato Il modello di generazione delle immagini di Gemini per aver creato immagini bizzarre e storicamente inaccurate.
Al momento, sembra che l'eccezionale ritmo di sviluppo dell'IA lasci spesso la fiducia e la sicurezza nella sua scia.