La dissonanza tra la crescente sfiducia e l'aumento dell'utilizzo dell'IA generativa

9 marzo 2024

Fiducia nell'intelligenza artificiale

La rapida ascesa dell'IA generativa ha affascinato il mondo, ma mentre la tecnologia avanza a un ritmo senza precedenti, è emersa una crisi: l'erosione della fiducia del pubblico nell'industria dell'IA. 

L'Edelman Trust Barometer 2024, un'indagine completa condotta su oltre 32.000 intervistati in 28 Paesi, ha rivelato un sorprendente declino della fiducia globale nelle aziende di IA, con un crollo dei livelli di fiducia da 61% a 53% in soli cinque anni.

Negli Stati Uniti si è registrato un calo ancora più drammatico, con una diminuzione della fiducia da 50% a 35% nello stesso periodo. Questo dato è trasversale ai vari schieramenti politici, con i democratici (38%), gli indipendenti (25%) e i repubblicani (24%) che esprimono un profondo scetticismo nei confronti del settore dell'intelligenza artificiale.

Un tempo molto affidabile per il pubblico, il settore della tecnologia sta perdendo la sua brillantezza. Otto anni fa, la tecnologia regnava come il settore più affidabile in 90% dei Paesi studiati da Edelman. 

Oggi questa cifra è crollata a soli 50%. Di fatto, il settore tecnologico ha perso la sua posizione di industria più affidabile in mercati chiave come Stati Uniti, Regno Unito, Germania e Francia.

Quando si tratta di tecnologie specifiche, i livelli di fiducia sono ancora più preoccupanti.

Mentre 76% degli intervistati globali si fidano delle aziende tecnologiche in generale, solo 50% si fidano dell'IA. Questo divario di 26 punti è ancora più marcato in aree come la medicina basata sui geni (divario di 23 punti) e gli alimenti geneticamente modificati (divario di 40 punti). 

Il Studio Edelman evidenzia anche un netto divario tra i Paesi sviluppati e quelli in via di sviluppo per quanto riguarda l'atteggiamento nei confronti dell'IA. Gli intervistati in Francia, Canada, Irlanda, Regno Unito, Stati Uniti, Germania, Australia, Paesi Bassi e Svezia rifiutano il crescente utilizzo dell'IA con un margine di tre a uno. 

Al contrario, l'accettazione dell'IA supera in modo significativo la resistenza nei mercati in via di sviluppo come Arabia Saudita, India, Cina, Kenya, Nigeria e Tailandia. 

Cosa spinge la diffidenza verso l'industria dell'IA generativa?

Cosa spinge questa sfiducia? 

A livello globale, le preoccupazioni per la privacy (39%), la svalutazione dell'umanità (36%) e l'inadeguatezza dei test (35%) sono in cima alla lista degli ostacoli all'adozione dell'IA. 

Negli Stati Uniti, i timori di danni alla società (61%) e di minacce al benessere personale (57%) sono particolarmente acuti. È interessante notare che la delocalizzazione dei posti di lavoro si colloca in fondo alle preoccupazioni sia a livello globale (22%) sia negli Stati Uniti (19%).

Questi risultati sono ulteriormente rafforzati da un recente Sondaggio dell'Istituto di politica dell'AI condotto da YouGov, che ha rilevato che ben 72% degli elettori americani sono favorevoli a uno sviluppo più lento dell'IA, contro gli appena 8% favorevoli ad accelerarlo. 

Il sondaggio ha anche rivelato che 62% degli americani esprimono apprensione nei confronti dell'IA, mettendo in ombra i 21% che si sentono entusiasti.

Le recenti controversie, come la perdita di oltre 16.000 nomi di artisti legati all'addestramento dei modelli di generazione delle immagini di Midjourney e rivelazioni di insider in Microsoft e Googlehanno solo accresciuto le preoccupazioni dell'opinione pubblica sull'industria dell'IA.

Mentre titani del settore come Sam Altman, Brad Smith e Jensen Huang sono ansiosi di far progredire lo sviluppo dell'IA per il "bene comune", il pubblico non condivide necessariamente lo stesso fervore. 

Per ricostruire la fiducia, il rapporto Edelman raccomanda alle aziende di collaborare con il governo per garantire uno sviluppo responsabile e guadagnare la fiducia del pubblico attraverso test approfonditi. 

Gli scienziati e gli esperti detengono ancora l'autorità, ma hanno sempre più bisogno di impegnarsi nel dialogo pubblico. Soprattutto, le persone vogliono sentire un senso di autonomia e di controllo sull'impatto che le innovazioni emergenti avranno sulla loro vita.

Come ha giustamente affermato Justin Westcott, presidente di Edelman per la tecnologia globale, "Coloro che danno priorità all'IA responsabile, che collaborano in modo trasparente con le comunità e i governi e che rimettono il controllo nelle mani degli utenti, non solo guideranno il settore, ma ricostruiranno il ponte di fiducia che la tecnologia, da qualche parte lungo la strada, ha perso".

Paura dell'ignoto?

Nel corso della storia umana, l'emergere di tecnologie innovative è stato spesso accompagnato da un complesso gioco di fascino, adozione e apprensione. 

Non c'è dubbio che milioni di persone utilizzino regolarmente l'IA generativa, e i sondaggi mostrano che circa 1/6 delle persone nelle economie digitalmente avanzate utilizzano quotidianamente strumenti di IA e la stragrande maggioranza li ha almeno provati. 

Studi condotti in singoli settori industriali hanno rilevato che le persone risparmiano ore al giorno utilizzando l'IA generativa, riducendo il rischio di burnout e diminuendo gli oneri amministrativi.

Come per altre tecnologie, anche per l'IA generativa si sta ripetendo questo ciclo di apprensione e diffusione? 

Si pensi, ad esempio, all'avvento della stampa nel XV secolo. Questa tecnologia rivoluzionaria ha democratizzato l'accesso alla conoscenza, ha aperto la strada alla comunicazione di massa e ha catalizzato profondi cambiamenti sociali, politici e religiosi. 

In mezzo alla rapida proliferazione di materiali stampati, si temeva il potenziale di disinformazione, l'erosione dell'autorità e lo sconvolgimento delle strutture di potere consolidate.

Allo stesso modo, la rivoluzione industriale del XVIII e XIX secolo ha portato a progressi senza precedenti nella produzione, nei trasporti e nelle comunicazioni. 

La macchina a vapore, il telegrafo e il sistema industriale hanno trasformato il tessuto della società, liberando nuove possibilità di produttività e progresso. Tuttavia, queste innovazioni hanno anche sollevato preoccupazioni circa lo spostamento dei lavoratori, la concentrazione di ricchezza e potere e gli effetti disumanizzanti della meccanizzazione.

L'IA generativa è forse rappresentativa di una caratteristica sconosciuta e potenzialmente imprevedibile. La paura che la circonda non è un fenomeno del tutto nuovo, ma piuttosto un'eco di modelli storici che hanno plasmato il nostro rapporto con le innovazioni trasformative.

Questa dissonanza che circonda l'IA generativa riflette una tensione più profonda tra il nostro innato desiderio di progresso e la nostra paura dell'ignoto.

Gli esseri umani sono attratti dalla novità e dal potenziale delle nuove tecnologie, ma si confrontano anche con l'incertezza e i rischi che esse comportano. 

Nella sua opera magna "L'essere e il nulla" (1943), il filosofo francese Jean-Paul Sartre esplora il concetto di "malafede", una forma di autoinganno in cui gli individui negano la propria responsabilità di fronte all'angoscia esistenziale.

Nel contesto dell'IA generativa, l'adozione diffusa della tecnologia, nonostante la crescente diffidenza, può essere vista come una forma di malafede, un modo per abbracciare i vantaggi dell'IA evitando le domande difficili e i dilemmi etici che essa solleva.

Inoltre, il ritmo e la portata dello sviluppo dell'IA generativa amplificano la dissonanza tra adozione e diffidenza. 

A differenza delle precedenti rivoluzioni tecnologiche, che si sono sviluppate nell'arco di decenni o secoli, l'ascesa dell'IA sta avvenendo a una velocità senza precedenti, superando la nostra capacità di comprenderne appieno le implicazioni e di sviluppare quadri di governance adeguati.

Questo rapido progresso ha lasciato in molti un senso di vertigine, come se il terreno sotto i piedi si spostasse più velocemente di quanto si possa adattare. Ha anche messo a nudo i limiti delle nostre attuali norme legali, etiche e di strutture socialiche faticano a tenere il passo con il potere di trasformazione dell'IA.

Dobbiamo lavorare per creare un futuro in cui i benefici di questa tecnologia siano realizzati in modo da sostenere i nostri valori, proteggere i nostri diritti e promuovere il bene comune. 

La sfida è che "il bene superiore" è qualcosa di immensamente soggettivo e oscuro. È una frase che aziende come OpenAI usano spesso e ha un tono dittatoriale un po' inquietante.

In ogni caso, guidare l'IA generativa verso questo obiettivo richiederà un dialogo aperto e onesto, la disponibilità a confrontarsi con domande difficili e l'impegno a costruire ponti di comprensione e fiducia.

Anche il sistema giuridico deve adattarsi per aprire la strada a uno sviluppo dell'IA equo e trasparente, che si allontani dall'era del Far West del data scraping e dell'abuso di proprietà intellettuale.

A quel punto, potremmo vedere la fiducia iniziare a salire.  

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni