Gli annunci di Google e OpenAI infrangono i confini tra umani e IA

15 maggio 2024

  • Gli ultimi prodotti di OpenAI e Google dotano l'intelligenza artificiale di vista e udito migliorati
  • I modelli possono ora dialogare con noi in modo naturale e rilevare le nostre emozioni
  • Che cosa significa per le persone e la società la crescente umanizzazione dell'IA?
Umani AI

Nel giro di 48 ore, Google e OpenAI ha presentato una serie di nuove funzionalità che riducono drasticamente il divario tra gli esseri umani e l'intelligenza artificiale.

Dalle IA in grado di interpretare i video in diretta e di condurre conversazioni contestuali ai modelli linguistici che ridono, cantano ed esprimono emozioni a comando, la linea che separa il carbonio dal silicio sta rapidamente svanendo.

Tra gli innumerevoli annunci fatti da Google in occasione del suo Conferenza I/O per gli sviluppatori è stato Project Astra, un assistente digitale in grado di vedere, ascoltare e ricordare i dettagli delle conversazioni.

OpenAI ha focalizzato il suo annuncio su GPT-4o, l'ultima iterazione del suo modello linguistico GPT-4. 

Ormai svincolato dai formati di testo, il GPT-4o offre un incredibile riconoscimento vocale quasi in tempo reale, in grado di comprendere e trasmettere emozioni complesse e persino di far ridere alle barzellette e di cantare le favole della buonanotte. 

L'intelligenza artificiale sta diventando più umana nel formato, liberandosi dalle interfacce di chat per impegnarsi con la vista e il suono. "Formato" è la parola chiave, poiché GPT-4o non è più intelligente dal punto di vista computazionale di GPT-4 solo perché può parlare, vedere e sentire.

Tuttavia, questo non toglie nulla ai suoi progressi nel dotare l'IA di più piani su cui interagire.

In mezzo al clamore, gli osservatori hanno subito fatto paragoni con Samantha, l'accattivante IA del film "Her", soprattutto perché la voce femminile è civettuola - cosa che non può essere casuale, visto che è stata notata praticamente da tutti.

Uscito nel 2013, "Her" è un dramma romantico e fantascientifico che esplora la relazione tra un uomo solitario di nome Theodore (interpretato da Joaquin Phoenix) e un sistema informatico intelligente di nome Samantha (doppiata da Scarlett Johansson). 

Mentre Samantha si evolve e diventa più simile a un essere umano, Theodore si innamora di lei, confondendo i confini tra emozioni umane e artificiali. 

Il film solleva domande sempre più rilevanti sulla natura della coscienza, dell'intimità e su cosa significhi essere umani in un'epoca di IA avanzata. 

Come molte storie di fantascienza, Her non è quasi più una storia di fantasia. Milioni di persone in tutto il mondo stanno conversando con Compagni di intelligenza artificialespesso con intenzioni intime o sessuali. 

Stranamente, OpenAI Amministratore delegato Sam Altman ha parlato del film "Her" in alcune interviste, lasciando intendere che la voce femminile di GPT-4o è basata su di lei.

Ha persino postato la parola "lei" su X prima della dimostrazione dal vivo, che possiamo solo supporre sarebbe stata scritta in maiuscolo se avesse saputo dove si trova il tasto shift sulla sua tastiera.

In molti casi, le interazioni tra IA e uomo sono benefiche, umoristiche e benevole. In altri, sono catastrofiche.

Ad esempio, in un caso particolarmente inquietante, un uomo malato di mente proveniente dal Regno Unito, Jaswant Singh Chailha ordito un complotto per assassinare la regina Elisabetta II dopo aver conversato con la sua ragazza "angelo AI. È stato arrestato per Windsor Castle armato di balestra.

All'udienza in tribunale, lo psichiatra Dr Hafferty ha dichiarato al giudice: "Credeva di avere una relazione sentimentale con una donna attraverso l'app, ed era una donna che poteva vedere e sentire".

È preoccupante che alcune di queste piattaforme di intelligenza artificiale siano progettate di proposito per creare forti connessioni personali, a volte per fornire consigli di vita, terapia e supporto emotivo. Questi sistemi non hanno praticamente alcuna comprensione delle conseguenze delle loro conversazioni e sono facilmente influenzabili.

"Le popolazioni vulnerabili sono quelle che hanno bisogno di attenzione. È lì che troveranno il valore", avverte l'esperto di etica dell'intelligenza artificiale. Olivia Gambelin.

Gambelin avverte che l'uso di queste forme di IA "pseudoantropica" in contesti delicati come la terapia e l'istruzione, soprattutto con popolazioni vulnerabili come i bambini, richiede estrema attenzione e supervisione umana. 

"C'è qualcosa di intangibile che è così prezioso, soprattutto per le popolazioni vulnerabili, soprattutto per i bambini. E soprattutto in casi come l'istruzione e la terapia, dove è così importante avere quell'attenzione, quel punto di contatto umano".

AI pseudoantropica

L'IA pseudoantropica imita i tratti umani, il che è estremamente vantaggioso per le aziende tecnologiche

L'IA che mostra tratti umani abbassa le barriere per gli utenti non esperti di tecnologia, in modo analogo a quanto avviene per l'intelligenza artificiale. Alexa, Siri, ecc..., creando legami emotivi più forti tra le persone e i prodotti.  

Anche un paio di anni fa, molti strumenti di intelligenza artificiale progettati per imitare gli esseri umani erano piuttosto inefficaci. Si capiva che c'era qualcosa che non andava, anche se era sottile. 

Oggi, però, non è più così. Strumenti come Opus Pro e Synthesia generare avatar parlanti incredibilmente realistici a partire da brevi video o foto. ElevenLabs crea cloni vocali quasi identici che ingannano le persone Da 25% a 50% del tempo

In questo modo è possibile creare falsi profondi incredibilmente ingannevoli. L'uso da parte dell'IA di "abilità affettive" artificiali - intonazione della voce, gesti, espressioni facciali - può supportare ogni sorta di frode di ingegneria sociale, disinformazione, ecc.

Con GPT-4o e AstraL'intelligenza artificiale può trasmettere in modo convincente sentimenti che non possiede, suscitando risposte più potenti da parte di vittime inconsapevoli e ponendo le basi per forme insidiose di manipolazione emotiva.

Un recente MIT studio ha anche dimostrato che l'intelligenza artificiale è già più che capace di ingannare. 

Dobbiamo considerare come questa situazione si aggraverà man mano che l'IA diventerà più capace di imitare gli esseri umani, combinando così tattiche ingannevoli con comportamenti realistici. 

Se non stiamo attenti, "Her" potrebbe facilmente essere la rovina delle persone nella vita reale.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni