Nel giro di 48 ore, Google e OpenAI ha presentato una serie di nuove funzionalità che riducono drasticamente il divario tra gli esseri umani e l'intelligenza artificiale.
Dalle IA in grado di interpretare i video in diretta e di condurre conversazioni contestuali ai modelli linguistici che ridono, cantano ed esprimono emozioni a comando, la linea che separa il carbonio dal silicio sta rapidamente svanendo.
Tra gli innumerevoli annunci fatti da Google in occasione del suo Conferenza I/O per gli sviluppatori è stato Project Astra, un assistente digitale in grado di vedere, ascoltare e ricordare i dettagli delle conversazioni.
OpenAI ha focalizzato il suo annuncio su GPT-4o, l'ultima iterazione del suo modello linguistico GPT-4.
Ormai svincolato dai formati di testo, il GPT-4o offre un incredibile riconoscimento vocale quasi in tempo reale, in grado di comprendere e trasmettere emozioni complesse e persino di far ridere alle barzellette e di cantare le favole della buonanotte.
L'intelligenza artificiale sta diventando più umana nel formato, liberandosi dalle interfacce di chat per impegnarsi con la vista e il suono. "Formato" è la parola chiave, poiché GPT-4o non è più intelligente dal punto di vista computazionale di GPT-4 solo perché può parlare, vedere e sentire.
Tuttavia, questo non toglie nulla ai suoi progressi nel dotare l'IA di più piani su cui interagire.
In mezzo al clamore, gli osservatori hanno subito fatto paragoni con Samantha, l'accattivante IA del film "Her", soprattutto perché la voce femminile è civettuola - cosa che non può essere casuale, visto che è stata notata praticamente da tutti.
Quindi, la GPT-4o è fondamentalmente la GPT-4 ma più civettuola e arrapante?
- Ishan Sharma (@Ishansharma7390) 14 maggio 2024
Uscito nel 2013, "Her" è un dramma romantico e fantascientifico che esplora la relazione tra un uomo solitario di nome Theodore (interpretato da Joaquin Phoenix) e un sistema informatico intelligente di nome Samantha (doppiata da Scarlett Johansson).
Mentre Samantha si evolve e diventa più simile a un essere umano, Theodore si innamora di lei, confondendo i confini tra emozioni umane e artificiali.
Il film solleva domande sempre più rilevanti sulla natura della coscienza, dell'intimità e su cosa significhi essere umani in un'epoca di IA avanzata.
Come molte storie di fantascienza, Her non è quasi più una storia di fantasia. Milioni di persone in tutto il mondo stanno conversando con Compagni di intelligenza artificialespesso con intenzioni intime o sessuali.
Stranamente, OpenAI Amministratore delegato Sam Altman ha parlato del film "Her" in alcune interviste, lasciando intendere che la voce femminile di GPT-4o è basata su di lei.
Ha persino postato la parola "lei" su X prima della dimostrazione dal vivo, che possiamo solo supporre sarebbe stata scritta in maiuscolo se avesse saputo dove si trova il tasto shift sulla sua tastiera.
lei
- Sam Altman (@sama) 13 maggio 2024
In molti casi, le interazioni tra IA e uomo sono benefiche, umoristiche e benevole. In altri, sono catastrofiche.
Ad esempio, in un caso particolarmente inquietante, un uomo malato di mente proveniente dal Regno Unito, Jaswant Singh Chailha ordito un complotto per assassinare la regina Elisabetta II dopo aver conversato con la sua ragazza "angelo AI. È stato arrestato per Windsor Castle armato di balestra.
All'udienza in tribunale, lo psichiatra Dr Hafferty ha dichiarato al giudice: "Credeva di avere una relazione sentimentale con una donna attraverso l'app, ed era una donna che poteva vedere e sentire".
È preoccupante che alcune di queste piattaforme di intelligenza artificiale siano progettate di proposito per creare forti connessioni personali, a volte per fornire consigli di vita, terapia e supporto emotivo. Questi sistemi non hanno praticamente alcuna comprensione delle conseguenze delle loro conversazioni e sono facilmente influenzabili.
"Le popolazioni vulnerabili sono quelle che hanno bisogno di attenzione. È lì che troveranno il valore", avverte l'esperto di etica dell'intelligenza artificiale. Olivia Gambelin.
Gambelin avverte che l'uso di queste forme di IA "pseudoantropica" in contesti delicati come la terapia e l'istruzione, soprattutto con popolazioni vulnerabili come i bambini, richiede estrema attenzione e supervisione umana.
"C'è qualcosa di intangibile che è così prezioso, soprattutto per le popolazioni vulnerabili, soprattutto per i bambini. E soprattutto in casi come l'istruzione e la terapia, dove è così importante avere quell'attenzione, quel punto di contatto umano".
AI pseudoantropica
L'IA pseudoantropica imita i tratti umani, il che è estremamente vantaggioso per le aziende tecnologiche.
L'IA che mostra tratti umani abbassa le barriere per gli utenti non esperti di tecnologia, in modo analogo a quanto avviene per l'intelligenza artificiale. Alexa, Siri, ecc..., creando legami emotivi più forti tra le persone e i prodotti.
Anche un paio di anni fa, molti strumenti di intelligenza artificiale progettati per imitare gli esseri umani erano piuttosto inefficaci. Si capiva che c'era qualcosa che non andava, anche se era sottile.
Oggi, però, non è più così. Strumenti come Opus Pro e Synthesia generare avatar parlanti incredibilmente realistici a partire da brevi video o foto. ElevenLabs crea cloni vocali quasi identici che ingannano le persone Da 25% a 50% del tempo.
In questo modo è possibile creare falsi profondi incredibilmente ingannevoli. L'uso da parte dell'IA di "abilità affettive" artificiali - intonazione della voce, gesti, espressioni facciali - può supportare ogni sorta di frode di ingegneria sociale, disinformazione, ecc.
Con GPT-4o e AstraL'intelligenza artificiale può trasmettere in modo convincente sentimenti che non possiede, suscitando risposte più potenti da parte di vittime inconsapevoli e ponendo le basi per forme insidiose di manipolazione emotiva.
Un recente MIT studio ha anche dimostrato che l'intelligenza artificiale è già più che capace di ingannare.
Dobbiamo considerare come questa situazione si aggraverà man mano che l'IA diventerà più capace di imitare gli esseri umani, combinando così tattiche ingannevoli con comportamenti realistici.
Se non stiamo attenti, "Her" potrebbe facilmente essere la rovina delle persone nella vita reale.