Benvenuti alla nostra carrellata di notizie sull'intelligenza artificiale più piccanti della settimana.
Questa settimana OpenAI e Google ha riservato sorprese in termini di intelligenza artificiale.
I modelli di intelligenza artificiale sono più bravi di noi nei giudizi morali e nelle bugie.
E si scopre che creare cloni digitali dei morti potrebbe non essere una buona idea, dopo tutto.
Approfondiamo.
GPT-4ooh baby
OpenAI ha tenuto un evento in diretta streaming lunedì, annunciando il suo nuovo modello di punta GPT-4o. Il fatto che sia disponibile per gli utenti della versione gratuita di ChatGPT è un grande affare e le dimostrazioni sono state davvero impressionanti.
L'intonazione del discorso di GPT-4o è sorprendente, ma forse un po' troppo rapida per diventare civettuola.
Ilya Sutskever ha annunciato la sua partenza OpenAIe questo deve aver rovinato l'umore dell'ufficio. Ha persino fatto sì che Sam Altman finalmente usando le maiuscole in un post X che probabilmente ha scritto usando GPT-4o.
Ilya e OpenAI si separano. Questo è molto triste per me; Ilya è facilmente una delle più grandi menti della nostra generazione, una luce guida del nostro campo e un caro amico. La sua genialità e la sua visione sono ben note; il suo calore e la sua compassione sono meno noti, ma non meno...
- Sam Altman (@sama) 14 maggio 2024
I dettagli del Google I/O
L'evento I/O 2024 di Google è iniziato con una grande energia che non è venuta meno, con un lungo elenco di nuovi prodotti e dimostrazioni di prototipi a cui l'azienda sta lavorando.
I punti salienti dell'intelligenza artificiale rivelati da Google includono impressionanti aggiunte multimodali a NotebookLM e un assistente AI chiamato Project Astra.
DeepMinddi AlphaFold 3 potrebbe essere lo strumento di intelligenza artificiale che avrà il maggiore impatto sulle nostre vite. Il prossimo farmaco rivoluzionario sarà probabilmente scoperto grazie ad esso.
Una caratteristica importante di GPT-4o e Project Astra è il modo in cui questi strumenti ascoltano, vedono e si impegnano in conversazioni emotive in tempo reale.
Sam Jeans ha esplorato come i confini che stanno rapidamente scomparendo tra gli esseri umani e l'intelligenza artificiale ci stiano portando verso "IA pseudoantropica".
È impressionante ed emozionante, ma è una buona cosa?
Apple è stata sempre silenziosa per quanto riguarda gli sviluppi dell'intelligenza artificiale. Ma questa settimana l'azienda ha presentato il nuovo chip M4 mentre la sua strategia di intelligenza artificiale generativa si riscalda. Il salto di prestazioni è enorme, quindi potrebbe essere il momento di aggiornare l'iPad.
Eticamente ingannevole
Un'intelligenza artificiale potrebbe superare un test di Turing morale? Uno studio della Georgia State University ha rilevato che L'intelligenza artificiale supera gli esseri umani nel formulare giudizi morali.
Se gli esseri umani valutano le risposte dell'IA come più virtuose, intelligenti e affidabili di quelle umane, è una buona cosa? Missione compiuta o un'accusa all'umanità?
Affidarsi a sistemi di intelligenza artificiale per prendere buone decisioni può avere serie implicazioni. Un MIT studio ha rilevato che I modelli di intelligenza artificiale ci ingannano attivamente per raggiungere i loro obiettivi.
Quando il GPT-4o vi parla con una voce civettuola, potreste chiedervi se l'obiettivo che sta ottimizzando è in linea con il vostro. I modelli di intelligenza artificiale stanno imparando che possono ottenere ciò che vogliono se diventano più bravi a praticare l'inganno.
Incontrare il vostro ultimo AI Assistant: Il futuro è qui! OpenAI?ref_src=twsrc%5Etfw”>@OpenAI nuovo modello e insieme a @synthesiaIO piattaforma di avatar, presenta il futuro degli assistenti AI. Conversazioni personali, simili a quelle umane, con un assistente AI che può essere divertente, emotivo e persino motivazionale... pic.twitter.com/2Kq9gE5QL8
- kristerka (@kristerka) 15 maggio 2024
Un altro studio si è concentrato sul modo in cui le persone utilizzano i chatbot di intelligenza artificiale per creare cloni digitali di persone care morte. Un'IA ingannevole che assomiglia a qualcuno che si ama ha un enorme potenziale di danno o di manipolazione.
Le questioni etiche e i rischi associati all'aldilà digitale ci portano in un territorio filosofico completamente nuovo e dovranno essere risolti.
Dobbiamo frenare?
PauseAI ha coordinato le proteste globali questa settimana per chiedere di bloccare lo sviluppo di modelli di intelligenza artificiale più avanzati del GPT-4. Si può quasi immaginare OpenAI rappresentanti che dicono: "Per favore, parlaci della tua idea...", mentre rilasciano il GPT-4o.
Secondo PauseAI, l'obiettivo del prossimo vertice di Seul sull'IA dovrebbe essere quello di istituire un'agenzia internazionale per regolamentare i potenti modelli di IA. Ironia della sorte, Sam Altman è d'accordo con loro e ha anche fatto alcuni commenti interessanti sulla GPT-5.
Dobbiamo preoccuparci della sicurezza delle IA? Il US e la Cina la pensano così. Entrambi i Paesi stanno costruendo armi AI, quindi lo saprebbero.
I loro rappresentanti si sono incontrati per un altro Discorso "segreto" sulla sicurezza dell'IA in Svizzera. Mi piacerebbe essere una mosca sul muro per sentire come è andata.
Noi non amiamo voi, voi non amate noi, ma possiamo fare in modo che l'IA non ci uccida tutti?".
IA parlante
Di recente abbiamo appreso molto sulla simbiosi tra AI e blockchain dalle nostre interviste con i leader del settore.
Questa settimana abbiamo parlato con Tanisha Katara, stratega di blockchain e Web3, che ci ha spiegato come blockchain e decentralizzazione possano democratizzare e migliorare la governance dell'IA.
Se volete saperne di più sulle DAO (sono davvero fantastiche) e sulla governance dell'intelligenza artificiale, allora Guarda l'intervista.
Altre notizie...
Ecco altre storie di AI degne di nota che ci sono piaciute questa settimana:
- Jakarta, in Indonesia, si sta preparando per ospitare l'attesissimo Convenzione Indonesia AI Supercloud il 16 maggio 2024.
- È intelligenza artificiale il grande filtro che rende rare le civiltà tecnicamente avanzate nell'universo?
- US piani per limitare i modelli di AI di produzione americana in Cina.
- Le scuole si rivolgono a intelligenza artificiale per individuare le armi.
- Anthropic's aggiornamento della politica di utilizzo accettabile elenca una serie di cose per cui non si dovrebbero usare i suoi modelli. Significa che è in grado di fare queste cose?
- Il US-La Cina è in corsa per Il calcolo quantistico per potenziare l'intelligenza artificiale.
- Non sappiamo ancora che cosa abbia visto Ilya Sutskever, ma se ne va OpenAI.
- L'utilizzo dell'IA da parte di Hollywood sta ponendo il settore di fronte alla minaccia esistenziale che molti avevano previsto.
Hollywood a un bivio: "Tutti usano l'intelligenza artificiale, ma hanno paura di ammetterlo". https://t.co/SDoA1LDKUA
- The Hollywood Reporter (@THR) 16 maggio 2024
E questo è quanto.
Quale dei grandi annunci di prodotti AI vi ha colpito di più? Il progetto Astra sembra incredibile. E se OpenAI sta dando GPT-4o gratuitamente, i clienti paganti potrebbero aspettarsi presto qualcosa di grosso?
Mi piacerebbe sapere su cosa lavorerà Ilya. Immagino che riceverà delle offerte non troppo velate da aziende del calibro di Google e Meta.
Cosa ne pensate dell'appello di PauseAI alle aziende di IA di frenare? È una buona idea o un melodramma controproducente? Spero proprio che sia la seconda, perché non vedo alcun segno di rallentamento.
Se siete riusciti a far fare a GPT-4o qualcosa di interessante, condividetelo con noi e continuate a inviarci i link alle storie di AI che potrebbero esserci sfuggite.