Benvenuti alla carrellata di notizie sull'intelligenza artificiale generata dall'uomo di questa settimana.
Questa settimana, l'AI ha eroso la nostra fiducia, anche se sembra che non ne abbiamo mai abbastanza.
Attori, programmatori e piloti di caccia potrebbero perdere il lavoro a causa dell'intelligenza artificiale.
E gli scienziati giurano di non usare l'intelligenza artificiale per produrre proteine sbagliate.
Approfondiamo.
Fiducia ma verifica
La fiducia della società nell'IA continua a diminuire anche se l'adozione di strumenti di IA generativa cresce a un ritmo frenetico. Perché siamo così disposti ad adottare una tecnologia nonostante i nostri timori sul modo in cui modellerà il nostro futuro? Cosa c'è dietro questa sfiducia e si può risolvere?
L'esplorazione di Sam del dissonanza tra la crescente sfiducia e l'aumento dell'utilizzo dell'IA generativa ci aiuta a guardare con onestà al nostro rapporto conflittuale con l'IA.
Una delle ragioni alla base dello scetticismo nei confronti dell'IA è rappresentata dalle opinioni allarmistiche diffuse da alcuni settori dell'industria. Un rapporto commissionato dal governo statunitense afferma che L'intelligenza artificiale rappresenta una "minaccia di estinzione" per la nostra specie.
Il rapporto raccomanda di vietare i modelli open-source, anche se i sostenitori dell'IA aperta lo liquidano come un'opera di paura di cattiva scienza.
Questa settimana le notizie sull'intelligenza artificiale sono state un po' scarse. La principessa del Galles Kate Middleton è stata colpita da una profonda polemica sulle immagini false per la modifica troppo entusiasta di una foto di lei e dei bambini.
L'indignazione dei media per una foto modificata di una celebrità è un po' ipocrita, ma forse è un bene che la società stia diventando più sensibile a ciò che è reale e a ciò che non lo è. Progresso?
Non sono un esperto, ma penso seriamente che la #KateMiddleton la foto è un falsopic.twitter.com/CfMJM9XZfW
- Zain Rajpoot (@ZAIN_MZQ) 11 marzo 2024
Lavori di intelligenza artificiale contro lo sciopero
L'industria dei videogiochi ha adottato rapidamente l'intelligenza artificiale, ma gli attori e i doppiatori non sono contenti di come stanno andando le cose. La SAG-AFTRA ora afferma che è "50-50 o più probabile" che sciopero per i negoziati sui videogiochi.
Giocare a un simulatore di volo potrebbe essere il modo in cui i piloti di caccia si avvicineranno di più alla realtà, dato che la prospettiva di essere sostituiti dall'intelligenza artificiale sta diventando realtà. Il Pentagono sta pianificando di avere il primo di 1.000 mini jet da combattimento fantasma pilotati dall'IA costruito nei prossimi mesi.
Sciami di caccia autonomi armati di missili e diretti da un'intelligenza artificiale incline alle allucinazioni. Cosa potrebbe mai andare storto?
Il CEO di Stability AI, Emad Mostaque, ha sollevato un polverone quando ha affermato che nei prossimi anni non ci sarà più bisogno di programmatori umani. La sua audace affermazione sembra sempre più destinata a diventare realtà.
Questa settimana Cognition AI ha annunciato Devin, uno sviluppatore di software AI autonomo che può completare interi progetti di codifica sulla base di suggerimenti testuali. Devin può anche impostare e mettere a punto autonomamente altri modelli di intelligenza artificiale.
Non ne so abbastanza #devinma trovo divertente che il primo ingegnere di software per l'intelligenza artificiale sia alla ricerca di nuovi ingegneri di software. #SoftwareIngegneria pic.twitter.com/zKsI2FVA51
- Marcel (@MarcelNdrecaj) 12 marzo 2024
Forse l'affermazione di Mostaque deve essere chiarita. Presto non ci sarà più bisogno di esseri umani in grado di scrivere codice, ma strumenti come Devin permetteranno a chiunque di essere un programmatore.
Se sei un attore disoccupato, un pilota di caccia o un programmatore alla ricerca di un lavoro nel campo dell'IA, ecco alcune delle possibilità che ti vengono offerte. Le migliori università per studiare l'intelligenza artificiale nel 2024.
La sicurezza prima di tutto
Strumenti di intelligenza artificiale come AlphaFold di DeepMind hanno accelerato la progettazione di nuove proteine. Come possiamo assicurarci che questi strumenti non vengano usati per creare nuove proteine che potrebbero essere utilizzate per scopi malevoli?
I ricercatori hanno creato una serie di norme di sicurezza volontarie per la progettazione di proteine AI e la sintesi del DNAcon alcuni nomi di spicco che hanno firmato per sostenerlo.
Uno degli impegni è quello di utilizzare solo laboratori di sintesi del DNA che controllano se la proteina è pericolosa prima di produrla. Questo implica che alcuni laboratori non lo fanno? Quali laboratori pensa che i cattivi possano utilizzare?
Un gruppo di ricercatori ha sviluppato un parametro per misurare la probabilità che un LLM aiuti un cattivo attore a costruire una bomba o un'arma biologica. La loro nuova tecnica aiuta il modello AI a disimparare le conoscenze pericolose mantenendo le cose buone. Beh, quasi.
I modelli allineati rifiuteranno gentilmente la richiesta di aiuto per costruire una bomba. Se utilizzare l'arte ASCII per creare le parole sconce e un'abile tecnica di prompt è possibile aggirare facilmente queste barriere di sicurezza.
AI a forma di cuore
I ricercatori hanno utilizzato l'intelligenza artificiale per esplorare come la genetica influenza la morfologia del cuore di una persona. La creazione di mappe 3D del cuore e il collegamento con la genetica saranno di grande aiuto per i cardiologi.
I ricercatori della Mayo Clinic sviluppano "IA guidata dalle ipotesi" per l'oncologia. Il nuovo approccio va oltre la semplice analisi dei big data, generando ipotesi che possono poi essere convalidate sulla base della conoscenza del dominio.
Questo potrebbe essere un grosso problema per testare le ipotesi mediche e prevedere e spiegare come i pazienti risponderanno ai trattamenti contro il cancro.
Altre notizie...
Ecco altre storie di AI degne di nota che ci sono piaciute questa settimana:
- NVIDIA viene citata in giudizio dagli autori sull'uso di opere protette da copyright da parte dell'AI
- Modello di fondazione robotica RFM-1 conferisce ai robot capacità di ragionamento simili a quelle umane
- Sam Altman entra a far parte del consiglio di amministrazione di OpenAI insieme a nuovi membri.
- Il nuovo modello di controllo robotico di DeepMind e Stanford segue le istruzioni degli schizzi.
- Google afferma che il suo nuovo sistema di intelligenza artificiale Il telefono Pixel 8 non è in grado di eseguire gli ultimi modelli di intelligenza artificiale per smartphone. Non era questo lo scopo di questi telefoni?
- Il robot Figure-01 mostra le capacità di interazione di OpenAI.
OpenAI + Figura
conversazioni con gli esseri umani, su reti neurali end-to-end:
→ OpenAI fornisce ragionamento visivo e comprensione del linguaggio
→ Le reti neurali di Figure consentono di eseguire azioni robotiche veloci, a basso livello e con grande destrezza(filo conduttore)pic.twitter.com/trOV2xBoax
- Brett Adcock (@adcock_brett) 13 marzo 2024
E questo è quanto.
Vi fidate di più o di meno dell'IA man mano che diventa parte integrante della vostra vita quotidiana? Un approccio più scettico è probabilmente una scommessa più sicura, ma gli annunciatori stanno diventando un po' stancanti.
Cosa ne pensa dei jet da combattimento pilotati dall'IA che sostituiscono i piloti umani? Non vedo l'ora di vedere la manovrabilità di queste macchine, ma l'idea di un'anomalia dell'IA accoppiata ai missili è snervante.
Sono un po' deluso dal fatto che l'unica fake news di AI che abbiamo ricevuto questa settimana sia stata il "Jerseygate" reale, ma credo che dovremmo considerarlo un progresso. Sono sicuro che il servizio normale riprenderà la prossima settimana, quando le elezioni si faranno più intense.
Fateci sapere quali sviluppi dell'IA hanno attirato la vostra attenzione questa settimana e inviateci i link a qualsiasi notizia o ricerca sull'IA che potrebbe esserci sfuggita.