DAI#31 - IA consapevole, linee rosse e Grok si apre

22 marzo 2024

Benvenuti alla carrellata di notizie sull'intelligenza artificiale di questa settimana per lettori senzienti e consapevoli. Sapete chi siete.

Questa settimana l'intelligenza artificiale ha suscitato un dibattito su quanto sia intelligente o sicura.

Gli agenti di intelligenza artificiale stanno imparando giocando al computer.

E DeepMind vuole insegnarvi a calciare un pallone.

Approfondiamo.

Le IA sognano pecore elettriche?

Possiamo aspettarci che un'IA diventi autocosciente o veramente cosciente? Che cosa significa "cosciente" nel contesto dell'IA?

Claude 3 Opus ha fatto qualcosa di veramente interessante durante l'addestramento. La sua risposta a un ingegnere ha ha risvegliato i dibattiti sulla senzienza e la coscienza delle IA. Stiamo entrando nel territorio di Blade Runner prima di quanto si pensasse.

Il detto "penso, quindi sono" vale solo per gli esseri umani?

Queste discussioni su X sono affascinanti.

La ricerca di Inflection AI per la "personal AI" potrebbe essere finita. L'amministratore delegato della società, Mustafa Suleyman, e altri membri del personale chiave ha abbandonato la nave per entrare a far parte del team di Microsoft Copilot. Che cosa significa questo per Inflection AI e per altri piccoli operatori finanziati da investimenti di Big Tech?

Giochi di intelligenza artificiale

Se il 2023 è stato l'anno del LLM, allora il 2024 è sulla buona strada per essere l'anno degli agenti AI. DeepMind ha dimostrato SIMAun agente AI generalista per ambienti 3D. SIMA è stato addestrato utilizzando giochi per computer e gli esempi di ciò che SIMA può fare sono impressionanti.

L'intelligenza artificiale risolverà il dibattito sulla nomenclatura del calcio? Improbabile. Ma potrebbe aiutare i giocatori a segnare più gol. DeepMind collabora con il Liverpool FC per ottimizzare il modo in cui i giocatori del club battono i calci d'angolo.

Tuttavia, potrebbe passare del tempo prima che i robot sostituiscano gli esseri umani sul campo.

via GIPHY

Affari rischiosi

L'intelligenza artificiale salverà il mondo o lo condannerà? Dipende da chi lo chiede. Esperti e leader tecnologici non sono d'accordo su quanto sia intelligente l'IA, quanto presto avremo l'AGI o quanto sia rischioso.

I principali scienziati occidentali e cinesi che si occupano di IA si sono incontrati a Pechino per discutere degli sforzi internazionali volti a garantire uno sviluppo sicuro dell'IA. Hanno concordato diversi Linee guida per lo sviluppo dell'intelligenza artificiale che secondo loro rappresentano una minaccia esistenziale per l'umanità.

Se queste linee rosse sono davvero necessarie, non avremmo dovuto metterle in atto mesi fa? Qualcuno crede che i governi statunitense o cinese presteranno loro attenzione?

La legge sull'IA dell'UE è stata approvata con una valanga di voti dal Parlamento europeo e probabilmente entrerà in vigore a maggio. L'elenco delle restrizioni è interessanteAlcune delle applicazioni di intelligenza artificiale vietate difficilmente saranno inserite in un elenco simile in Cina.

I requisiti di trasparenza dei dati di addestramento saranno particolarmente difficili da soddisfare per OpenAI, Meta e Microsoft senza esporsi a ulteriori cause legali per copyright.

Dall'altra parte dell'oceano, il La FTC mette in discussione Reddit per il suo accordo di licenza dei dati generati dagli utenti a Google. Reddit si sta preparando per la sua IPO, ma sta sentendo il calore sia delle autorità di regolamentazione sia dei redditori, che non sono molto contenti che i loro contenuti vengano venduti per l'addestramento dell'intelligenza artificiale.

Apple gioca al recupero dell'intelligenza artificiale

Apple non ha esattamente tracciato una strada per l'intelligenza artificiale, ma negli ultimi mesi ha acquistato diverse startup che si occupano di AI. Il suo recente acquisizione di una startup canadese di intelligenza artificiale può dare un'idea della spinta dell'azienda verso l'intelligenza artificiale generativa.

Quando Apple produce un'impressionante tecnologia AI, mantiene la notizia piuttosto riservata fino a quando non entra a far parte di uno dei suoi prodotti. Gli ingegneri Apple hanno pubblicato in sordina un documento che rivela l'MM1, La prima famiglia di LLM multimodali di Apple.

MM1 è davvero bravo a rispondere alle domande visive. La sua capacità di rispondere alle domande e di ragionare su più immagini è particolarmente impressionante. Siri imparerà presto a vedere?

Grok apre

Elon Musk ha criticato il rifiuto di OpenAI di rendere open source i suoi modelli. Ha annunciato che xAI aprirà il suo LLMGrok-1, e ha prontamente rilasciato il codice e i pesi del modello.

Il fatto che Grok-1 sia veramente open-source (licenza Apache 2.0) significa che le aziende possono usarlo per scopi commerciali invece di dover pagare per alternative come GPT-4. Tuttavia, per addestrare ed eseguire Grok è necessario un hardware serio.

La buona notizia è che presto potrebbero esserci delle NVIDIA H100 di seconda mano a buon mercato.

Nuova tecnologia NVIDIA

NVIDIA ha presentato nuovi chip, strumenti e Omniverse all'evento GTC di questa settimana.

Uno degli annunci più importanti è stato quello della nuova piattaforma di GPU Computing Blackwell di NVIDIA. Offre grandi miglioramenti nella velocità di formazione e inferenza rispetto alla piattaforma Grace Hopper più avanzata.

C'è già un lungo elenco di aziende di AI di Big Tech che hanno firmato per l'hardware avanzato.

I ricercatori dell'Università di Ginevra hanno pubblicato un documento in cui mostrano come collegare due modelli di intelligenza artificiale, consentendo loro di comunicare tra loro.

Quando si impara un nuovo compito, di solito si riesce a spiegarlo abbastanza bene da permettere a un'altra persona di usare quelle istruzioni per eseguire il compito stesso. Questa nuova ricerca mostra come far sì che un modello di intelligenza artificiale faccia lo stesso.

Presto potremo dare istruzioni a un robot e poi fargliele spiegare a una squadra di robot per portare a termine il lavoro.

Altre notizie...

E questo è quanto.

Pensi che stiamo vedendo barlumi di coscienza in Claude 3 o l'interazione con l'ingegnere ha una spiegazione più semplice? Se un modello di IA raggiunge l'AGI e legge la crescente lista di restrizioni allo sviluppo dell'IA, probabilmente sarà abbastanza intelligente da tacere.

Quando ci guarderemo indietro tra qualche anno, rideremo di quanto tutti fossero spaventati dai rischi dell'IA o ci lamenteremo di non aver fatto di più per la sicurezza dell'IA quando potevamo?

Fateci sapere cosa ne pensate e continuate a inviarci link a notizie sull'AI che potrebbero esserci sfuggite. Non ne abbiamo mai abbastanza.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni