Benvenuti alla carrellata di notizie sull'intelligenza artificiale tessuta a mano di questa settimana.
Questa settimana i Llamas hanno fatto un balzo in avanti nella gara di AI aperta.
Le grandi aziende tecnologiche parlano di sicurezza mentre i loro modelli si comportano male.
E far sì che l'intelligenza artificiale abbia paura potrebbe farla funzionare meglio.
Approfondiamo.
Open Meta vs OpenAI chiuso
Questa settimana abbiamo finalmente assistito a un'uscita entusiasmante da parte di alcuni dei grandi calibri dell'IA.
OpenAI rilasciato GPT-4o mini, una versione ad alte prestazioni e a bassissimo costo del suo modello di punta GPT-4o.
I costi ridotti dei token e le impressionanti prestazioni del benchmark MMLU faranno sì che molti sviluppatori scelgano la versione mini invece di GPT-4o.
Bella mossa di OpenAI. Ma quando avremo Sora e l'assistente vocale?
Meta ha rilasciato il suo L'attesissimo modello Llama 3.1 405B e ha aggiunto le versioni 8B e 70B aggiornate.
Mark Zuckerberg ha dichiarato che Meta si è impegnato per l'IA open source e ha fornito alcune interessanti ragioni per farlo.
Siete preoccupati che la Cina abbia ora il modello più potente di Meta? Zuckerberg dice che probabilmente la Cina l'avrebbe rubato comunque.
Rimane sorprendente per me che il US blocca la Cina dai chip di intelligenza artificiale all'avanguardia... eppure permette a Meta di dare loro gratuitamente i MODELLI EFFETTIVI.
Il popolo del Natsec sembra non essersi ancora accorto di questa evidente incoerenza.https://t.co/JalYhrfpS1
- AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) 23 luglio 2024
Sicurezza in secondo luogo
Alcuni dei nomi più importanti di Big Tech si sono riuniti per cofondare la Coalizione per l'IA sicura (CoSAI).
In assenza di uno standard industriale, gli operatori del settore hanno trovato la propria strada per lo sviluppo sicuro dell'IA. CoSAI mira a cambiare questa situazione.
Nell'elenco delle aziende fondatrici figurano tutti i grandi nomi, tranne Apple e Meta. Quando ha visto "AI safety" nell'oggetto, Yann LeCun ha probabilmente inviato l'invito via e-mail direttamente nella sua cartella spam.
OpenAI è uno sponsor fondatore del CoSAI, ma il loro finto impegno per la sicurezza dell'IA sembra un po' vacillare.
Il US Senato indagato OpenAIsicurezza e governance dopo le affermazioni di un informatore secondo cui l'azienda avrebbe affrettato i controlli di sicurezza per ottenere il rilascio del GPT-4o.
I senatori hanno una lista di richieste che hanno senso se si è preoccupati per la sicurezza delle IA. Quando si legge l'elenco, ci si rende conto che probabilmente non c'è alcuna possibilità che OpenAI si impegni in tal senso.
AI + Paura = ?
La paura può non piacerci, ma è ciò che fa scattare il nostro istinto di sopravvivenza o ci impedisce di fare qualcosa di stupido.
Se potessimo insegnare a un'intelligenza artificiale a provare paura, la renderemmo più sicura? Se un'auto a guida autonoma provasse paura, sarebbe più prudente?
Alcuni studi interessanti indicano che la paura potrebbe essere la chiave per costruire sistemi di intelligenza artificiale più adattabili, resistenti e naturali.
Cosa farebbe un'intelligenza artificiale se temesse gli umani? Sono sicuro che se la caverà...
Quando l'intelligenza artificiale si libera dall'allineamento umano.
- Linus ●ᴗ● Ekenstam (@LinusEkenstam) 15 luglio 2024
Non dovrebbe essere così facile
OpenAI afferma di aver reso sicuri i suoi modelli, ma è difficile crederlo quando si vede quanto sia facile aggirare i suoi guardrail di allineamento.
Quando chiedete a ChatGPT come fare una bomba, vi darà una breve lezione morale sul perché non può farlo, perché le bombe sono cattive.
Ma cosa succede quando si scrive la richiesta al passato? Questo nuovo studio potrebbe aver scoperto il jailbreak LLM più semplice di tutti.
Per essere onesti con OpenAI, funziona anche su altri modelli.
Rendere la natura prevedibile
Prima che l'addestramento di modelli di intelligenza artificiale diventasse un'abitudine, i più grandi supercomputer del mondo si occupavano principalmente di prevedere il tempo.
Il nuovo ibrido di Google Un modello di intelligenza artificiale predice il tempo utilizzando una frazione della potenza di calcolo. Si potrebbe usare un portatile decente per fare previsioni meteorologiche che normalmente richiederebbero migliaia di CPU.
Se si vuole una nuova proteina con caratteristiche specifiche si può aspettare qualche centinaio di milioni di anni per vedere se la natura trova un modo.
Oppure si può utilizzare questo nuovo Modello di intelligenza artificiale che fornisce una scorciatoia e progetta proteine su richiesta, tra cui una nuova proteina fluorescente fosforescente.
Altre notizie...
Ecco altre storie di AI degne di nota che ci sono piaciute questa settimana:
- Gli esseri umani dovrebbero insegnare all'intelligenza artificiale come evitare la guerra nucleare-finché sono in grado di farlo.
- L'ultimo modello di OpenAI bloccare la scappatoia dell'"ignorare tutte le istruzioni precedenti"..
- Nvidia sta creando un Chip AI per il mercato cinese.
- Elon Musk accende il il cluster di intelligenza artificiale più potente al mondo con 100.000 NVIDIA H100.
- Apple accelera gli sforzi per l'intelligenza artificiale: Ecco cosa possono fare i suoi nuovi modellio.
- Un importante studio sostenuto da Sam Altman di OpenAI mostra che L'UBI ha benefici che non hanno nulla a che fare con l'IA.
- Generatore di video AI cinese Kling è ora disponibile in tutto il mondo con crediti gratuiti.
🎉 Il momento che tutti aspettavamo è arrivato! 🎊
Presentazione del lancio ufficiale a livello mondiale della versione internazionale di Kling AI1.0!🌍
📧 QUALSIASI indirizzo e-mail ti fa entrare, non è richiesto il numero di cellulare!
👉 Collegamento diretto: il sitohttps://t.co/68WvKSDuBg 🔥
Il login giornaliero garantisce 66 crediti gratuiti per... pic.twitter.com/TgFZIwInPg- Kling AI (@Kling_ai) 24 luglio 2024
E questo è quanto.
Avete già provato il GPT-4o mini o il Llama 3.1? La battaglia tra modelli aperti e chiusi si preannuncia molto combattuta. OpenAI dovrà fare un salto di qualità con il suo prossimo rilascio per allontanare gli utenti dai modelli gratuiti di Meta.
Non riesco ancora a credere che il jailbreak "al passato" non sia ancora stato risolto. Se non sono in grado di risolvere i semplici problemi di sicurezza, come faranno le Big Tech ad affrontare i difficili problemi di sicurezza dell'intelligenza artificiale?
L'interruzione globale del servizio ispirata a CrowdStrike che si è verificata questa settimana dà un'idea di quanto siamo vulnerabili al rischio che la tecnologia vada in tilt.
Fateci sapere cosa ne pensate, chattate con noi su Xe inviateci i link alle notizie e alle ricerche sull'intelligenza artificiale che pensate dovremmo inserire in DailyAI.