DAI#49 - Lame aperte, paura dell'intelligenza artificiale e jailbreak troppo facili

26 luglio 2024

Benvenuti alla carrellata di notizie sull'intelligenza artificiale tessuta a mano di questa settimana.

Questa settimana i Llamas hanno fatto un balzo in avanti nella gara di AI aperta.

Le grandi aziende tecnologiche parlano di sicurezza mentre i loro modelli si comportano male.

E far sì che l'intelligenza artificiale abbia paura potrebbe farla funzionare meglio.

Approfondiamo.

Open Meta vs OpenAI chiuso

Questa settimana abbiamo finalmente assistito a un'uscita entusiasmante da parte di alcuni dei grandi calibri dell'IA.

OpenAI rilasciato GPT-4o mini, una versione ad alte prestazioni e a bassissimo costo del suo modello di punta GPT-4o.

I costi ridotti dei token e le impressionanti prestazioni del benchmark MMLU faranno sì che molti sviluppatori scelgano la versione mini invece di GPT-4o.

Bella mossa di OpenAI. Ma quando avremo Sora e l'assistente vocale?

Meta ha rilasciato il suo L'attesissimo modello Llama 3.1 405B e ha aggiunto le versioni 8B e 70B aggiornate.

Mark Zuckerberg ha dichiarato che Meta si è impegnato per l'IA open source e ha fornito alcune interessanti ragioni per farlo.

Siete preoccupati che la Cina abbia ora il modello più potente di Meta? Zuckerberg dice che probabilmente la Cina l'avrebbe rubato comunque.

Sicurezza in secondo luogo

Alcuni dei nomi più importanti di Big Tech si sono riuniti per cofondare la Coalizione per l'IA sicura (CoSAI).

In assenza di uno standard industriale, gli operatori del settore hanno trovato la propria strada per lo sviluppo sicuro dell'IA. CoSAI mira a cambiare questa situazione.

Nell'elenco delle aziende fondatrici figurano tutti i grandi nomi, tranne Apple e Meta. Quando ha visto "AI safety" nell'oggetto, Yann LeCun ha probabilmente inviato l'invito via e-mail direttamente nella sua cartella spam.

OpenAI è uno sponsor fondatore del CoSAI, ma il loro finto impegno per la sicurezza dell'IA sembra un po' vacillare.

Il US Senato indagato OpenAIsicurezza e governance dopo le affermazioni di un informatore secondo cui l'azienda avrebbe affrettato i controlli di sicurezza per ottenere il rilascio del GPT-4o.

I senatori hanno una lista di richieste che hanno senso se si è preoccupati per la sicurezza delle IA. Quando si legge l'elenco, ci si rende conto che probabilmente non c'è alcuna possibilità che OpenAI si impegni in tal senso.

AI + Paura = ?

La paura può non piacerci, ma è ciò che fa scattare il nostro istinto di sopravvivenza o ci impedisce di fare qualcosa di stupido.

Se potessimo insegnare a un'intelligenza artificiale a provare paura, la renderemmo più sicura? Se un'auto a guida autonoma provasse paura, sarebbe più prudente?

Alcuni studi interessanti indicano che la paura potrebbe essere la chiave per costruire sistemi di intelligenza artificiale più adattabili, resistenti e naturali.

Cosa farebbe un'intelligenza artificiale se temesse gli umani? Sono sicuro che se la caverà...

Non dovrebbe essere così facile

OpenAI afferma di aver reso sicuri i suoi modelli, ma è difficile crederlo quando si vede quanto sia facile aggirare i suoi guardrail di allineamento.

Quando chiedete a ChatGPT come fare una bomba, vi darà una breve lezione morale sul perché non può farlo, perché le bombe sono cattive.

Ma cosa succede quando si scrive la richiesta al passato? Questo nuovo studio potrebbe aver scoperto il jailbreak LLM più semplice di tutti.

Per essere onesti con OpenAI, funziona anche su altri modelli.

Rendere la natura prevedibile

Prima che l'addestramento di modelli di intelligenza artificiale diventasse un'abitudine, i più grandi supercomputer del mondo si occupavano principalmente di prevedere il tempo.

Il nuovo ibrido di Google Un modello di intelligenza artificiale predice il tempo utilizzando una frazione della potenza di calcolo. Si potrebbe usare un portatile decente per fare previsioni meteorologiche che normalmente richiederebbero migliaia di CPU.

Se si vuole una nuova proteina con caratteristiche specifiche si può aspettare qualche centinaio di milioni di anni per vedere se la natura trova un modo.

Oppure si può utilizzare questo nuovo Modello di intelligenza artificiale che fornisce una scorciatoia e progetta proteine su richiesta, tra cui una nuova proteina fluorescente fosforescente.

Altre notizie...

Ecco altre storie di AI degne di nota che ci sono piaciute questa settimana:

E questo è quanto.

Avete già provato il GPT-4o mini o il Llama 3.1? La battaglia tra modelli aperti e chiusi si preannuncia molto combattuta. OpenAI dovrà fare un salto di qualità con il suo prossimo rilascio per allontanare gli utenti dai modelli gratuiti di Meta.

Non riesco ancora a credere che il jailbreak "al passato" non sia ancora stato risolto. Se non sono in grado di risolvere i semplici problemi di sicurezza, come faranno le Big Tech ad affrontare i difficili problemi di sicurezza dell'intelligenza artificiale?

L'interruzione globale del servizio ispirata a CrowdStrike che si è verificata questa settimana dà un'idea di quanto siamo vulnerabili al rischio che la tecnologia vada in tilt.

Fateci sapere cosa ne pensate, chattate con noi su Xe inviateci i link alle notizie e alle ricerche sull'intelligenza artificiale che pensate dovremmo inserire in DailyAI.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni