DAI#57 - L'IA difficile, la sfida degli esami e le cure per le cospirazioni

20 settembre 2024

Benvenuti alla carrellata di questa settimana di notizie sull'IA fatte dagli umani, per gli umani.

Questa settimana, OpenAI ci ha detto di essere abbastanza sicuro che o1 sia piuttosto sicuro.

Microsoft ha dato a Copilot un grande impulso.

E un chatbot può curare la vostra fede nelle teorie cospirative.

Approfondiamo.

È abbastanza sicuro

Ci siamo lasciati prendere dall'entusiasmo per il rilascio dei modelli o1 da parte di OpenAI la scorsa settimana, finché non abbiamo letto le clausole. La scheda di sistema del modello offre un'interessante panoramica sui test di sicurezza condotti da OpenAI e i risultati potrebbero far sollevare qualche sopracciglio.

Si scopre che o1 è più intelligente ma anche più ingannevole, con un livello di pericolo "medio". secondo il sistema di valutazione di OpenAI.

Nonostante l'o1 sia stato molto subdolo durante i test, OpenAI e i suoi red team dicono di essere abbastanza sicuri di poterlo rilasciare. Non così sicuro se siete un programmatore in cerca di lavoro.

Aggiornamenti del copilota

Microsoft scatenato Copilot "Onda 2" che darà alla vostra produttività e alla produzione di contenuti un ulteriore impulso dell'intelligenza artificiale. Se eravate indecisi sull'utilità di Copilot, queste nuove funzioni potrebbero essere la chiave di volta.

La funzione Pagine e le nuove integrazioni con Excel sono davvero interessanti. Il modo in cui Copilot accede ai vostri dati solleva però alcune questioni di privacy.

Più fragole

Se tutto il recente parlare del progetto Strawberry di OpenAI vi ha fatto venire voglia di frutti di bosco, siete fortunati.

I ricercatori hanno sviluppato un sistema di intelligenza artificiale che promette di trasformare il modo di coltivare le fragole e altri prodotti agricoli.

Questa applicazione open-source potrebbe avere un impatto enorme sugli sprechi alimentari, sui raccolti e persino sul prezzo della frutta e della verdura fresca al supermercato.

Troppo facile

I modelli di intelligenza artificiale stanno diventando così intelligenti che i nostri parametri di riferimento per misurarli sono quasi obsoleti. Scale AI e CAIS hanno lanciato un progetto chiamato L'ultimo esame dell'umanità per risolvere il problema.

Vogliono che ci sottoponiate domande difficili che pensate possano mettere in crisi i principali modelli di IA. Se un'IA è in grado di rispondere a domande di livello dottorale, allora avremo un'idea di quanto siamo vicini a raggiungere sistemi di IA di livello esperto.

Se pensate di averne uno buono, potreste vincere una parte di $500.000. Dovrà essere molto difficile, però.

Fonte: X

Curare le cospirazioni

Mi piace una buona teoria della cospirazione, ma alcune cose a cui la gente crede sono semplicemente folli. Avete mai provato a convincere un terricolo piatto con semplici fatti e ragionamenti? Non funziona. Ma se lasciassimo fare a un chatbot AI?

I ricercatori hanno costruito un chatbot utilizzando il GPT-4 Turbo e hanno ottenuto risultati impressionanti in far cambiare idea alle persone sulle teorie del complotto in cui credevano.

Ciò solleva alcune domande scomode su quanto siano persuasivi i modelli di IA e su chi decida cosa sia la "verità".

Solo perché sei paranoico, non significa che non ti stiano cercando.

State tranquilli

Il congelamento criogenico del vostro corpo fa parte del vostro piano di riserva? Se è così, sarete felici di sapere che l'intelligenza artificiale sta rendendo questa folle idea un po' più plausibile.

Una società chiamata Select AI ha utilizzato L'intelligenza artificiale per accelerare la scoperta di composti crioprotettori. Questi composti impediscono alla materia organica di trasformarsi in cristalli durante il processo di congelamento.

Per ora, l'applicazione è quella di migliorare il trasporto e la conservazione del sangue o dei farmaci sensibili alla temperatura. Ma se l'intelligenza artificiale li aiuterà a trovare un crioprotettore davvero valido, la conservazione criogenica degli esseri umani potrebbe passare da un racket per fare soldi a un'opzione plausibile.

L'intelligenza artificiale sta contribuendo al settore medico in altri modi che potrebbero rendervi un po' nervosi. Una nuova ricerca mostra che un una quantità sorprendente di medici si rivolge a ChatGPT per ottenere aiuto nella diagnosi dei pazienti. È una buona cosa?

Se siete entusiasti di ciò che sta accadendo in medicina e state pensando di intraprendere la carriera di medico, forse dovreste ripensarci, secondo questo professore.

Altre notizie...

Ecco altre storie di AI degne di nota che ci sono piaciute questa settimana:

E questo è quanto.

Non è sorprendente che i modelli di IA come o1 presentino maggiori rischi man mano che diventano più intelligenti, ma la furtività durante i test era strana. Pensate che OpenAI si atterrà alle restrizioni del livello di sicurezza che si è autoimposto?

Il progetto Humanity's Last Exam ha aperto gli occhi. Gli esseri umani stanno lottando per trovare domande abbastanza difficili da risolvere per l'intelligenza artificiale. Cosa succederà dopo?

Se credete alle teorie cospiratorie, pensate che un chatbot AI possa farvi cambiare idea? Amazon Echo è sempre in ascolto, il governo usa la big tech per spiarci e Mark Zuckerberg è un robot. Dimostrate che mi sbaglio.

Fateci sapere cosa ne pensate, seguici su Xe inviateci i link alle cose interessanti sull'IA che potrebbero esserci sfuggite.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

Nessuna categoria trovata.
×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni