Benvenuti alla carrellata di notizie sull'AI artigianale triplamente distillata di questa settimana.
Questa settimana, le aziende che raccolgono gratuitamente i vostri dati hanno denunciato che altri li stanno rubando.
Big Tech sta realizzando i propri chip AI per competere con NVIDIA.
E un gran numero di nuovi modelli di AI sta andando a ruba.
Approfondiamo.
Giochi di fame di dati sull'intelligenza artificiale
L'insaziabile fame di dati dell'IA continua, mentre le aziende si affannano a cercare testi, audio e video per addestrare i loro modelli.
È un segreto aperto che OpenAI ha quasi certamente fatto incetta di contenuti video di YouTube per addestrare il suo modello text-to-video Sora. Il CEO di YouTube Neal Mohan ha avvertito OpenAI che potrebbe aver violato i suoi termini di servizio. Beh, boohoo. Hai visto quanto è figo Sora?
Bisogna pensare che Google deve aver tagliato qualche angolo etico per addestrare i suoi modelli. Il fatto che YouTube gridi allo scandalo per i "diritti e le aspettative" dei creatori di video sulla sua piattaforma è un po' eccessivo.
Uno sguardo più attento a La lotta delle Big Tech sui dati di addestramento dell'IA rivela come Google abbia modificato le politiche sulla privacy di Google Docs per utilizzare i vostri dati. Nel frattempo, OpenAI e Meta continuano a spingersi oltre i confini legali ed etici alla ricerca di ulteriori dati di addestramento.
Non so da dove provengano i dati per il nuovo generatore di musica AI Udio, ma la gente lo ha sollecitato con alcune idee interessanti. Questa è la prova che l'IA dovrebbe essere regolamentata.
Questo è selvaggio.
Udio è appena uscito ed è come Sora per la musica.
La musica è di qualità pazzesca, 100% AI. 🤯
1. "Dune il musical di Broadway" pic.twitter.com/hzt7j32jIV
- Min Choi (@minchoi) 10 aprile 2024
Patatine fritte
Tutti questi dati controversi devono essere elaborati e l'hardware NVIDIA sta facendo la maggior parte di queste operazioni. Sam ci illustra La storia di NVIDIA da stracci a ricchezze dal 1993 (quando avreste dovuto acquistare azioni) a oggi (quando sareste diventati ricchi) ed è affascinante.
Mentre le aziende continuano a fare la fila per acquistare chip NVIDIA appena sfornati, Big Tech sta cercando di disintossicarsi dai suoi chip.
Intel e Google hanno presentato nuovi chip AI per competere con NVIDIA, anche se continueranno ad acquistare l'hardware Blackwell di NVIDIA.
Rilasciate i modelli!
È pazzesco che poco più di un anno fa OpenAI fosse l'unico modello a ricevere una vera attenzione. Ora c'è un flusso costante di nuovi modelli provenienti dalle solite Big Tech e dalle startup più piccole.
Questa settimana abbiamo visto tre modelli di AI rilasciati in 24 ore. Gemini Pro 1.5 di Google ha ora una finestra di contesto da 1M di token. Un grande contesto è fantastico, ma il suo richiamo sarà buono come quello di Claude 3?
Ci sono stati sviluppi interessanti con OpenAI che ha permesso l'accesso API al GPT-4 con la visione, e Mistral ha appena regalato un altro potente modello più piccolo.
Il politico diventato dirigente di Meta Nick Clegg ha parlato a L'evento Meta sull'AI a Londra per sostenere l'IA open-source. Clegg ha anche detto che Meta si aspetta che Llama 3 venga lanciato molto presto.
Durante le discussioni sulla disinformazione dell'IA, ha bizzarramente minimizzato il ruolo dell'IA nei tentativi di influenzare le recenti elezioni principali.
Ma questo tizio legge almeno le notizie che riportiamo qui su Daily AI?
Quali problemi di sicurezza?
Geoffrey Hinton, considerato il padrino dell'IA, era così preoccupato per la sicurezza dell'IA che ha lasciato Google. Yann LeCun di Meta dice che non c'è nulla di cui preoccuparsi. Allora, qual è il problema?
Uno studio della Georgetown University ha rilevato che solo il 2% della ricerca sull'IA si concentra sulla sicurezza. È perché non c'è nulla di cui preoccuparsi? O dovremmo preoccuparci del fatto che i ricercatori si concentrano sulla creazione di un'intelligenza artificiale più potente, senza pensare a renderla sicura?
"Muoversi velocemente e rompere le cose" dovrebbe essere ancora il grido di battaglia degli sviluppatori di IA?
La traiettoria dello sviluppo dell'intelligenza artificiale è stata esponenziale. In un'intervista rilasciata questa settimana, Elon Musk ha dichiarato di aspettarsi che L'intelligenza artificiale potrebbe essere più intelligente dell'uomo entro la fine del 2025.
L'esperto di intelligenza artificiale Gary Marcus non è d'accordo ed è disposto a scommettere su questo.
Caro @elonmusk,
$1 milioni di persone dicono che la vostra ultima previsione, secondo la quale l'intelligenza artificiale sarà più intelligente di ogni singolo essere umano entro la fine del 2025, è sbagliata.
Gioco? Posso suggerire alcune regole da approvare.
Auguri,
GaryP.S. Si noti che per alcuni aspetti (ma non per tutti) i computer sono stati...
- Gary Marcus (@GaryMarcus) 9 aprile 2024
xAI sta affrontando lo stesso problema di carenza di chip NVIDIA che affligge molti altri. Musk afferma che i 20.000 NVIDIA H100 di cui dispone l'azienda completeranno la formazione di Grok 2 entro maggio.
Indovinate quante GPU ha dichiarato che serviranno per addestrare Grok 3.
Voci antropiche in avanti
Anthropic afferma di sviluppare sistemi di IA su larga scala per poter "studiare le loro proprietà di sicurezza alla frontiera tecnologica".
Il Claude 3 Opus dell'azienda è certamente alla frontiera. Un nuovo studio dimostra che il modello fa fuori il resto della concorrenza nel riassumere i contenuti di un libro. Tuttavia, i risultati mostrano che gli esseri umani sono ancora in vantaggio per alcuni aspetti.
Gli ultimi test di Anthropic mostrano che I laureati in Lettere e Filosofia sono diventati eccezionalmente persuasivi.Claude 3 Opus genera argomenti altrettanto persuasivi di quelli creati dagli esseri umani.
Le persone che minimizzano i rischi per la sicurezza dell'IA spesso affermano che si potrebbe semplicemente staccare la spina se un'IA diventasse un'anomalia. E se l'IA fosse così persuasiva da convincervi a non farlo?
La grande pretesa di Claude 3 è la sua enorme finestra di contesto. Anthropic ha pubblicato uno studio che dimostra che le LLM a contesto ampio sono vulnerabile a una tecnica di jailbreak "a più colpi".. È super semplice da implementare e ammettono di non sapere come risolverlo.
Altre notizie...
Ecco altre storie di AI degne di nota che ci sono piaciute questa settimana:
- Il virtuale Vertice AI per il successo dei clienti 2024 prende il via.
- Falsi studi legali di intelligenza artificiale stanno inviando minacce DMCA per generare guadagni SEO.
- Stability rilascia la sua versione leggera e multilingue Stabile LM 2 12B LLM con risultati di benchmark impressionanti.
- I ricercatori Microsoft propongono "Suggerimento "visualizzazione del pensiero per consentire ai LLM di utilizzare il ragionamento spaziale.
- L'intelligenza artificiale potrebbe essere per l'economia come l'elettricità, afferma il CEO di JPMorgan Chase, Jamie Dimon.
- Un Un jet da combattimento gestito dall'intelligenza artificiale piloterà il Segretario dell'Aeronautica Militare in un test dei futuri aerei da guerra drone dell'esercito americano.
- La velocità di Lo sviluppo dell'IA sta superando la valutazione del rischio.
- Meta ha annunciato la sua nuova generazione del chip Meta Training and Inference Accelerator (MTIA).
E questo è quanto.
Vi interessa che OpenAI, e probabilmente altri, abbiano usato i vostri contenuti di YouTube per addestrare la loro IA? Se Altman rilasciasse Sora gratuitamente, credo che tutto sarebbe perdonato. Google potrebbe non essere d'accordo.
Pensate che Musk sia troppo ottimista con le sue previsioni sull'intelligenza artificiale? Spero che abbia ragione, ma sono un po' preoccupato per il fatto che solo 2% di ricerca sull'IA siano destinati alla sicurezza.
È assurda la quantità di modelli di AI che stiamo vedendo ora? Qual è il tuo preferito? Io mi tengo stretto il mio account ChatGPT Plus e spero nel GPT-5. Ma Claude Pro sembra molto allettante.
Fateci sapere quale articolo si è distinto per voi e continuate a inviarci i link di tutte le storie di AI che ci sono sfuggite.