Due ex ricercatori di Google hanno fondato un nuovo intrigante laboratorio di ricerca sull'intelligenza artificiale per costruire insiemi di modelli di intelligenza artificiale più piccoli che lavorano insieme.
Il laboratorio di ricerca Sakana, che prende il nome dalla parola giapponese che significa "pesce", prevede la creazione di più modelli compatti di intelligenza artificiale che collaborano armoniosamente, in modo simile a come i sistemi naturali rispondono solo alle informazioni locali ma agiscono come parte di un insieme.
Ne sono un esempio i banchi di pesci, gli stormi di uccelli e gli sciami di insetti, che si muovono in modo indipendente ma coeso.
Il duo David Ha e Llion Jones ritiene che uno "sciame" di modelli possa ottenere risultati migliori rispetto all'approccio abituale che consiste nel riversare tutti gli sforzi di formazione dei modelli in un unico modello colossale.
Elaborando la filosofia, Ha ha commentato: "Le formiche si muovono e formano dinamicamente un ponte da sole, che potrebbe non essere il più forte, ma possono farlo subito e adattarsi agli ambienti".
Ha inoltre sottolineato: "Penso che questo tipo di adattamento sia uno dei concetti più potenti che vediamo negli algoritmi naturali".
Sia Ha che Jones sono considerati ricercatori di spicco nel campo, con Jones che è stato uno dei primi a proporre architetture di trasformatori nell'articolo del 2017 "L'attenzione è tutto ciò che serve."
In precedenza, Ha ha guidato la ricerca presso Stability AI e l'AI generativa presso Google Brain in Giappone.
Sebbene sia ancora in fase nascente, Sakana ha grandi progetti, con un ufficio a Tokyo in cantiere, come confermato da Ha. L'azienda mantiene il massimo riserbo sui suoi finanziamenti.
L'approccio di Sakana allo sviluppo dell'intelligenza artificiale si basa su alcune ricerche esistenti. Ha e un altro collega di Google, Yujin Tang, sono stati i pionieri di un approccio definito "Il neurone sensoriale come trasformatore", sostenendo il potere collaborativo di diversi modelli di IA rispetto a un modello unico e massiccio.
L'interesse per l'intelligenza artificiale bio-ispirata è in aumento, in quanto i ricercatori iniziano a capire come i sistemi biologici riescano a sostenere capacità incredibili con una bassa richiesta di energia.
I cervelli biologici utilizzano una frazione minima della potenza richiesta dai modelli leggeri di intelligenza artificiale. IBM ha recentemente presentato un chip GPU analogico ispirato al cervello in grado di garantire prestazioni elevate a bassa potenza.
Jones ha osservato: "Il cervello umano funziona ancora meglio della nostra migliore IA", continuando: "Quindi, chiaramente, il cervello umano sta facendo qualcosa di giusto che noi non abbiamo ancora capito".
Lasciare i grandi team di ricerca tecnologica per creare startup innovative è una strada ben percorsa e Jones ha commentato candidamente la sua esperienza fuori da Google: "Purtroppo è vero che ho molta più velocità fuori da Google". In merito alla proposta di Ha di creare una startup, il signor Ha ha affermato: "Mi è sembrato molto sensato".