DeepMind-forskere har kombineret AI med en sofistikeret robot, der kan lære nye opgaver ud fra så få som 100 demonstrationer.
RoboCat, en banebrydende robot-AI agent, lærer nye opgaver fra så få som 100 demonstrationer og forbedrer sine færdigheder gennem selvgenererede data.
Trods sit navn er RoboCat en robotarm, der er designet til at udføre komplekse opgaver som at stable forskellige farvede blokke i en bestemt rækkefølge. Se DeepMinds demonstrationer nedenfor.
Robottens innovative, selvforbedrende træningscyklus repræsenterer et betydeligt gennembrud inden for robotteknologi.
RoboCat udnytter DeepMinds multimodale model Gatosom kan behandle sprog, billeder og handlinger på tværs af simulerede og fysiske miljøer.
Til RoboCats træning har forskerne samlet et massivt datasæt med billedsekvenser og handlingssæt fra forskellige robotarme, der udfører hundredvis af opgaver. Efter den indledende træning går RoboCat ind i en "selvforbedrende" cyklus, hvor den løser nye opgaver, som fører til yderligere forbedringer.
Cyklussen består af følgende trin:
- Indsamling af 100 til 1000 demonstrationer af en ny opgave demonstreret med en robotarm, der betjenes af et menneske.
- Finjustering af RoboCat på den nye opgave for at skabe en specialiseret agent.
- Den specialiserede agent øver sig derefter på den nye opgave eller arm omkring 10.000 gange, hvilket resulterer i generering af flere træningsdata.
- Både demonstrationen og de selvgenererede data indarbejdes derefter i RoboCats eksisterende datasæt.
- Til sidst trænes en opdateret version af RoboCat ved hjælp af det udvidede datasæt.
Denne proces med kontinuerlig træning og selvforbedring betyder, at RoboCats datasæt er usædvanligt mangfoldigt.
RoboCat tilpasser sig og lærer af sine opgaver
RoboCat har især vist sig at være tilpasningsdygtig og lærer hurtigt at betjene nye robotarme, nogle med andre konfigurationer end dem, den oprindeligt blev trænet på.
Selv om RoboCats træning i første omgang omfattede arme med tofingrede gribere, lykkedes det den at tilpasse sig en mere kompleks arm med en griber med tre fingre.
I et eksperiment lykkedes det RoboCat at manøvrere en ny arm til at samle små tandhjul op i 86% af tilfældene efter at have observeret 1000 menneskekontrollerede demonstrationer. Den tilpassede sig også til at løse komplekse opgaver, der kræver præcision og forståelse, som f.eks. at tage den rigtige frugt op af en skål og løse et form-matchende puslespil.
RoboCats evner når ikke et plateau - den bliver dygtigere og dygtigere, efterhånden som den lærer.
Den første version af RoboCat lykkedes med at udføre usete opgaver 36% af tiden efter at have lært af 500 demonstrationer pr. opgave, mens den endelige version mere end fordoblede sin succesrate til 74%.
RobotCat bringer os et skridt nærmere på at skabe alsidige robotter til alle formål. Hurtig indlæring, tilpasningsevne og selvforbedring er forudsætninger for at bygge intelligente robotter, der integreres i deres omgivelser.
RobotCats Gato-model er i øjeblikket begrænset til en arm, men sådanne AI'er vil i sidste ende kontrollere flere lemmer og fornemme og reagere på deres omgivelser.