Onderzoekers van de New York University bouwen AI die door de ogen van een kind kijkt

2 februari 2024

Kinderogen AI

Onderzoekers van de New York University lieten zich inspireren door het leerproces van kinderen om een AI-systeem te trainen. 

De methode, beschreven in de Tijdschrift WetenschapHiermee kan AI leren van zijn omgeving zonder sterk te vertrouwen op gelabelde gegevens, wat de sleutel is tot het ontwerp van de studie.

Het weerspiegelt hoe kinderen leren door grote hoeveelheden informatie uit hun omgeving op te nemen, waardoor ze de wereld om hen heen geleidelijk begrijpen.

Het team creëerde een dataset van 60 uur aan eerste-persoons video-opnames van een hoofdcamera gedragen door kinderen in de leeftijd van zes maanden tot twee jaar om het perspectief van een kind na te bootsen in hun AI-model. 

Onderzoekers trainden vervolgens een AI-model voor zelf-ondersteund leren (SSL) met behulp van de videodataset om te zien of AI het concept van acties en veranderingen kon begrijpen door temporele of tijdgerelateerde informatie in de video's te analyseren zoals kinderen dat doen.

SSL-benaderingen stellen AI-modellen in staat om patronen en structuren in de gegevens te leren zonder expliciete labels.

Auteur van de studie Emri Orhan, schrijft in zijn onderzoeksblogheeft eerder gepleit voor een grotere focus op SSL in AI-onderzoek, wat volgens hem cruciaal is voor het begrijpen van complexe leerprocessen. 

Orhan schreef: "Er wordt vaak gezegd dat kinderen de betekenis van woorden heel efficiënt leren. Er wordt bijvoorbeeld beweerd dat kinderen in hun tweede jaar gemiddeld een paar woorden per dag leren. Dit suggereert dat ze waarschijnlijk in staat zijn om het grootste deel van hun woorden te leren van slechts een handvol blootstellingen (misschien vaak van slechts één enkele blootstelling), een fenomeen dat ook bekend staat als fast mapping."

Het onderzoek richtte zich ook op de vraag of AI ingebouwde vooroordelen of 'shortcuts' nodig heeft om effectief te leren of dat het een begrip van de wereld kan ontwikkelen door middel van algemene leeralgoritmen, net zoals een kind dat doet. 

De resultaten waren intrigerend. Ondanks het feit dat de video slechts ongeveer 1% van de wakkere uren van het kind besloeg, kon het AI-systeem een groot aantal woorden en concepten leren, wat de efficiëntie van leren uit beperkte maar gerichte gegevens aantoont.

De resultaten omvatten:

  • Prestaties actieherkenning: De AI-modellen getraind op de SAYCam dataset waren zeer effectief in het herkennen van acties uit video's. Toen de modellen werden getest op fijnkorrelige actieherkenningstaken zoals Kinetics-700 en Something-Something-V2 (SSV2), lieten ze indrukwekkende prestaties zien, zelfs met slechts een klein aantal gelabelde voorbeelden voor training.
  • Vergelijking met Kinetics-700-gegevensreeks: De met SAYCam getrainde modellen werden vergeleken met modellen die waren getraind op Kinetics-700, een diverse dataset van korte YouTube-clips. Opmerkelijk genoeg presteerden de SAYCam-modellen concurrerend, wat suggereert dat de kindgerichte, ontwikkelingsrealistische videodata de AI een rijke leeromgeving boden, vergelijkbaar met of zelfs beter dan de gevarieerde content op YouTube.
  • Video-interpolatievaardigheid: Een interessante uitkomst was het vermogen van de modellen om video-interpolatie uit te voeren - het voorspellen van ontbrekende segmenten binnen een videosequentie. Dit toont aan dat ze de tijdsdynamiek en continuïteit in visuele scènes begrijpen, wat overeenkomt met de manier waarop mensen acties waarnemen en voorspellen.
  • Robuuste objectrepresentaties: Het onderzoek toonde ook aan dat video getrainde modellen robuustere objectrepresentaties ontwikkelden dan modellen die getraind waren op statische beelden. Dit bleek duidelijk bij taken waarbij objecten onder verschillende omstandigheden herkend moesten worden, wat de waarde van temporele informatie bij het leren van meer veerkrachtige en veelzijdige modellen benadrukt.
  • Dataschaling en modelprestaties: Het onderzoek onderzocht hoe de prestaties van de modellen verbeterden met meer videogegevens van de SAYCam dataset. Dit suggereert dat toegang tot uitgebreidere, realistische gegevens de prestaties van de modellen zal verbeteren.

Wai Keen Vong, een onderzoekswetenschapper bij NYU's Center for Data Science, bespraken de nieuwigheid van deze aanpaken stelt: "We laten voor het eerst zien dat een neuraal netwerk dat getraind is op deze ontwikkelingsrealistische input van een enkel kind kan leren om woorden te koppelen aan hun visuele tegenhangers." 

Vong ging in op de problemen waar moderne generatieve AI-modellen mee te maken hebben en zei: "De huidige geavanceerde AI-systemen worden getraind met astronomische hoeveelheden gegevens (vaak miljarden/triljoenen woorden) en toch slagen mensen erin om taal te leren en te gebruiken met veel minder gegevens (honderden miljoenen woorden), dus het verband tussen deze vooruitgang in machinaal leren en menselijke taalverwerving is niet duidelijk."

De belangstelling voor nieuwe, 'lichtgewicht' methoden voor machinaal leren neemt toe. Enerzijds zijn kolossale monolithische modellen zoals GPT-3 en GPT-4 hebben immense machtseisen die niet gemakkelijk te vervullen zijn. 

Ten tweede, het creëren van bio-geïnspireerde AI-systemen is de sleutel tot het ontwerpen van modellen of robots die authentiek 'denken' en 'zich gedragen' zoals wij.

Vong erkende ook de beperkingen van het onderzoek en merkte op: "Een voorbehoud is dat de taalinvoer voor het model tekst is en niet het onderliggende spraaksignaal dat kinderen ontvangen."

Dit onderzoek daagde traditionele AI-trainingsmodellen uit en droeg bij aan de voortdurende discussie over de meest effectieve manieren om biologisch leren na te bootsen.

De interesse in dit onderwerp zal groeien naarmate kolossale AI-modellen beperkingen voor de toekomst beginnen te vertonen. 

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden