World Economic Forum (WEF) har lyft fram ett akut behov av svar på hur generativ AI påverkar barn i syfte att utveckla policy och reglering.
Dagens teknik går snabbt, och barn och tonåringar är ofta bättre på att utforska den än vuxna.
Undersökningar visar att medan endast 30% av föräldrarna har använt AI-verktyg som ChatGPT, 58% av barn i åldern 12-18 år har gjort det och dolt det för föräldrar och lärare.
Plattformar som är populära bland barn, till exempel Snapchat, har integrerat AI-chattbottar som är lätta att komma åt och använda.
Andra stora teknikföretag planerar liknande integrationer, vilket tyder på att generativ AI snabbt kan bli en viktig del av barns digitala miljö. Det kommer att bli oerhört svårt för vuxna att kontrollera barns användning av generativ AI.
Den WEF noterar att generativ AI erbjuder potentiella fördelar för barn, såsom hjälp med läxor, personliga inlärningsupplevelser och främjande av kreativitet. För barn med funktionsnedsättningar erbjuder AI dessutom unika sätt att lära sig och interagera.
Trots sina fördelar innebär generativ AI dock risker som oavsiktligt kan skada barn. AI kan till exempel skapa textbaserad desinformation som är mer övertygande än innehåll som genererats av människor och djupa falska bilder är nu omöjliga att skilja från riktiga.
Pedofiler använder redan AI för att skapa bilder av övergrepp mot barnoch tjänster som Replika har redan kritiserats av barnskyddsgrupper för sina sexuellt suggestiva beteenden. Replika är en sofistikerad chatbot som är utformad för att vara en digital vän eller följeslagare och har en åldersgräns på 18+, även om det finns bevis för att användarna inte alltid följer den.
Långsiktig användning av generativ AI väcker frågor om barns utveckling, potentiella fördomar, integritet, dataskydd och kommersiell användning av barns data.
Och så har vi den obetydliga frågan om betydande Störningar i utbildningssystemen. och den framtida arbetsmarknaden.
Kan vi lita på att utbildningsinstitutionerna ger barnen den utbildning de behöver för att trivas i en värld där AI finns inbyggt i nästan alla processer? Och om utbildningen övergår till AI, vad offrar den då i processen?
Can vi förtroende AI som en primär informationskälla?
Behovet av politiska åtgärder
WEF understryker att de omfattande potentiella effekterna av AI på barn kräver omedelbara åtgärder från beslutsfattare, teknikföretag, tillsynsmyndigheter och andra intressenter.
Medan AI-regleringen innehåller bestämmelser för att kontrollera djupa förfalskningar och desinformation, finns det mycket lite som anger hur barn och yngre individer ska interagera med tekniken, vare sig det är hemma eller i utbildningsmiljöer.
Dessutom är det exceptionellt svårt att samla in evidensbaserad forskning om detta på kort tid.
Befintliga resurser, till exempel UNICEF:s riktlinjer för AI för barnger viss vägledning, men AI kommer snabbt att växa ifrån dem.
De som arbetar för att skydda barn måste stödja forskning om generativ AI:s effekter och förespråka barns rättigheter. Det måste finnas större öppenhet, ansvarsfull utveckling från AI-leverantörer och stöd för globala insatser för att reglera AI.
AI-utvecklare bör beakta riskerna med att deras teknik används av barn och eventuellt utveckla metoder för att upptäcka när ett barn använder ett verktyg.
Eftersom barn idag växer upp med nästan konstant exponering för AI är behovet av omfattande policyer och regelverk som är skräddarsydda för denna nya teknik mer angeläget än någonsin.