En detaljert undersøkelse utført av BBC-journalister har avdekket en alarmerende trend med AI-genererte YouTube-videoer fylt med falsk "vitenskapelig" informasjon som har som mål å villede unge seere.
BBC-teamet oppdaget "mer enn 50 kanaler på mer enn 20 språk som sprer desinformasjon forkledd som STEM-innhold (Science, Technology, Engineering, Maths)".
Disse kanalene spesialiserer seg på pseudovitenskap, falsk informasjon og konspirasjonsteorier om alt fra påstander om elektrisitetsproduserende pyramider til fornektelse av menneskeskapte klimaendringer og diskusjoner om utenomjordiske vesener.
YouTubes algoritmer viste seg å anbefale disse videoene til yngre seere.
AI har forenklet prosessen med å lage YouTube-videoer ved hjelp av automatiserte metoder, noe som har ført til bekymring for at kvaliteten på innholdet på plattformen synker.
AIs rolle i spredning av desinformasjon
Den BBCs analyse avslørte at de fleste av disse villedende videoene hadde brukt generative AI-programmer, som ChatGPT og MidJourney, til å produsere tekst, bilder og fortellinger.
YouTuberen og vitenskapspedagogen Kyle Hill hadde førstehåndserfaring med dette problemet, og uttalte: "Det ser ut til at skaperne har stjålet og manipulert nøyaktig innhold og deretter publisert det på nytt."
Han kommenterte videre: "Disse kanalene så ut til å ha funnet akkurat det rette for å maksimere antall visninger med minst mulig innsats."
BBC-teamet gjennomførte et eksperiment for å forstå omfanget av barns eksponering for dette villedende innholdet.
De opprettet barnekontoer på YouTube og fant ut at disse AI-genererte "dårlig vitenskap"-videoene faktisk ble anbefalt til disse kontoene.
Barn reagerer
Undersøkelsen målte også reaksjonene på videoene ved å vise dem til to grupper av 10-12-åringer.
En video fokuserte på UFO- og romvesenkonspirasjoner, mens en annen feilaktig hevdet at pyramidene i Giza ble brukt til elektrisitetsproduksjon.
Et barn sa: "Jeg likte å se den", "I begynnelsen var jeg ikke sikker på at romvesener finnes, men nå tror jeg at de gjør det."
Noen oppdaget det falske innholdet: "Jeg syntes det var ganske morsomt at de ikke engang brukte en menneskestemme, jeg trodde ikke det var et menneske", sa et barn.
AIs interaksjon med barn har vært heftig debattert de siste ukene, med 50 amerikanske statsadvokater går sammen for å advare Kongressen om farene teknologien utgjør for yngre generasjoner tidligere denne måneden.
I august ble World Economic Forum (WEF) advarte at det er en stor mangel på politikk som tar for seg AIs rolle i barns liv.
YouTubes svar
YouTube påpekte at de anbefaler YouTube Kids for de under 13 år, og hevdet at de har en "høyere standard" for kvaliteten på videoene som kan vises.
De kommenterte imidlertid ikke spørsmål om reklameinntektene som ble generert fra disse villedende videoene.
Claire Seeley, en grunnskolelærer i Storbritannia, uttrykte sin bekymring for fremtiden.
"Vi har ikke en helt klar forståelse av hvordan AI-generert innhold egentlig påvirker barns forståelse. Som lærere prøver vi å ta igjen det tapte for å få grep om dette."
Professor Vicki Nash, direktør ved Oxford Internet Institute, uttrykte etisk bekymring: "Tanken på at YouTube og Google tjener penger på annonser som vises sammen med pseudovitenskapelige nyheter, virker veldig uetisk i mine øyne."
Etter hvert som AI fortsetter å utvikle seg, forventes det at utfordringene knyttet til AI-generert desinformasjon bare vil eskalere, noe som krever årvåkne tiltak fra både teknologiselskaper, lærere og foreldre.
Selv om regulering vil øke presset på sosiale medieplattformer for å reagere på AI-generert innhold, er det en stor oppgave når det er notorisk vanskelig å oppdage slikt innhold i utgangspunktet.