En detaljerad undersökning av BBC-journalister har avslöjat en alarmerande trend med AI-genererade YouTube-videor fyllda med falsk "vetenskaplig" information som syftar till att vilseleda unga tittare.
BBC:s team upptäckte "mer än 50 kanaler på mer än 20 språk som spred desinformation förklädd till STEM-innehåll (vetenskap, teknik, ingenjörsvetenskap och matematik)".
Dessa kanaler specialiserar sig på pseudovetenskap, falsk information och konspirationsteorier som sträcker sig från påståenden om elproducerande pyramider till förnekande av klimatförändringar orsakade av människan och diskussioner om utomjordiska varelser.
Det visade sig att YouTubes algoritmer rekommenderade dessa videor till yngre tittare.
AI har förenklat processen för att skapa YouTube-videor med hjälp av automatiserade metoder, vilket har lett till oro för att kvaliteten på innehållet på plattformen sjunker.
AI:s roll i spridningen av desinformation
Den BBC:s analys avslöjade att majoriteten av dessa vilseledande videor hade använt generativa AI-program, som ChatGPT och MidJourney, för att producera text, bilder och berättelser.
YouTubern och vetenskapspedagogen Kyle Hill hade förstahandserfarenhet av det här problemet och sa: "Skaparna verkar ha stulit och manipulerat korrekt innehåll och sedan publicerat dem igen."
Han kommenterade vidare: "De här kanalerna verkade ha hittat exakt rätt sak för att maximera antalet visningar med minsta möjliga ansträngning."
BBC:s team genomförde ett experiment för att förstå i vilken utsträckning barn exponeras för detta vilseledande innehåll.
De skapade barnkonton på YouTube och upptäckte att dessa AI-genererade "dålig vetenskap"-videor verkligen rekommenderades till dessa konton.
Barn reagerar
I undersökningen mättes också reaktionerna på filmerna genom att de visades för två grupper av 10-12-åringar.
En video fokuserade på UFO- och utomjordiska konspirationer, medan en annan falskeligen hävdade att pyramiderna i Giza användes för elproduktion.
Ett barn sa: "Jag tyckte om att titta på den", "I början var jag inte säker på att utomjordingar fanns, men nu tror jag att de gör det."
Vissa upptäckte det falska innehållet; "Jag tyckte det var ganska roligt att de inte ens använde en mänsklig röst, jag trodde inte att det var mänskligt", sa ett barn.
AI:s interaktion med barn har debatterats flitigt de senaste veckorna, och 50 åklagare i amerikanska delstater går samman för att varna kongressen om teknikens faror för yngre generationer tidigare denna månad.
I augusti fick Världsekonomiskt forum (WEF) varnade att det råder stor brist på policyer som tar upp AI:s roll i barns liv.
YouTubes svar
YouTube påpekade att det rekommenderar YouTube Kids för personer under 13 år och hävdar att det har en "högre barriär" för kvaliteten på videor som kan visas.
De kommenterade dock inte frågor om de reklamintäkter som genereras av dessa vilseledande videor.
Claire Seeley, en grundskollärare i Storbritannien, uttryckte sin oro för framtiden.
"Vi har ingen riktigt tydlig förståelse för hur AI-genererat innehåll verkligen påverkar barns förståelse. Som lärare måste vi försöka komma ikapp för att få grepp om det här."
Professor Vicki Nash, chef för Oxford Internet Institute, uttryckte etiska farhågor: "Tanken att YouTube och Google tjänar pengar på att annonser visas med pseudovetenskapliga nyheter verkar verkligen oetiskt för mig."
I takt med att AI fortsätter att utvecklas förväntas utmaningarna med AI-genererad desinformation bara öka, vilket kräver vaksamma åtgärder från både teknikföretag, lärare och föräldrar.
Även om regleringen kommer att öka trycket på sociala medieplattformar att agera på AI-genererat innehåll, är det en stor uppgift när det är notoriskt svårt att upptäcka sådant innehåll i första hand.