En detaljeret undersøgelse foretaget af BBC-journalister har afsløret en alarmerende tendens med AI-genererede YouTube-videoer fyldt med falske "videnskabelige" oplysninger, der har til formål at vildlede unge seere.
BBC-teamet opdagede "mere end 50 kanaler på mere end 20 sprog, der spredte misinformation forklædt som STEM-indhold (videnskab, teknologi, ingeniørvidenskab og matematik)."
Disse kanaler specialiserer sig i pseudovidenskab, falsk information og konspirationsteorier lige fra påstande om elproducerende pyramider til benægtelse af menneskeskabte klimaforandringer og diskussioner om udenjordiske væsener.
Det viste sig, at YouTubes algoritmer anbefalede disse videoer til yngre seere.
AI har forenklet processen med at skabe YouTube-videoer ved hjælp af automatiserede metoder, hvilket har ført til bekymring for, at kvaliteten af indholdet på platformen er faldende.
AI's rolle i spredning af misinformation
Den BBC's analyse afslørede, at størstedelen af disse vildledende videoer havde brugt generative AI-programmer som ChatGPT og MidJourney til at producere tekst, billeder og fortællinger.
YouTuber og videnskabslærer Kyle Hill havde førstehåndserfaring med dette problem og sagde: "Skaberne ser ud til at have stjålet og manipuleret nøjagtigt indhold og derefter genudgivet dem."
Han kommenterede desuden: "Disse kanaler så ud til at have fundet det helt rigtige til at maksimere antallet af visninger med mindst mulig indsats."
BBC-teamet udførte et eksperiment for at forstå omfanget af børns eksponering for dette vildledende indhold.
De oprettede børnekonti på YouTube og fandt ud af, at disse AI-genererede "dårlig videnskab"-videoer faktisk blev anbefalet til disse konti.
Børn reagerer
Undersøgelsen målte også reaktionerne på videoerne ved at vise dem til to grupper af 10-12-årige.
En video fokuserede på ufo- og rumvæsenkonspirationer, mens en anden fejlagtigt hævdede, at pyramiderne i Giza blev brugt til elproduktion.
Et barn sagde: "Jeg nød at se den", "I begyndelsen var jeg ikke sikker på, at der findes rumvæsner, men nu tror jeg, at de gør."
Nogle opdagede det falske indhold: "Jeg syntes, det var ret sjovt, at de ikke engang brugte en menneskestemme, jeg troede ikke, det var et menneske," sagde et barn.
AI's interaktion med børn er blevet heftigt debatteret i de seneste uger, hvor 50 amerikanske statsanklagere... går sammen om at advare Kongressen om teknologiens farer for de yngre generationer tidligere på måneden.
I august blev World Economic Forum (WEF) advarede at der er en stor mangel på politik, der tager fat på AI's rolle i børns liv.
YouTubes svar
YouTube påpegede, at de anbefaler YouTube Kids til personer under 13 år, og hævder, at de har en "højere barre" for kvaliteten af de videoer, der kan vises.
De kommenterede dog ikke spørgsmål om reklameindtægterne fra disse vildledende videoer.
Claire Seeley, der er folkeskolelærer i Storbritannien, udtrykte sin bekymring for fremtiden.
"Vi har ikke en rigtig klar forståelse af, hvordan AI-genereret indhold virkelig påvirker børns forståelse. Som lærere prøver vi at indhente det forsømte for at få styr på det."
Professor Vicki Nash, direktør for Oxford Internet Institute, gav udtryk for etiske bekymringer: "Tanken om, at YouTube og Google tjener penge på reklamer, der vises sammen med pseudovidenskabelige nyheder, virker virkelig uetisk på mig."
Efterhånden som AI fortsætter med at udvikle sig, forventes udfordringerne med AI-genereret misinformation kun at eskalere, hvilket kræver en årvågen indsats fra både teknologivirksomheder, undervisere og forældre.
Mens regulering vil øge presset på sociale medieplatforme for at handle på AI-genereret indhold, er det en stor opgave, når det er notorisk svært at opdage sådant indhold i første omgang.