Dit jaar heeft het gebruik van generatieve AI-tools in academische omgevingen een fel debat op gang gebracht. Er zijn weinig of geen antwoorden.
Is AI een academische onderzoeksassistent? Is het een hulpmiddel voor plagiaat? Hoe zit het met verkeerde informatie en hallucinaties? Wanneer is AI-ondersteund werk toegestaan en wanneer is het valsspelen?
Het probleem is dat niemand het weet en dat de meningen van verschillende bevolkingsgroepen lijken te verschillen.
Een recent onderzoek onder 154 studenten en 89 academici aan Australische universiteiten liet een significante toename zien in het gebruik van AI onder studenten, waarbij velen duidelijkheid zochten over wat spieken is.
Jemma Skeat, Deakin University's Director of Speech Pathology, geeft de bezorgdheid van de studenten weer: "Ze willen de details weten... Hoe kan ik het gebruiken voor deze opdracht? Wat is valsspelen? Wat niet? En waar ligt de grens?"
Ze benadrukt de dubbelzinnigheid in het huidige academische beleid: "Het is niet erg duidelijk... Het is niet zwart-wit wat spieken is."
Het onderzoek laat zien dat universiteiten verdeeld zijn over het detecteren van AI-gebruik in opdrachten. Het bevestigt eerdere enquêtes en onderzoekSommige laten een duidelijke kloof zien in hoe opvoeders AI zien ten opzichte van studenten.
Zoals je wel kunt raden, zijn studenten er helemaal voor - zij lopen tenslotte voorop als het gaat om technologische trends. Docenten zijn er echter niet zo gerust op.
Skeat legt uit: "Veel universiteiten hebben specifieke software in gebruik genomen die gericht is op het detecteren van generatieve AI in schriftelijke opdrachten en sommige universiteiten hebben dat niet gedaan omdat ze het gevoel hebben dat het aantal fout-positieven, dus studenten die worden gedetecteerd als spieken terwijl ze eigenlijk niet hebben gespiekt, te hoog is."
Overmatig gebruik van AI riskeert menselijke verzwakking, maar is dat niet onvermijdelijk?
Andreas Gwyther-Gouriotis, een pas afgestudeerde computerwetenschapper, besprak het potentieel van AI om studenten te helpen, vooral in de lagere klassen: "Mensen die niet echt weten hoe ze moeten programmeren, kunnen voor die (lagere) klassen slagen door gewoon aan ChatGPT te vragen hoe ze die typische programmeerproblemen moeten oplossen die ze op lagere niveaus onderwijzen."
Hij heeft ook opmerkingen over de onduidelijke regels: "De regels zijn een beetje vaag." Er is ook een grote bezorgdheid dat AI een impact zal hebben op de toch al slinkende aandachtsspanne van mensen.
Giampaolo Viglia van het Departement Economie en Politieke Wetenschappen, Universiteit van Aostadal, Italië, betoogde, "De komst van ChatGPT vormt - als het op een dwangmatige manier wordt gebruikt - een bedreiging voor zowel leerlingen als leraren. Voor studenten, die al last hebben van een lagere aandachtsspanne en een significante vermindering in het lezen van boeken, bestaat het risico dat ze in een lethargische modus terechtkomen."
De bredere impact hiervan wordt 'enfeeblement' genoemd, waarbij de fysieke en mentale vermogens van mensen afnemen naarmate we AI kiezen om ons werk te doen - een mogelijke toekomst die briljant wordt samengevat in de film WALL-E.
Dit debat roept zorgen op over gelijke toegang tot AI-tools, omdat de vrees bestaat dat dergelijke technologieën betaalde diensten worden, waardoor studenten met een lagere sociaaleconomische achtergrond worden benadeeld. GPT Plus met GPT-4 biedt studenten bijvoorbeeld enorme voordelen ten opzichte van studenten die de gratis versie gebruiken.
Een andere complicatie zijn fout-positieven. Zelfs als docenten het gevoel hebben dat inhoud door AI is geschreven, is dat moeilijk te bewijzen, omdat veel AI-detectors een onacceptabel vals-positief percentage laten zien. Sommige universiteiten, scholen en hogescholen zijn gestopt met ze te gebruiken om deze reden.
Nu AI-tools zoals ChatGPT steeds meer geïntegreerd worden in het onderwijslandschap, is er dringend behoefte aan duidelijk beleid en richtlijnen om ethisch gebruik te waarborgen.