AI zou een zegen kunnen zijn voor overbelaste leraren en hen kunnen helpen met taken als het maken van quizzen en het geven van feedback.
Volgens AQA, een van de toonaangevende examencommissies in het Verenigd Koninkrijk, vereist de technologie echter streng menselijk toezicht.
De organisatie heeft onlangs haar bevindingen gedeeld met de Britse overheid om bij te dragen aan een bredere raadpleging over het gebruik van AI in de onderwijssector.
Onderzoekers van AQA hebben proeven gedaan met verschillende AI-tools, zoals ChatGPT, GPT4, LLaMA en Alpaca, in een assortiment van wetenschappelijke papers.
"Als AI de werkdruk kan verlagen door te helpen met het plannen en beoordelen van lessen, dan zullen de slimste mensen eerder geneigd zijn om leraar te worden en te blijven", zegt Alex Scharaschkin, AQA's uitvoerend directeur van beoordelingsonderzoek en innovatie.
Uit de tests bleek dat AI het maken van aangepaste toetsen over specifieke onderwerpen kon vergemakkelijken, automatisch cijfers kon geven voor de antwoorden van leerlingen, onmiddellijke feedback kon geven en generate curriculum samenvattingen.
De voordelen van AI in het onderwijs zijn onmiskenbaar, maar studenten beseffen dat ook en onderwijsinstellingen zijn het middelpunt geworden van een bitter debat over of, hoe en wanneer AI in de sector moet worden geïntegreerd.
De impact van AI op het onderwijs staat ter discussie
AI's rol in het onderwijs staat nog in de kinderschoenen en de bezorgdheid over de beperkingen en risico's ervan kan onmogelijk terzijde worden geschoven.
Als studenten op AI gaan vertrouwen, kunnen ze niet alleen gemakkelijk topscores halen, maar kan dit ook gevolgen hebben voor het weefsel van de menselijke kennis.
In plaats van dat kennis wordt verspreid door talloze geloofssystemen en socioculturele lenzen, zou het sterk gecentraliseerd kunnen worden en in wezen gecontroleerd door een eindige hoeveelheid trainingsgegevens.
Leerkrachten worstelen ook met het risico van AI-gegenereerde inhoud, omdat chatbots al uitstekend AI-detectors kunnen omzeilen.
Om de wond te verergeren, wordt het gebruik van AI-detectoren steeds controversiëler tot het punt dat het gebruik ervan een groter risico vormt dan niet - aangezien het risico van het aantal fout-positieven is zo hoog.
Bovendien toont onderzoek aan dat AI-modellen al hun eigen output opnemenHierdoor ontstaat een 'feedbackloop', wat betekent dat er slechts beperkte nieuwe informatie in het systeem wordt gebracht.
AQA waarschuwde in een recente blogpost"Er bestaat een kans dat de AI-systemen gewoon populaire mythes in stand houden, omdat ze geen context uit de echte wereld hebben om uit te putten, behalve 'waar veel over gepraat wordt op het internet'." Dit is een treffende observatie, aangezien grote taalmodellen (LLM's) zoals ChatGPT afhankelijk zijn van hedendaagse internetcontent om te functioneren.
Over AI-gerelateerde vooroordelen schrijft AQA: "In termen van vooroordelen zou een AI-systeem sommige groepen mensen gunstiger kunnen behandelen of discrimineren op basis van kenmerken zoals geslacht, etniciteit of religieuze overtuiging." Recent bewijs geeft aan dat chatbots naast deze andere vormen van vooringenomenheid ook politieke vooringenomenheid vertonen.
En hoe zit het met kinderen die opgroeien te midden van de storm van generatieve AI?
Het World Economic Forum (WEF) heeft onlangs gemarkeerd een duidelijk gebrek aan beleid rondom de interactie van AI met kinderen, vooral nu apps zoals Snapchat chatbots toevoegen aan hun diensten.
Op dit moment is de rol van AI in het onderwijs een echt raadsel met veel vragen en weinig antwoorden.