Kunstig intelligens kan være en velsignelse for overbelastede lærere, som kan få hjelp med alt fra å lage spørrekonkurranser til å gi tilbakemeldinger.
Ifølge AQA, en av Storbritannias ledende eksamenskommisjoner, krever imidlertid teknologien streng menneskelig overvåking.
Organisasjonen delte nylig sine funn med britiske myndigheter for å bidra til en bredere konsultasjon om bruk av kunstig intelligens i utdanningssektoren.
AQA-forskere gjennomførte forsøk med ulike AI-verktøy, som ChatGPT, GPT4, LLaMA og Alpaca, på tvers av et utvalg av vitenskapelige artikler.
"Hvis kunstig intelligens kan redusere arbeidsmengden ved å hjelpe til med timeplanlegging og karaktersetting, vil det være mer sannsynlig at de flinkeste folkene blir lærere og blir værende i jobben", sier Alex Scharaschkin, AQAs administrerende direktør for vurderingsforskning og innovasjon.
Forsøkene viste at kunstig intelligens kunne gjøre det lettere å lage tilpassede quizer om spesifikke emner, automatisk rangere elevbesvarelser, gi umiddelbar tilbakemelding og gienerate pensumoppsummeringer.
Det er ingen tvil om fordelene med kunstig intelligens i utdanningen, men det innser også studentene, og utdanningsinstitusjonene har blitt sentrum for en bitter debatt om hvorvidt, hvordan og når kunstig intelligens bør integreres i sektoren.
AIs innvirkning på utdanning er omdiskutert
AI's rolle i utdanningen er fortsatt i sin spede begynnelse, og det er umulig å legge til side bekymringene rundt begrensninger og risikoer.
Hvis studentene skal stole på kunstig intelligens, kan de ikke bare sikre seg en enkel vei til toppkarakterer - det kan også påvirke selve grunnlaget for menneskelig kunnskap.
I stedet for at kunnskapen spres gjennom en rekke trossystemer og sosiokulturelle briller, kan den bli svært sentralisert og i hovedsak kontrollert av en begrenset mengde opplæringsdata.
Lærere sliter også med å håndtere risikoen ved AI-generert innhold, ettersom chatboter allerede er gode til å unngå AI-detektorer.
For å gjøre vondt verre, blir bruken av AI-detektorer stadig mer kontroversiell, slik at det å bruke dem utgjør en større risiko enn å la være - ettersom risikoen for falske positiver er så høy.
I tillegg viser forskning at AI-modeller allerede er inntak av egne produkterDet skaper en "feedback-loop", noe som betyr at det tilføres begrenset med ny informasjon til systemet.
AQA advarte i en nylig blogginnlegg"Det er en mulighet for at AI-systemene bare viderefører populære myter, ettersom de ikke har noen virkelig kontekst å trekke på utover "det som det snakkes mye om på internett"." Dette er en treffende observasjon, ettersom store språkmodeller (LLM-er) som ChatGPT er avhengige av samtidens internettinnhold for å fungere.
AQA skriver følgende om AI-relaterte skjevheter: "Når det gjelder skjevheter, kan et AI-system behandle noen grupper av mennesker mer fordelaktig eller diskriminere dem, basert på egenskaper som kjønn, etnisitet eller religiøs overbevisning." Nyere bevis indikerer at chatboter har politisk bias i tillegg til disse andre formene for bias.
Og hva med barn som vokser opp midt i stormen av generativ AI?
Verdens økonomiske forum (WEF) har nylig fremhevet en tydelig mangel på retningslinjer for interaksjon mellom kunstig intelligens og barn, særlig når apper som Snapchat legger til chatboter i tjenestene sine.
Akkurat nå er AIs rolle i utdanningen en skikkelig hodepine med mange spørsmål og få svar.