KI könnte ein Segen für überlastete Lehrkräfte sein, indem sie sie bei Aufgaben von der Erstellung von Quizzen bis hin zum Feedback unterstützt.
Laut AQA, einem der führenden Prüfungsausschüsse des Vereinigten Königreichs, erfordert die Technologie jedoch eine strenge menschliche Aufsicht.
Die Organisation teilte ihre Ergebnisse kürzlich der britischen Regierung mit, um einen Beitrag zu einer breiteren Beratung über den Einsatz von KI im Bildungsbereich.
Die Forscher der AQA führten Versuche mit verschiedenen KI-Tools wie ChatGPT, GPT4, LLaMA und Alpaca in einer Reihe von wissenschaftlichen Arbeiten durch.
"Wenn KI die Arbeitsbelastung verringern kann, indem sie bei der Unterrichtsplanung und Benotung hilft, dann werden die klügsten Köpfe mit größerer Wahrscheinlichkeit Lehrer und bleiben in diesem Beruf", so Alex Scharaschkin, Executive Director of Assessment Research and Innovation bei der AQA.
Die Versuche ergaben, dass KI die Erstellung von benutzerdefinierten Tests zu bestimmten Themen erleichtern, die Antworten der Schüler automatisch benoten, sofortiges Feedback geben und generate Lehrplan-Zusammenfassungen.
Die Vorteile von KI im Bildungsbereich sind unbestreitbar, aber das wissen auch die Schüler, und die Bildungseinrichtungen sind zum Mittelpunkt einer erbitterten Debatte darüber geworden, ob, wie und wann KI in diesen Sektor integriert werden sollte.
Die Auswirkungen von KI auf die Bildung werden kontrovers diskutiert
KIs Rolle im Bildungswesen steckt noch in den Kinderschuhen, und die Bedenken hinsichtlich ihrer Grenzen und Risiken sind nicht von der Hand zu weisen.
Wenn sich Schüler auf KI verlassen, können sie nicht nur leicht zu Bestnoten kommen, sondern es könnte sich auch auf die Struktur des menschlichen Wissens auswirken.
Anstatt dass das Wissen über zahlreiche Glaubenssysteme und soziokulturelle Linsen verstreut ist, könnte es stark zentralisiert und im Wesentlichen durch eine endliche Menge von Trainingsdaten kontrolliert werden.
Auch Lehrkräfte haben Schwierigkeiten, mit dem Risiko von KI-generierten Inhalten umzugehen, da Chatbots bereits hervorragend darin sind, KI-Detektoren zu umgehen.
Erschwerend kommt hinzu, dass die Verwendung von KI-Detektoren zunehmend umstritten ist, so dass ihr Einsatz ein größeres Risiko darstellt als der Verzicht auf sie - denn das Risiko von die Zahl der Fehlalarme ist so hoch.
Außerdem zeigt die Forschung, dass KI-Modelle bereits die Aufnahme ihrer eigenen ErgebnisseDadurch entsteht eine "Rückkopplungsschleife", d. h. es werden nur begrenzt neue Informationen in das System eingespeist.
Die AQA warnte in einer aktueller BlogeintragEs besteht die Möglichkeit, dass die KI-Systeme einfach nur populäre Mythen fortschreiben, da sie keinen realen Kontext haben, auf den sie sich stützen können, der über das hinausgeht, worüber im Internet viel gesprochen wird". Dies ist eine treffende Beobachtung, da große Sprachmodelle (LLMs) wie ChatGPT auf aktuelle Internetinhalte angewiesen sind, um zu funktionieren.
Zum Thema KI-bedingte Voreingenommenheit schreibt die AQS: "Was die Voreingenommenheit betrifft, könnte ein KI-System bestimmte Personengruppen aufgrund von Merkmalen wie Geschlecht, ethnischer Zugehörigkeit oder religiöser Überzeugung bevorzugt behandeln oder diskriminieren." Neueste Erkenntnisse weist darauf hin, dass Chatbots zusätzlich zu diesen anderen Formen der Voreingenommenheit auch politische Voreingenommenheit aufweisen.
Und was ist mit Kindern, die inmitten des Sturms der generativen KI aufwachsen?
Das Weltwirtschaftsforum (WEF) hat kürzlich hervorgehoben ein deutlicher Mangel an Richtlinien für die Interaktion von KI mit Kindern, insbesondere da Apps wie Snapchat Chatbots in ihre Dienste aufnehmen.
Im Moment ist die Rolle der KI im Bildungswesen ein echtes Kopfzerbrechen mit vielen Fragen und wenigen Antworten.