Alors que les éducateurs sont confrontés à la montée en puissance de l'IA dans les salles de classe, de nombreuses institutions s'efforcent de mettre leurs programmes à l'épreuve du "ChatGPT".
Les chatbots d'IA, notamment ChatGPT, modifient rapidement le paysage éducatif, en brouillant les frontières entre le travail généré par l'IA et le travail authentique.
Darren Hick, professeur de philosophie à l'université de Furman, a révélé ses expériences Le monde universitaire n'a pas vu venir ce phénomène. Nous sommes donc en quelque sorte pris au dépourvu".
Il décrit le travail généré par l'IA comme "un style propre". Mais il est reconnaissable. Je dirais qu'elle écrit comme un élève de terminale très intelligent".
Timothy Main, professeur d'écriture au Conestoga College au Canada, a déclaré qu'il était en "mode crise" avec des douzaines de cas de plagiat par l'IA.
Cela a déclenché une un débat intense et les moyens d'y mettre un terme. Ou bien les universités devraient-elles simplement accepter le rôle croissant de l'IA dans la société et enseigner aux étudiants comment l'utiliser efficacement ?
Nombreux sont ceux qui craignent que le rôle de l'IA dans l'éducation n'érode l'esprit critique, conduisant à des sociétés qui dépendent de l'IA pour la connaissance et la prise de décision, même rudimentaires.
L'IA devient une "source unique de vérité", mais pouvons-nous vraiment lui faire confiance ? Qu'en est-il de l biais? Et quand il ment et hallucine ?
Pour faire face à de telles complications, nous devons faire preuve d'esprit critique, une faculté que la technologie menace si nous ne sommes pas pragmatiques et conscients.
Les éducateurs proposent des solutions pratiques
Les éducateurs étudient les moyens de préserver l'intégrité académique, mais il n'y a guère de consensus.
- Les examens sur papier font leur retour, mais cette solution semble archaïque à l'ère des technologies de l'information.
- Les historiques d'édition et les brouillons pourraient devenir vérifiables afin de prouver le travail original des étudiants.
- Les questions d'examen sont révisées pour devenir moins génériques, ce qui rend plus difficile pour les chatbots de fournir des réponses précises.
Ronan Takizawa, étudiant en informatique au Colorado College, a déclaré que la réintroduction des "livres bleus" (livrets d'examen traditionnels) semblait régressive, mais qu'elle permettait aux étudiants d'assimiler les concepts nécessaires.
Tandis que les éducateurs et leurs institutions cherchent des solutions, les étudiants n'ont pas non plus la vie facile.
Accusations injustifiées
La détection des contenus générés par l'IA est faussement complexe.
Les détecteurs d'IA étaient adéquats pour les textes générés par GPT-3, mais maintenant que nous sommes passés à GPT-3.5 et GPT-4, leur utilité a considérablement diminué.
Ces détecteurs mesurent la perplexité et l'éclatement, ce qui permet de prédire la probabilité qu'une chaîne de mots soit générée par l'IA.
Il est prouvé qu'ils souffrent d'une taux élevé de faux positifsEn particulier lorsqu'ils sont exposés à des textes rédigés par des personnes dont l'anglais n'est pas la langue maternelle, car ils sont plus susceptibles d'écrire des textes de moindre perplexité.
L'essor des textes générés par l'IA a également donné lieu à des accusations injustifiées et à des inversions de rôles, les étudiants réécrivant des parties de travaux authentiques pour éviter les faux positifs des détecteurs d'IA.
Un professeur de Texas A&M accusé par erreur Une situation embarrassante pour l'université après que l'histoire a été reprise par des journaux tels que le Washington Post et Insider.
Ronan Takizawa, étudiant en informatique au Colorado College, souligne que de nombreux étudiants ne savent pas quand l'utilisation de l'IA est considérée comme une tricherie.
Par exemple, Nathan LeVang, de l'Arizona State University, a commencé à utiliser des détecteurs d'IA pour ses travaux authentiques afin de s'assurer qu'ils n'étaient pas signalés par erreur comme étant générés par l'IA.
Après que sa rédaction rédigée par un humain a été jugée "générée par l'IA", il n'a pas eu d'autre choix que de réécrire certaines parties. Une étude a montré que les travaux de certains étudiants étaient plus susceptibles d'être qualifiés d'"écrits par un humain" lorsqu'ils étaient rédigés par l'IA.
Les détecteurs d'IA sous le feu des critiques
Ces problèmes sont encore aggravés par le fait que les détecteurs d'IA sont plus ou moins performants, certains produisant des taux de faux positifs ridicules de 98% lorsqu'ils sont soumis à des textes rédigés dans une langue autre que l'anglais.
L'un de ces détecteurs, originality.ai, a été largement critiqué pour son taux inacceptable de faux positifs.
L'avis de quelqu'un sur cet outil dit : "Absolument faux et là pour vous tromper sur vos finances. J'ai collé un travail que j'ai fait en 2014 et j'ai quand même obtenu 99 % ai plagié. J'ai tendance à penser que nous utilisons le même alphabet et les mêmes mots avec l'ai ainsi que les mêmes structures grammaticales, il y a donc une fine ligne entre le contenu humain et l'ai. Mais ce truc d'originalité est une pure arnaque et une ordure !"
Un autre dit : "C'est un service terrible. Il signale comme étant de l'IA des contenus originaux et des contenus complètement réécrits. Il n'est pas du tout précis en raison des faux positifs qu'il donne. C'est une perte de temps et d'argent. Il signale en fait tout ce qui a une grammaire correcte et un langage professionnel."
Les détecteurs d'IA sont payants, et ils ne vaudraient pas la peine d'être payés s'ils n'essayaient pas de faire ce pour quoi ils ont été conçus : signaler l'IA.
La bataille sur le rôle de l'IA dans l'éducation pourrait prendre une tournure amère, surtout si elle aboutit à l'injustice pour les élèves.