Cette année, l'utilisation d'outils d'IA générative dans le cadre universitaire a suscité un débat acharné. Les réponses sont rares, voire inexistantes.
L'IA peut-elle être considérée comme un assistant de recherche universitaire ? Est-elle un outil de plagiat ? Qu'en est-il de la désinformation et des hallucinations ? Quand le travail assisté par l'IA est-il autorisé et quand s'agit-il de tricherie ?
Le problème, c'est que personne ne le sait et que les opinions divergent d'un groupe démographique à l'autre.
Une étude récente menée auprès de 154 étudiants et 89 universitaires australiens a révélé une augmentation significative de l'utilisation de l'IA parmi les étudiants, beaucoup d'entre eux cherchant à clarifier ce qui constitue une tricherie.
Jemma Skeat, directrice du département d'orthophonie de l'université Deakin, se fait l'écho des préoccupations des étudiants : "Ils veulent des détails... Comment puis-je l'utiliser pour ce travail ? Qu'est-ce qui est de la triche ? Qu'est-ce qui ne l'est pas ? Et où se situe la limite ?"
Elle souligne l'ambiguïté des politiques académiques actuelles : "Ce n'est pas très clair... Ce n'est pas noir ou blanc ce qui est de la triche".
L'étude montre que les universités sont divisées sur la question de la détection de l'utilisation de l'IA dans les travaux. Elle confirme les enquêtes et recherchesCertains d'entre eux montrent une nette différence entre la perception de l'IA par les éducateurs et celle qu'en ont les étudiants.
Comme on peut s'en douter, les étudiants sont tout à fait d'accord, car ils sont à l'avant-garde des tendances technologiques, après tout. Les enseignants, en revanche, ne sont pas aussi confiants.
Skeat explique : "De nombreuses universités ont adopté des logiciels spécifiques visant à détecter l'IA générative dans les travaux écrits, tandis que d'autres ne l'ont pas fait parce qu'elles estiment que le taux de faux positifs, c'est-à-dire d'étudiants détectés comme tricheurs alors qu'ils n'ont pas réellement triché, est trop élevé".
L'utilisation excessive de l'IA risque d'affaiblir l'homme, mais n'est-ce pas inévitable ?
Andreas Gwyther-Gouriotis, récemment diplômé en informatique, a évoqué le potentiel de l'IA pour aider les étudiants, en particulier dans les cours de niveau inférieur : "Les personnes qui ne savent pas vraiment comment programmer peuvent réussir ces cours (de niveau inférieur) en demandant simplement à ChatGPT comment résoudre les problèmes de programmation typiques qu'ils enseignent aux niveaux inférieurs.
Il fait également des remarques sur le manque de clarté de la réglementation : "Les règles sont un peu vagues. On craint également que l'IA n'ait un impact sur les capacités d'attention déjà réduites des gens.
Giampaolo Viglia du Département d'économie et de sciences politiques de l'Université de la Vallée d'Aoste, Italie, argumentéL'avènement du ChatGPT - s'il est utilisé de manière compulsive - constitue une menace à la fois pour les élèves et pour les enseignants. Pour les étudiants, qui souffrent déjà d'une baisse de la capacité d'attention et d'une réduction significative de la lecture de livres, le risque est de passer en mode léthargique".
L'impact plus large de ce phénomène est appelé "affaiblissement", où les capacités physiques et mentales des humains diminuent au fur et à mesure que nous choisissons l'IA pour exécuter nos ordres - un futur possible brillamment résumé par le film WALL-E.
Ce débat soulève des préoccupations quant à l'accès équitable aux outils d'IA, car on craint que ces technologies ne deviennent des services payants, ce qui désavantagerait les étudiants issus de milieux socio-économiques défavorisés. GPT Plus avec GPT-4, par exemple, offre des avantages considérables aux étudiants par rapport à ceux qui utilisent la version gratuite.
Les faux positifs constituent une autre complication. Même si les enseignants pensent que le contenu est écrit par l'IA, il est difficile de le prouver, car de nombreux détecteurs d'IA affichent des taux de faux positifs inacceptables. Certaines universités, écoles et établissements d'enseignement supérieur ont cessé de les utiliser pour cette raison.
Alors que les outils d'IA tels que ChatGPT s'intègrent de plus en plus dans le paysage éducatif, il est urgent de mettre en place des politiques et des lignes directrices claires pour garantir une utilisation éthique.