Mentre gli educatori sono alle prese con l'ascesa dell'IA in classe, molte istituzioni si stanno affannando per rendere i loro programmi di studio "a prova di ChatGPT".
I chatbot di intelligenza artificiale, in particolare ChatGPT, stanno rapidamente modificando il panorama educativo, confondendo i confini tra il lavoro generato dall'intelligenza artificiale e quello autentico.
Il professore di filosofia della Furman University, Darren Hick, ha rivelato le sue esperienze del lavoro generato dall'intelligenza artificiale alla fine del 2022, affermando: "Il mondo accademico non se lo aspettava. Quindi siamo un po' alla cieca".
Ha descritto il lavoro generato dall'IA come "uno stile pulito. Ma è riconoscibile. Direi che scrive come un dodicenne molto intelligente".
Timothy Main, professore di scrittura al Conestoga College in Canada, ha dichiarato di essere in "piena modalità di crisi" con decine di casi di plagio dell'IA.
Questo ha scatenato un un intenso dibattito se e come questo possa essere fermato. Oppure il mondo accademico dovrebbe semplicemente accettare il ruolo crescente dell'IA nella società e insegnare agli studenti come utilizzarla in modo efficace?
Molti temono che il ruolo dell'IA nell'istruzione possa erodere il pensiero critico, portando a società che dipendono dall'IA anche solo per le conoscenze e le decisioni più elementari.
Con l'IA che diventa una "fonte unica di verità", possiamo davvero fidarci? Che ne è di sbieco? E quando mente e ha le allucinazioni?
Affrontare queste complicazioni richiede un pensiero critico, una facoltà che la tecnologia minaccia se non siamo pragmatici e consapevoli.
Gli educatori suggeriscono soluzioni pratiche
Gli educatori stanno studiando modi per salvaguardare l'integrità accademica, ma c'è poco consenso.
- Gli esami cartacei stanno tornando in auge, ma questa sembra una soluzione arcaica nell'era dell'informatica.
- Le cronologie di editing e le bozze potrebbero diventare verificabili per dimostrare il lavoro originale degli studenti.
- Le domande d'esame sono state riviste per diventare meno generiche, rendendo più difficile per i chatbot fornire risposte accurate.
Ronan Takizawa, studente di informatica al Colorado College, ha affermato che la reintroduzione dei "libri blu" (i tradizionali libretti d'esame), pur sembrando regressiva, garantisce agli studenti di acquisire i concetti necessari.
Mentre gli educatori e le loro istituzioni lavorano per trovare soluzioni, anche gli studenti non hanno vita facile.
Accuse ingiuste
Rilevare i contenuti generati dall'IA è ingannevolmente complesso.
I rilevatori AI erano adeguati per il testo generato da GPT-3, ma ora che siamo passati a GPT-3.5 e GPT-4, la loro utilità è diminuita notevolmente.
Questi rilevatori misurano la perplessità e l'intensità, che insieme predicono la probabilità che una stringa di parole sia stata generata dall'intelligenza artificiale.
L'evidenza suggerisce che soffrono di una alto tasso di falsi positivisoprattutto quando sono esposti a testi scritti da persone non madrelingua inglese, in quanto è più probabile che scrivano testi a bassa perplessità.
L'aumento dei testi generati dall'IA ha portato anche ad accuse errate e all'inversione dei ruoli, in cui gli studenti riscrivono parti di lavori autentici per evitare falsi positivi da parte dei rilevatori dell'IA.
Un professore del Texas A&M accusato per errore un'intera classe di utilizzare ChatGPT per i loro compiti finali, ammettendo solo in seguito di essersi sbagliato - una situazione imbarazzante per l'università dopo che la storia è stata ripresa da giornali come il Washington Post e Insider.
Ronan Takizawa, studente di informatica al Colorado College, ha sottolineato che molti studenti non sono sicuri di quando l'uso dell'intelligenza artificiale sia considerato un imbroglio.
Per esempio, in un caso ironico, Nathan LeVang dell'Arizona State University ha iniziato a usare i rilevatori di intelligenza artificiale sui suoi compiti autentici per assicurarsi che il suo lavoro non fosse erroneamente segnalato come generato dall'intelligenza artificiale.
Dopo che il suo saggio scritto da un umano è stato giudicato "generato dall'intelligenza artificiale", non ha avuto altra scelta che riscrivere alcune sezioni. Uno studio ha rilevato che il lavoro di alcuni studenti aveva maggiori probabilità di essere etichettato come "scritto dall'uomo" quando era stato scritto con l'intelligenza artificiale.
I rilevatori di intelligenza artificiale sono sotto tiro
Questi problemi sono ulteriormente aggravati dal fatto che i rilevatori di intelligenza artificiale variano in termini di prestazioni, con alcuni che producono tassi ridicoli di 98% falsi positivi quando sono sottoposti a testi scritti in inglese non nativo.
Uno di questi rilevatori, originality.ai, è stato ampiamente criticato per un tasso di falsi positivi inaccettabile.
La recensione di qualcuno sullo strumento dice: "Assolutamente falso e lì per truffare le vostre finanze. Ho incollato un lavoro che ho fatto nel 2014 e ho ottenuto 99 % ai plagiati. Tendo a pensare che con gli ai usiamo lo stesso alfabeto e le stesse parole, così come le strutture grammaticali, quindi c'è una linea sottile tra i contenuti umani e quelli ai. Ma questa roba dell'originalità è pura truffa e spazzatura!".
Un altro dice: "È un servizio terribile. Segnala come AI contenuti originali e completamente riscritti. Non è affatto accurato a causa dei falsi positivi che dà. È solo una perdita di tempo e denaro. In pratica segnala qualsiasi cosa con una grammatica corretta e un linguaggio professionale".
I rilevatori di intelligenza artificiale si fanno pagare per i loro servizi e non varrebbe la pena pagarli se non tentassero di fare ciò per cui sono stati progettati: segnalare l'intelligenza artificiale.
La battaglia sul ruolo dell'intelligenza artificiale nell'istruzione potrebbe diventare aspra, soprattutto se si traduce in ingiustizia nei confronti degli studenti.