La IA podría ser de gran ayuda para los sobrecargados profesores, ayudándoles en tareas que van desde la creación de cuestionarios hasta la formulación de comentarios.
Sin embargo, según AQA, una de las principales juntas examinadoras del Reino Unido, la tecnología requiere una estricta supervisión humana.
La organización compartió recientemente sus conclusiones con el gobierno británico para contribuir a una mayor consulta sobre el uso de la IA en el sector educativo.
Los investigadores de AQA realizaron pruebas con varias herramientas de IA, como ChatGPT, GPT4, LLaMA y Alpaca, en una gran variedad de trabajos de ciencias.
"Si la IA puede reducir la carga de trabajo ayudando a planificar y corregir las clases, será más probable que los más brillantes se conviertan en profesores y permanezcan en su puesto", afirma Alex Scharaschkin, director ejecutivo de investigación e innovación en evaluación de AQA.
Los ensayos revelaron que la IA podía facilitar la creación de cuestionarios personalizados sobre temas específicos, calificar automáticamente las respuestas de los alumnos, proporcionar comentarios inmediatos y generar resúmenes curriculares.
Las ventajas de la IA en la educación son innegables, pero los estudiantes también se dan cuenta de ello, y los centros educativos se han convertido en el centro de un agrio debate sobre si la IA debe integrarse en el sector, cómo y cuándo.
El impacto de la IA en la educación es objeto de acalorados debates
IA papel en la educación aún está en fase embrionaria, y es imposible dejar de lado la preocupación por sus limitaciones y riesgos.
Si los estudiantes confían en la IA, no sólo pueden asegurarse un camino fácil hacia las mejores notas, sino que podría afectar al tejido mismo del conocimiento humano.
En lugar de que el conocimiento se disperse a través de numerosos sistemas de creencias y lentes socioculturales, podría llegar a estar muy centralizado y esencialmente controlado por una cantidad finita de datos de formación.
Los profesores también se esfuerzan por gestionar el riesgo de los contenidos generados por IA, ya que los chatbots ya son excelentes evadiendo los detectores de IA.
Para echar sal a la herida, el uso de detectores de IA es cada vez más controvertido, hasta el punto de que utilizarlos supone un riesgo mayor que no hacerlo, ya que el riesgo de falsos positivos es tan alto.
Además, la investigación muestra que los modelos de IA ya ingerir sus propios productosEsto crea un "bucle de retroalimentación", lo que significa que la información nueva que se introduce en el sistema es limitada.
AQA advirtió en un entrada reciente en el blog"Existe la posibilidad de que los sistemas de IA simplemente perpetúen mitos populares, ya que no tienen un contexto del mundo real en el que basarse más allá de 'lo que se habla mucho en Internet'". Se trata de una observación acertada, ya que los grandes modelos lingüísticos (LLM) como ChatGPT dependen del contenido contemporáneo de Internet para funcionar.
Sobre el tema de la parcialidad relacionada con la IA, AQA escribe: "En términos de parcialidad, un sistema de IA podría tratar a algunos grupos de personas de forma más favorable o discriminarlos, basándose en características como el sexo, la etnia o las creencias religiosas". Pruebas recientes indica que los chatbots presentan sesgos políticos, además de estas otras formas de sesgo.
¿Y qué pasa con los niños que crecen en medio de la tormenta de la IA generativa?
Recientemente, el Foro Económico Mundial (FEM) destacado una clara falta de política en torno a la interacción de la IA con los niños, especialmente a medida que aplicaciones como Snapchat añaden chatbots a sus servicios.
Ahora mismo, el papel de la IA en la educación es un auténtico rompecabezas con muchas preguntas y pocas respuestas.