ИИ может стать благом для перегруженных учителей, помогая им решать самые разные задачи - от создания тестов до предоставления обратной связи.
Однако, по мнению AQA, одной из ведущих экзаменационных комиссий Великобритании, эта технология требует строгого человеческого контроля.
Недавно организация поделилась своими выводами с правительством Великобритании, чтобы внести вклад в более широкую консультация об использовании искусственного интеллекта в образовательном секторе.
Исследователи AQA провели испытания различных инструментов искусственного интеллекта, таких как ChatGPT, GPT4, LLaMA и Alpaca, в различных научных работах.
"Если ИИ сможет снизить нагрузку, помогая в планировании уроков и выставлении отметок, то самые способные люди с большей вероятностью станут учителями и останутся работать", - говорит Алекс Шарашкин, исполнительный директор AQA по исследованиям и инновациям в области оценки.
Испытания показали, что искусственный интеллект может облегчить создание пользовательских тестов по конкретным темам, автоматически оценивать ответы учащихся, обеспечивать немедленную обратную связь и gэнерировать резюме учебных программ.
Преимущества ИИ в образовании неоспоримы, но студенты тоже это понимают, и учебные заведения стали центром ожесточенных споров о том, стоит ли интегрировать ИИ в этот сектор, как и когда.
Влияние искусственного интеллекта на образование вызывает жаркие споры
искусственный интеллект роль в образовании пока находится в зачаточном состоянии, и опасения по поводу его ограничений и рисков невозможно отбросить.
Если студенты будут полагаться на ИИ, то это не только обеспечит им легкую дорогу к высшим оценкам - это может повлиять на саму ткань человеческих знаний.
Вместо того чтобы рассеивать знания по многочисленным системам убеждений и социокультурным объективам, они могут стать очень централизованными и, по сути, контролироваться конечным количеством обучающих данных.
Учителям тоже нелегко справиться с риском, связанным с контентом, созданным искусственным интеллектом, поскольку чат-боты уже отлично умеют обходить детекторы искусственного интеллекта.
В довершение ко всему, использование детекторов искусственного интеллекта становится все более противоречивым и приводит к тому, что их применение представляет собой больший риск, чем их отсутствие - ведь риск ложных срабатываний очень много.
Кроме того, исследования показывают, что модели ИИ уже проглатывание собственных результатовЭто создает "петлю обратной связи", то есть в систему поступает ограниченное количество свежей информации.
AQA предупредила в недавняя запись в блоге"Есть вероятность, что системы ИИ просто увековечивают популярные мифы, поскольку у них нет реального контекста, на который они могли бы опираться, помимо "того, о чем много говорят в Интернете"". Это верное замечание, поскольку большие языковые модели (LLM), такие как ChatGPT, опираются в своей работе на современный интернет-контент.
По поводу предвзятости, связанной с ИИ, AQA пишет: "С точки зрения предвзятости, система ИИ может относиться к некоторым группам людей более благосклонно или дискриминировать их, основываясь на таких характеристиках, как пол, этническая принадлежность или религиозные убеждения". Последние свидетельства указывает на то, что чат-боты имеют политическую предвзятость в дополнение к другим формам предвзятости.
А что делать с детьми, которые растут среди бури генеративного ИИ?
Всемирный экономический форум (ВЭФ) недавно выделено явное отсутствие политики в отношении взаимодействия искусственного интеллекта с детьми, особенно когда такие приложения, как Snapchat, добавляют чат-ботов в свои сервисы.
В настоящее время роль ИИ в образовании вызывает множество вопросов и мало ответов.