Всемирный экономический форум (ВЭФ) отметил острую необходимость получения ответов на вопросы о том, как генеративный ИИ влияет на детей, с целью разработки политики и регулирования.
Технологии сегодня развиваются стремительно, и дети и подростки зачастую осваивают их лучше, чем взрослые.
Опросы показывают, что только 30% родителей использовали такие инструменты искусственного интеллекта, как ChatGPT, 58% детей в возрасте 12-18 лет делали это и скрывали от родителей и учителей.
В популярные среди детей платформы, такие как Snapchat, интегрированы чат-боты с искусственным интеллектом, которые легко доступны и удобны в использовании.
Другие крупные технологические компании планируют аналогичные интеграции, что говорит о том, что генеративный ИИ может быстро стать ключевой особенностью детской цифровой среды. Взрослым станет невероятно сложно контролировать использование детьми генеративного ИИ.
Сайт ВЭФ отмечает что генеративный ИИ действительно предлагает потенциальные преимущества для детей, такие как помощь в выполнении домашних заданий, персонализированный опыт обучения и развитие творческих способностей. Кроме того, для детей с ограниченными возможностями ИИ предоставляет уникальные возможности для обучения и взаимодействия.
Однако, несмотря на свои преимущества, генеративный ИИ несет в себе риски, которые могут непреднамеренно навредить детям. Например, ИИ может создавать текстовую дезинформацию, более убедительную, чем созданный человеком контент, и глубокие поддельные изображения теперь неотличимы от настоящих.
Педофилы уже используют искусственный интеллект для создавать образы насилия над детьмиИ такие сервисы, как Replika, уже подвергался критике группами по защите детей за их сексуально навязчивое поведение. Replika - это сложный чатбот, созданный для того, чтобы стать цифровым другом или собеседником, и имеющий возрастное ограничение 18+, хотя есть данные, что пользователи не всегда его соблюдают.
При долгосрочном использовании генеративного ИИ возникают вопросы, касающиеся развития детей, потенциальных предубеждений, конфиденциальности, защиты данных и коммерческого использования данных о детях.
И еще есть немаловажный момент. нарушение систем образования и будущий рынок труда.
Можем ли мы рассчитывать на то, что учебные заведения дадут детям образование, необходимое для процветания в мире, где искусственный интеллект внедрен практически в каждый процесс? И если образование все же переключится на ИИ, чем оно при этом пожертвует?
Cмы доверять искусственному интеллекту в качестве основного источника информации?
Необходимость принятия политических мер
ВЭФ подчеркивает, что широкомасштабное потенциальное воздействие ИИ на детей требует срочных действий со стороны политиков, технологических компаний, регулирующих органов и других заинтересованных сторон.
В то время как в нормативных документах по ИИ содержатся положения о борьбе с подделками и дезинформацией, в них практически ничего не говорится о том, как дети и подростки должны взаимодействовать с технологией, будь то дома или в образовательных учреждениях.
Кроме того, собрать научно обоснованные исследования по этому вопросу в короткие сроки чрезвычайно сложно.
Существующие ресурсы, такие как Руководство ЮНИСЕФ по политике в области искусственного интеллекта для детейОни задают определенное направление, но ИИ быстро их перерастет.
Те, кто работает над защитой детей, должны поддерживать исследования воздействия генеративного ИИ и отстаивать права детей. Необходимо обеспечить большую прозрачность, ответственное развитие поставщиков ИИ и поддержку усилий по регулированию ИИ на глобальном уровне.
Разработчики ИИ должны учитывать риски, связанные с использованием их технологий детьми, и, возможно, разработать методы обнаружения того, что ребенок использует инструмент.
Поскольку дети сегодня растут в условиях практически постоянного воздействия искусственного интеллекта, необходимость в разработке комплексной политики и нормативных актов, учитывающих особенности этой новой технологии, является как никогда актуальной.