Спортивный директор средней школы в Балтиморе был арестован в четверг после того, как полиция заявила, что он якобы использовал искусственный интеллект для создания фальшивого аудиоклипа о директоре школы.
В январе, мы сообщали на аудиоклипе, который якобы является записью того, как директор школы Пайксвилля Эрик Эйсверт делает расистские и антисемитские замечания в адрес сотрудников и учеников.
В то время Айсверт отрицал подлинность аудиозаписи и утверждал, что ролик является подделкой ИИ.
Широко распространенный аудиоклип привел к тому, что Эйсверт временно потерял работу на время расследования подлинности аудиозаписи. Ответная реакция со стороны учителей, учеников и других людей, которые считали, что ролик подлинный, изменила жизнь Эйсверта.
Если вы прослушаете аудиоклип, то легко поймете, почему люди поверили в его подлинность.
Посмотреть это сообщение на Instagram
Эксперты пришли к выводу, что аудиозапись была подделкой ИИ, основываясь на ровном тоне, отсутствии последовательных звуков дыхания или пауз, а также необычно чистых фоновых звуках.
Утверждается, что Дажон Дарьен, бывший спортивный директор школы Пайксвилля, сделал подделку ИИ в отместку за то, что Эйсверт начал расследование его нецелевого использования школьных средств.
Дажон Дариен был арестован и обвинен в нарушении работы школы, краже, мести свидетелю и преследовании. В обвинительном заключении отмечается, что Дариен использовал школьные компьютеры "для доступа к OpenAI инструменты и службы Microsoft Bing Chat".
В списке обвинений не было того, что скоро может стать преступлением: использование искусственного интеллекта для подделки чьего-либо голоса.
Такие счета, как Закон об отсутствии подделок и Закон о запрете мошенничества в области искусственного интеллекта были поданы в US Конгресса, но еще не приняты. Поэтому, когда Дарьен использовал искусственный интеллект для создания поддельного аудиоклипа с голосом Эйсверта без согласия, это технически не было преступлением.
Тот факт, что эксперту потребовались недели, чтобы подтвердить, что аудиоклип был подделкой, подчеркивает, насколько общество и власти не готовы решать новые проблемы, которые ставит генеративный ИИ.
Легкость создания таких подделок усугубляет проблему. Если учитель физкультуры может собрать неплохую подделку, то представьте, чего могут добиться более технически грамотные плохие актеры.
В отсутствие простого способа выявления поддельных аудио- и видеоматериалов лучшей защитой может стать предположение о том, что это подделка, пока не будет подтверждено, что она настоящая.