Стремительное развитие инструментов, управляемых искусственным интеллектом, вызывает опасения у многих экспертов в области технологий. Один из них - советник целевой группы по ИИ в Великобритании Мэтт Клиффорд, который предупредил, что ИИ может стать сверхдержавой, способной "убить множество людей" примерно через два года. Клиффорд работает над созданием правительственной целевой группы по ИИ для премьер-министра Великобритании Риши Сунака.
В интервью В эфире шоу TalkTV Мэтт Клиффорд рассказал об экспоненциальном росте систем, работающих на основе искусственного интеллекта, и о потенциальных рисках, которые они могут представлять, если их вовремя не отрегулировать. Клиффорд, работающий председателем правительственного Агентства перспективных исследований и изобретений (ARIA), предупредил, что современные системы становятся все мощнее "с постоянно растущей скоростью".
Различные виды рисков при использовании искусственного интеллекта
Он подчеркнул необходимость регулирования использования искусственного интеллекта на всех уровнях, заявив, что если чиновники не приложат усилий для создания правил безопасности, то через два года системы искусственного интеллекта станут намного мощнее.
"У нас есть два года, чтобы создать основу, которая сделает контроль и регулирование этих очень больших моделей гораздо более возможным, чем сегодня". сказал Клиффорд в интервью.
Он также добавил, что ИИ создает различные виды рисков, некоторые из которых могут быть как краткосрочными, так и долгосрочными проблемами.
По словам советника целевой группы по ИИ, ИИ способен "создавать рецепты биооружия", а также совершать серьезные кибератаки, которые могут представлять угрозу для человечества. Он отметил, что в этом случае ИИ может стать слишком мощным и привести к гибели многих людей.
Интервью состоялось вскоре после того, как появилось открытое письмо о потенциальных рисках ИИ. На сайте открытое письмо Центр безопасности ИИ опубликовал документ, под которым поставили свои подписи многие известные эксперты в области ИИ. Один из них - генеральный директор OpenAI Сэм Альтман, а также Джеффри Хинтон, которого называют "крестным отцом ИИ".
"Они говорят о том, что произойдет, когда мы создадим новый вид, своего рода интеллект, превосходящий человеческий", - сказал Клиффорд в связи с открытым письмом, в котором говорится, что регулирование и минимизация рисков ИИ "должны быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".
ИИ все еще можно использовать во благо
По мнению Клиффорда, ИИ все еще можно использовать во благо, если только правительства в глобальном масштабе найдут способ его регулировать.
"Если все пойдет правильно... вы можете представить, как ИИ будет лечить болезни, сделает экономику более продуктивной, поможет нам перейти к экономике с нулевым выбросом углекислого газа", - говорит Клиффорд.