Советник целевой группы по искусственному интеллекту Великобритании предупреждает об угрозе ИИ для человечества

8 июня 2023 года

Советник целевой группы по искусственному интеллекту
Советник целевой группы по ИИ Мэтт Клиффорд предупреждает о рисках, которые ИИ может представлять в ближайшие два года.

Стремительное развитие инструментов, управляемых искусственным интеллектом, вызывает опасения у многих экспертов в области технологий. Один из них - советник целевой группы по ИИ в Великобритании Мэтт Клиффорд, который предупредил, что ИИ может стать сверхдержавой, способной "убить множество людей" примерно через два года. Клиффорд работает над созданием правительственной целевой группы по ИИ для премьер-министра Великобритании Риши Сунака.  

В интервью В эфире шоу TalkTV Мэтт Клиффорд рассказал об экспоненциальном росте систем, работающих на основе искусственного интеллекта, и о потенциальных рисках, которые они могут представлять, если их вовремя не отрегулировать. Клиффорд, работающий председателем правительственного Агентства перспективных исследований и изобретений (ARIA), предупредил, что современные системы становятся все мощнее "с постоянно растущей скоростью".

Различные виды рисков при использовании искусственного интеллекта

Он подчеркнул необходимость регулирования использования искусственного интеллекта на всех уровнях, заявив, что если чиновники не приложат усилий для создания правил безопасности, то через два года системы искусственного интеллекта станут намного мощнее.

"У нас есть два года, чтобы создать основу, которая сделает контроль и регулирование этих очень больших моделей гораздо более возможным, чем сегодня". сказал Клиффорд в интервью.

Он также добавил, что ИИ создает различные виды рисков, некоторые из которых могут быть как краткосрочными, так и долгосрочными проблемами.

По словам советника целевой группы по ИИ, ИИ способен "создавать рецепты биооружия", а также совершать серьезные кибератаки, которые могут представлять угрозу для человечества. Он отметил, что в этом случае ИИ может стать слишком мощным и привести к гибели многих людей.

Интервью состоялось вскоре после того, как появилось открытое письмо о потенциальных рисках ИИ. На сайте открытое письмо Центр безопасности ИИ опубликовал документ, под которым поставили свои подписи многие известные эксперты в области ИИ. Один из них - генеральный директор OpenAI Сэм Альтман, а также Джеффри Хинтон, которого называют "крестным отцом ИИ".

"Они говорят о том, что произойдет, когда мы создадим новый вид, своего рода интеллект, превосходящий человеческий", - сказал Клиффорд в связи с открытым письмом, в котором говорится, что регулирование и минимизация рисков ИИ "должны быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".

ИИ все еще можно использовать во благо

По мнению Клиффорда, ИИ все еще можно использовать во благо, если только правительства в глобальном масштабе найдут способ его регулировать. 

"Если все пойдет правильно... вы можете представить, как ИИ будет лечить болезни, сделает экономику более продуктивной, поможет нам перейти к экономике с нулевым выбросом углекислого газа", - говорит Клиффорд.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Даница Симич

Даника - специалист по изучению данных с более чем 7-летним опытом работы в области искусственного интеллекта и больших данных. Она создавала специализированный контент для таких компаний, как ValueWalk и IntegrateAI, и была автором научных работ для Singidunum Univeristy.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения