Национальный центр кибербезопасности Великобритании (NCSC) недавно опубликовал важнейший отчет, в котором дана подробная оценка того, как искусственный интеллект повлияет на ландшафт киберугроз в ближайшие два года.
Этот отчет составлен по итогам обсуждений, состоявшихся на Саммит по безопасности ИИ в Блетчли в ноябре 2023 года, где ключевое внимание было уделено "двойственной природе" ИИ, являющегося одновременно и преимуществом, и риском для кибербезопасности.
Хотя достижения ИИ открывают новые возможности для киберзащиты, они также прокладывают путь для более сложных и труднообнаруживаемых кибератак.
В отчете говорится о будущем, в котором ландшафт кибербезопасности будет становиться все более сложным, а искусственный интеллект будет играть центральную роль как в защите от киберугроз, так и в их устранении.
Ключ риски, вытекающие из отчета включают:
- Усиление масштабов и воздействия кибер-атак: ИИ увеличит частоту и серьезность кибератак.
- Снижение барьеров для киберпреступников начального уровня: Технологии искусственного интеллекта облегчают любителям и начинающим киберпреступникам проведение эффективных кибератак.
- Широкое распространение кибернетических возможностей с использованием ИИ: Растущая доступность инструментов ИИ на криминальном и коммерческом рынках, скорее всего, вооружит участников киберугроз новыми подходами.
- Возросшие задачи по обеспечению киберустойчивости: ИИ усложнит разграничение между законными и вредоносными сообщениями, что усилит проблемы управления кибербезопасностью.
- Социальная инженерия: ИИ расширяет возможности субъектов угроз в области социальной инженерии, генерируя достоверно выглядящие документы-приманки и сообщения, необходимые для фишинговых афер.
- Разработка вредоносных программ и эксплойтов: ИИ может помочь в разработке вредоносных программ и эксплойтов, сделав существующие методы более эффективными.
- Разведка: ИИ улучшит разведывательную деятельность, помогая субъектам угроз быстрее выявлять ценные активы для изучения и эксфильтрации (несанкционированной передачи данных).
Линди Камерон, исполнительный директор NCSC, так объяснила этот отчет: "Появившееся использование искусственного интеллекта в кибератаках не является эволюционным, а не революционным, то есть оно усиливает существующие угрозы, такие как ransomware, но не меняет ландшафт рисков в ближайшей перспективе".
Это может привести к всплеску кибератак, особенно на программы-вымогатели, со стороны менее опытных людей или групп. Однако высококвалифицированные государственные угрожающие субъекты по-прежнему обладают наилучшими возможностями для использования ИИ при разработке современных вредоносных программ.
Мы уже видели потенциал инструментов генеративного ИИ, ориентированных на мошенничество. такие как FraudGPT и WormGPT..
Как и NCSC, предыдущие доклады в аналогичном ключе также подчеркивали демократизацию ИИ и масштабирование кибератак, в том числе OpenAI, который недавно объявил свои планы по борьбе с предвыборной дезинформацией и фальсификациями.
OpenAI - это в настоящее время сотрудничает с Министерством обороны США в том числе для поддержки и инноваций в области киберзащиты, и объявила о Грант в размере $1 млн. для решений в прошлом году.