Агентство кибербезопасности Великобритании предупреждает, что ИИ поможет мошенникам и злоумышленникам
Агентство кибербезопасности Великобритании, Национальный центр кибербезопасности (NCSC), предупредило, что развитие искусственного интеллекта усложнит идентификацию подлинных электронных писем по сравнению с письмами от мошенников и злоумышленников, особенно сообщений с просьбой сбросить пароль.
NCSC предупредил, что сложность инструментов искусственного интеллекта, особенно генеративного искусственного интеллекта, способного создавать убедительный текст, голос и изображения, затруднит распознавание попыток фишинга, когда пользователей обманом заставляют разглашать пароли или личную информацию.
Генеративный искусственный интеллект, примером которого являются такие технологии, как чат-боты, такие как ChatGPT, и модели с открытым исходным кодом, позволяет создавать реалистичный контент с помощью простых подсказок. NCSC, входящий в состав шпионского агентства GCHQ, в своей последней оценке заявил, что ИИ, скорее всего, увеличит частоту и воздействие кибератак в течение следующих двух лет.
Агентство подчеркнуло роль генеративного искусственного интеллекта и больших языковых моделей, лежащих в основе технологий чат-ботов, в усложнении усилий по выявлению различных типов атак, включая поддельные сообщения и социальную инженерию, метод манипулирования людьми для раскрытия конфиденциальной информации.
Мошенничество с использованием искусственного интеллекта не за горами
В отчете подчеркивается, что к 2025 году из-за распространенности генеративного искусственного интеллекта и больших языковых моделей людям, независимо от их опыта в области кибербезопасности, будет сложно оценивать подлинность электронных писем или запросов на сброс паролей, а также распознавать попытки фишинга, спуфинга или социальной инженерии. .
NCSC также ожидает всплеска атак с использованием программ-вымогателей, ссылаясь на снижение барьеров для киберпреступников-любителей и хакеров для взлома систем. Было отмечено, что сложность ИИ позволяет более убедительно подходить к потенциальным жертвам, создавая поддельные документы без типичных ошибок, связанных с фишинговыми атаками. Однако в отчете уточняется, что, хотя генеративный ИИ может повысить убедительность попыток фишинга, он не обязательно повысит эффективность кода программ-вымогателей.
Агентство предупредило, что государственные субъекты, вероятно, имеют хорошие возможности для использования ИИ в продвинутых кибероперациях, а также имеют потенциал для обучения моделей ИИ, способных создавать новый код, обходящий меры безопасности. Кроме того, NCSC признал потенциал ИИ как защитного инструмента, способного обнаруживать атаки и разрабатывать более безопасные системы.