Перейти к основному содержанию
Аналитика информационной безопасности
Экспертно-аналитический центр InfoWatch более десяти лет собирает и анализирует данные в сфере информационной безопасности, публикует аналитические отчёты, дайджесты и новости.
Основное внимание — утечкам персональных данных, безопасности цифровой экономики, защите автоматизированных систем управления.
18 января 2024

США используют искусственный интеллект для защиты КИИ

Для обеспечения безопасности объектов КИИ спецслужбы США стали использовать ИИ. Технологии помогают обнаруживать и противодействовать хакерам, атакующим объекты КИИ, сообщило Агентство национальной безопасности США (АНБ).

Об этом сообщил директор по кибербезопасности АНБ, Роб Джойс, на Международной конференции по кибербезопасности в Фордхэмском университете. По его словам, машинное обучение и искусственный интеллект помогают специалистам расследовать кибератаки на объекты КИИ, такие как связь, производство, коммунальное хозяйство, транспорт и другие. 

Технологии искусственного интеллекта выявляют признаки использования ИИ в кибератаках, а инструменты машинного обучения — операции, основанные на методах «living off the land», которые обычно помогают хакерам избежать обнаружения.

К развитию и использованию этих технологий привела нехватка кадров и знаний, но искусственный интеллект и машинное обучение помогли АНБ заполнить недостающие пробелы.

По словам Джойса, последние кибератаки на объекты КИИ США отличались от традиционных методов. Вместо легко обнаруживаемых вредоносных программ для получения доступа к сетям хакеры использовали недостатки в архитектуре, неправильные настройки или пароли по умолчанию. Они создавали, на первый взгляд, легитимные учетные записи, которые затем использовались для перемещения по сетям и для действий, которые не выполнялись обычными пользователями систем. Теперь инструменты ИИ помогают АНБ отслеживать такую деятельность, поскольку модели лучше обнаруживают аномальное поведение предположительно легитимных пользователей.

На текущий момент хакеры используют все существующие модели генеративного ИИ — ChatGPT, OpenAI, Bard от Google. Однако разработчики уже признали, что потенциально преступное использование генеративного ИИ стало проблемой для всех больших языковых моделей (LLM), и встраивают меры для обеспечения кибербезопасности, а также финансируют исследования и разработки в этой области.

Аналитика ИБ – это новые исследования каждый месяц
В отчётах есть данные, тенденции, выводы, которые необходимы в работе
Все новости