АНАЛИТИКА

Международные новости утечек информации, ежегодные аналитические отчеты и статистика по инцидентам за прошедшие годы.

28 ноября 2023

Кибербезопасность искусственного интеллекта: рекомендации Запада

Страны Запада сделали серьезный шаг в решении проблемы кибербезопасности систем искусственного интеллекта (AI). В конце ноября Агентство кибербезопасности и безопасности инфраструктуры (CISA) и Министерство внутренней безопасности США (DNS), а также Национальный центр кибербезопасности Великобритании (NCSC) выпустили «Руководство по безопасной разработке систем искусственного интеллекта» (Guidelines for Secure AI System Development).

Ключевые принципы руководства по безопасности AI-разработки были сформулированы США и Соединенным Королевством в сотрудничестве с 21 министерством и агентством из других стран, включая уполномоченные органы семи крупнейших промышленно развитых стран. Это первый документ такого рода, согласованный на глобальном уровне.

«Мы находимся на переломном этапе развития искусственного интеллекта, который вполне может стать выдающейся технологий нашего времени. Кибербезопасность является ключом к созданию защищенных, надежных и заслуживающих доверия систем искусственного интеллекта, — заявил министр внутренней безопасности США Алехандро Николас Майкоркас (Alejandro N. Mayorkas). — Руководящие принципы, выпущенные совместно с CISA, NCSC и другими нашими международными партнерами, обеспечивают разумный путь к проектированию, разработке, внедрению и эксплуатации систем ИИ, в основе которых лежит кибербезопасность».

«Руководство по безопасной разработке систем искусственного интеллекта» содержит важные рекомендации по разработке систем искусственного интеллекта и подчеркивает важность соблюдения принципов Secure by Design, которые CISA отстаивает уже давно.

Рекомендации по безопасному созданию систем ИИ разбиты на четыре ключевые области цикла разработки: безопасное проектирование, безопасная разработка, безопасное развертывание, безопасные эксплуатация и обслуживание. В каждом разделе освещаются идеи и меры по снижению рисков кибербезопасности в процессе разработки организационной системы искусственного интеллекта.
Безопасное проектирование объясняет, как понимать риски и моделирование угроз, а также преимущества и недостатки, которые следует учитывать при проектировании системы и модели.
Безопасная разработка содержит информацию о безопасности цепочки поставок, документации, а также управлении активами и техническим долгом.

Безопасное развертывание — это защита инфраструктуры и моделей AI от компрометации, угроз или потерь, а также разработка процессов управления инцидентами.

Безопасная эксплуатация и обслуживание содержат рекомендации по действиям, которые следует предпринять после развертывания системы, включая ведение журнала и мониторинг, управление обновлениями и обмен информацией.

Эти рекомендации являются новейшим достижением США в области разработки и внедрения безопасных и надежных технологий искусственного интеллекта. В октябре президент Джо Байден (Joe Biden) своим указом поручил Министерству внутренней безопасности стимулировать принятие стандартов безопасности ИИ во всем мире, защищать сети и критически важную инфраструктуру США, снижать риски использования ИИ при создании оружия массового уничтожения, противодействовать кражам интеллектуальной собственности США, связанной с технологиями ИИ, помогать Соединенным Штатам в привлечении и удержании талантов в сфере AI и т.д.

Ранее в ноябре 2023 г. Агентство кибербезопасности и безопасности инфраструктуры США опубликовало План развития искусственного интеллекта (Roadmap for Artificial Intelligence) — межведомственный документ, увязанный с национальной стратегией. Этот план CISA аккумулирует усилия по продвижению полезного использования ИИ, обеспечения защиты систем ИИ от киберугроз и сдерживания злонамеренного использования искусственного интеллекта.

Подпишитесь на рассылку INFOWATCH
l.12-.057c.834-.407 1.663-.812 2.53-1.211a42.414 42.414 0 0 1 3.345-1.374c2.478-.867 5.078-1.427 7.788-1.427 2.715 0 5.318.56 7.786 1.427z" transform="translate(-128 -243)"/>