Наталья Касперская: ИИ — это черный ящик с угрозами

Президент ГК InfoWatch Наталья Касперская приняла участие в пленарной дискуссии форума GIS DAYS-2023, в рамках которой эксперты рынка, представители регуляторов и ведущих российских ВУЗов обсудили риски, связанные с широким внедрением систем искусственного интеллекта. По словам Натальи Касперской, применение искусственного интеллекта в ряде сфер может повредить жизни и здоровью людей, а  использование Chat GPT школьниками ведет к снижению качества образования.

«Искусственный интеллект — это достаточно широкое понятие, под которое подпадают любые системы имитирующие когнитивные способности человека — в том числе, и, скажем, Т9, который работает в наших смартфонах. Я предлагаю заострить внимание на решениях с искусственным интеллектом, использующих машинное обучение, поскольку они могут самостоятельно совершать действия, которые невозможно отследить. Таким образом получается своеобразный черный ящик, использование которого может привести к непредсказуемым результатам и даже вызвать гуманитарные риски — если мы говорим о применении искусственного интеллекта в медицине (например, при определении дозы лекарства) или на транспорте (для управления самолетом), где на карту поставлены жизни людей. 

Также существует возможность внедрения вредоносных закладок в систему на базе технологий искусственного интеллекта со стороны разработчика — в частности, фотографии злоумышленников могут быть добавлены в систему распознавания лиц, после чего она перестанет реагировать на их изображения, исправно срабатывая во всех других случаях. Хуже всего то, что такие угрозы нельзя определить до тех пор, пока не произойдет первый инцидент. Именно по этой причине я считаю, что искусственному интеллекту нельзя полностью передавать ответственность за чувствительные решения, а риски от его использования должны быть снижены», — отметила Наталья Касперская.

По словам эксперта, с этой целью можно использовать доверенные дата-сеты для обучения систем, а также проверенные фреймворки для построения их структуры (хотя с этим есть определенные проблемы, поскольку они в основном принадлежат иностранным компаниям — в частности, Google). Таким образом можно значительно обезопасить пользователей, однако полностью свести риски к нулю все равно не получится. Поэтому всегда должен присутствовать человек, который проверяет работу системы и принимает ответственность за окончательные решения на себя. 

«Не стоит забывать и о том, что широкое внедрение систем искусственного интеллекта часто приводит к деградации человеческого разума. Так, когда люди начали использовать калькулятор, многие из них разучились считать, а внедрение систем спутниковой навигации привело к тому, что многие таксисты перестали ориентироваться в городе без подсказок программы. И особенно тревожно, когда слышишь новости о том, что вторые пилоты некоторых авиакомпаний теперь не обязаны уметь сажать самолет вручную и полностью полагаются или будут полагаться на автопилот, а функция постановки диагнозов в клиниках возложена на системы анализа больших данных. Таким образом мы получим летчиков, которые не смогут взять ситуацию в свои руки при отказе автоматики и врачей, лишенных профессионального чутья, которое так необходимо в медицине. Полагаются на искусственный интеллект и наши дети — вместо того, чтобы прочитать книгу, они теперь просят Chat GPT вывести краткое содержание романа, который им задали прочитать. Это настоящая деградация подрастающего поколения, которое уже даже неспособно усваивать литературные произведения. Все эти проблемы нельзя оставлять без внимания», — считает Наталья Касперская. 

Присутствующий на мероприятии заместитель министра цифрового развития, связи и массовых коммуникаций РФ Александр Шойтов согласился с необходимостью повышения безопасности работы систем искусственного интеллекта, подчеркнув важную роль защиты персональных данных. 

«О рисках применения технологий искусственного интеллекта идет активная дискуссия, и некоторые эксперты даже выступают за то, чтобы приостановить его развитие. Я не сторонник столь радикальных мер, однако считаю, что при внедрении искусственного интеллекта нужно соблюдать меры предосторожности. Они необходимы для того, чтобы избежать его неправильного функционирования — случаев, когда, например, были допущены ошибки на этапе построения модели, использованы неверные данные для обучения, либо система была атакована и изменена в интересах злоумышленников. Это может приводить к принятию неверных решений. Их последствия особенно чувствительны на транспорте, в медицине и в критической информационной инфраструктуре», — отметил чиновник. 

Также эксперт заявил о том, что существует значительная опасность утечек конфиденциальных данных, которые могут быть скомпрометированы в результате работы искусственного интеллекта. 

«По этой причине информация перед ее отправкой в данные системы должна быть качественным образом обезличена и не содержать в себе чувствительных данных. Для той же цели можно будет использовать и криптографические методы — в частности, гомоморфное шифрование, которое в настоящее время разрабатывается. При этом необходимо учитывать, что утечки и атаки возможны на всех этапах жизненного цикла искусственного интеллекта — начиная с его разработки и заканчивая внедрением и использованием. 

Проверка искусственного интеллекта на безопасность сложна, однако и традиционное программное обеспечение часто является для нас черным ящиком ввиду сложности своего устройства и огромного объема кода. Думаю, что одной из эффективных мер тут могло бы стать использование искусственного интеллекта в связке с другими программами, которые уже были нами верифицированы, и будут предохранять системы от принятия ошибочных решений. Повышению безопасности послужит и принятие соответствующих нормативных актов. Так, в 2024 году мы планируем подготовить проект требований по безопасности искусственного интеллекта, который должен положительно повлиять на ситуацию. Необходим также и профильный закон об искусственном интеллекте для определения всех связанных с ним понятий – он также уже в разработке», — заявил Александр Шойтов.

Тему использования искусственного интеллекта и противостояния действиям злоумышленников на мероприятии затронул заместитель генерального директора — технический директор «Газинформсервис» Николай Нашивочников.

«Право первого шага всегда остается за плохими парнями. В своих действиях они не ограничены этическими нормами и имеют возможность получить предварительную информацию о потенциальной жертве — в том числе, с помощью проведения фишинговой атаки с задействованием систем искусственного интеллекта. Наличие таких возможностей у хакеров как минимум настораживает и стимулирует нас совершенствовать инструменты защиты, в рамках которых также можно использовать искусственный интеллект. В частности, с помощью реактивного искусственного интеллекта мы можем эффективно защищать структурированные данные. Разумеется, при этом нужно соблюдать осторожность. Хорошо известно, что основатель OpenAI (компания-разработчик Chat GPT) никогда не расстается со своим синим рюкзачком, чтобы иметь возможность в любой момент отключить свою систему — в случае возникновения критической угрозы с ее стороны», — подчеркнул эксперт.

 

Таким образом, пленарная дискуссия «Использование систем искусственного интеллекта: вопросы доверия и информационной безопасности» послужила площадкой для обсуждения всех основных рисков, связанных с внедрением искусственного интеллекта. Также на мероприятии были предложены разносторонние меры по повышению безопасности — как с точки зрения разработки и эксплуатации систем, так и со стороны регулирования данной сферы со стороны государства. 

Блог Натальи Касперской

Подпишитесь на рассылку INFOWATCH
l.12-.057c.834-.407 1.663-.812 2.53-1.211a42.414 42.414 0 0 1 3.345-1.374c2.478-.867 5.078-1.427 7.788-1.427 2.715 0 5.318.56 7.786 1.427z" transform="translate(-128 -243)"/>