Н. Касперская приняла участие в дискуссии об ИИ на GIS DAYS-2023
Президент ГК InfoWatch Наталья Касперская приняла участие в конференции GIS DAYS-2023. В рамках дня кибербезопасности эксперты поговорили о тех рисках, с которыми связано активное применение искусственного интеллекта. По мнению Натальи Касперской, внедрение искусственного интеллекта в медицину и транспортную сферу может быть особенно чувствительным и влиять на безопасность людей, а популярный Chat GPT в руках школьников может грозить им деградацией.
«Под определение «искусственный интеллект» подходят любые системы, способные имитировать когнитивные способности людей — включая даже Т9, используемый в телефонах. При этом наиболее опасными являются решения, в которых применяется машинное обучение, поскольку именно в этом процессе внутри системы происходят события, которые скрыты от человека. И такое положение дел грозит непредсказуемыми последствиями — в частности, в медицине ИИ может назначить вам неправильную дозу медикаментов, что представляет опасность для здоровья. Есть тут опасность и для компаний – например, разработчик системы распознавания лиц может сделать в ней закладку в виде фотографий потенциальных грабителей, которые она не сможет детектировать. И самое неприятное в этом то, что выявить данные нарушения можно только после того, как произойдет инцидент. По этим причинам ИИ нельзя делегировать возможность самостоятельного принятия решений», — рассказала Наталья Касперская.
По мнению эксперта, в целях повышения безопасности есть смысл применять для обучения систем доверенные дата сеты и строить их на основе проверенных фреймворков. При этом функционирование ИИ все равно должно контролироваться человеком, ответственным за принятие важных решений.
«Также активное внедрение ИИ все чаще приводит к деградации человеческих способностей. Например, для того, чтобы стать пилотом в ряде авиакомпаний, уже не обязательно уметь вручную управлять посадкой самолета. И мне не хотелось бы попасть на рейс, который обслуживают такие специалисты. Искусственным интеллектом привыкают пользоваться и наши дети – многие из них не читают классическую литературу, а вместо этого берут в Chat GPT краткое содержание произведения, по которому нужно сдавать экзамен. Это опасная ситуация, которая грозит им деградацией», — подчеркнула Наталья Касперская.
Заместитель министра цифрового развития, связи и массовых коммуникаций РФ Александр Шойтов также высказался о необходимости увеличения безопасности решений на основе искусственного интеллекта.
«Повышение мер безопасности нужно для исключения варианта, при котором решение работает неправильно — в частности, если имеются ошибки в его модели, возникли проблемы при обучении, либо на систему была произведена атака. Все это может привести к принятию неверных решений, грозящих опасными последствиями в целом ряде чувствительных сфер, включая транспорт, здравоохранение и объекты КИИ», — сказал чиновник.
Также Шойтов предупредил об угрозе утечек конфиденциальной информации, которые могут возникать по вине искусственного интеллекта.
«Чувствительные данные перед использованием в системе должны быть обезличены либо зашифрованы с помощью криптографии. Также обезопасить ИИ может его применение вместе с другими — верифицированными — программами, которые станут своеобразными предохранителями от принятия опасных решений. Но все эти меры будут неполными без принятия необходимых законов. В частности, в следующем году нами запланировано выпустить требования по безопасности искусственного интеллекта, которые положительно повлияют на защищенность граждан», — добавил Александр Шойтов.
В результате пленарной дискуссии форума GIS DAYS 2023 экспертное сообщество определило особенно чувствительные риски использования искусственного интеллекта. Также были анонсированы меры по увеличению безопасности систем на различных этапах их подготовки и работы. Их реализация призвана увеличить защищенность компаний и граждан в условиях повышенных угроз информационной безопасности.
Полное или частичное копирование материалов возможно только при указании ссылки на источник — сайт www.infowatch.ru или на страницу с исходной информацией