Интервью «Комсомольской правде»

Вышло мое интервью «Комсомольской правде». Мы с Валентином Алфимовым обсудили некоторые мифы об импортозамещении, поговорили про ужесточение законов и очередной вал мошенничества, вновь затронули риски генеративного ИИ. Ниже — основное из этого интервью.

О санкциях и российских ОС

Западные санкции против России в цифровой сфере создают серьезные риски. Например, Microsoft может в любой момент отказать российским разработчикам в подписании необходимых сертификатов. Это приведет к ситуации, когда отечественное программное обеспечение, работающее на иностранных платформах, попросту перестанет работать.

В этом контексте программа импортозамещения, принятая в 2015 году, демонстрирует свою стратегическую значимость. Сегодня реестр отечественного ПО содержит более 29 тысяч продуктов. Существует ряд полностью функционирующих операционных систем, рекомендованных к использованию: РЕД ОС, ОС «Альт», Astra Linux и ROSA. Для мобильных устройств также созданы платформы — KasperskyOS и «Аврора». Если наиболее продвинутые компании начали переход на них еще в 2015 году, то с 2022 года этот процесс стал массовым. Пользователь уже сегодня может установить отечественную «операционку» на свой компьютер и работать с ней.

Про программное обеспечение для промышленности

Ситуация с ПО для промышленности в России неоднородна и варьируется в зависимости от класса продуктов. Сказать, что мы все классы ПО полностью «закрыли» нельзя, однако катастрофической зависимости от иностранных продуктов сегодня нет.

Созданная система из 36 индустриальных центров компетенций (ИЦК) играет ключевую роль в развитии отраслевого софта. В таких секторах, как металлургия и нефтепереработка, где деятельность ИЦК наиболее активна, процесс импортозамещения идет успешно. Крупные госкорпорации, такие как «Росатом», разрабатывают собственные решения. Таким образом, полной технологической блокады в промышленности удается избежать.

О борьбе с кибермошенничеством

Несмотря на принятый закон о борьбе с мошенничеством, общий ущерб гражданам от мошенников продолжает расти. Нынешний год, вероятно, станет рекордным по объему украденных средств. Центральный банк и профильные ведомства оперативно фиксируют новые схемы и информируют о них граждан, что снижает эффективность старых методов.

Однако злоумышленники постоянно придумывают новые схемы. Сейчас основным трендом стало использование технологий дипфейков, позволяющих имитировать голос и внешность близких. Для защиты от подобных атак рекомендуется заранее договориться с родственниками о кодовых словах или вопросах, ответ на которые известен только вам.

Кроме того, схемы мошенников становятся многоходовыми. Классический сценарий может выглядеть так: звонок «с почты» о несуществующей посылке с требованием подтвердить код, параллельное сообщение о «взломе» Госуслуг и последующая «помощь» от лже-специалистов поддержки. Цель — ввести жертву в цейтнот, создать давление и ощущение — что-то произошло, надо срочно бороться.

Любые требования срочных действий по телефону должны вызывать подозрения. Государственные ведомства не совершают подобных звонков.

Для дополнительной защиты я, например, всегда на смартфоне держу мобильные данные выключенными. Когда мне надо, я включаю мобильные данные и потом снова выключаю.

Про утечки данных

Мошенники строят свои атаки на основе знаний о жертве. Источником этой информации являются масштабные утечки персональных данных. За прошлый год было скомпрометировано более 1,5 миллиарда записей. Учитывая численность населения, это означает, что данные каждого гражданина утекли в среднем десять раз.

Стремление государства к дальнейшей тотальной цифровизации лишь усугубляет проблему. Я выступаю большим противником дальнейшей цифровизации. Планируемое создание новых реестров, например, регистра заболеваний, включающего чувствительные данные о психическом здоровье или онкологических диагнозах, представляет собой катастрофический риск. Эти данные будут передаваться в различные ведомства, включая МВД, из которых утечки происходят регулярно. Попадание такой информации в руки мошенников откроет новые, чрезвычайно опасные векторы для шантажа и манипуляций.

Чем больше личной информации о людях становится известно, тем больше ее сливают. Технические методы защиты против человеческого фактора бессильны. Запреты на копирование данных обходятся элементарно: информацию можно переписать, сфотографировать или просто запомнить. Централизация цифровых данных граждан без кардинального повышения уровня ответственности и защиты создает системные угрозы, а не решает проблемы.

О рисках использования ИИ

Искусственный интеллект не является однозначным злом. Это инструмент, чья польза или вред целиком зависят от сферы применения. Я считаю, что его использование в некоторых сферах опасно. Например, в сфере образования, когда детей пытаются учить при помощи генеративного ИИ. Зато он полезен, например, как система распознавания и борьбы с утечками из организаций, которая выявляет конфиденциальную информацию в документах.

Генеративный ИИ, способный создавать новый контент на основе обученных моделей, несет фундаментальные риски. Его ответы носят вероятностный характер и могут содержать ошибки —«галлюцинации». Уже сейчас объем текстов, сгенерированных большими языковыми моделями, превзошел все количество текстов, написанных людьми за все время существования. При этом ИИ обучается и на собственных сгенерированных текстах, и чем больше этих текстов и чем менее критично к ним подходят люди, тем более бредовые тексты будут получаться.

Я считаю, в образовании ИИ должен быть запрещен. Как, кстати, как и электронные устройства: чтобы обучать математиков или учить людей алгоритмическому мышлению, им, кроме ручки и бумаги, ничего не нужно. Нужны люди, которые умеют думать сами.

В госуправлении принятие управленческих или законодательных решений на основе вероятностных моделей, которые не могут объяснить логику своих выводов, неприемлемо. Это прямая дорога к созданию неэффективных и противоречивых норм.

В то же время ИИ демонстрирует высокую эффективность в прикладных, измеримых областях: в информационной безопасности, в промышленности и даже в сельском хозяйстве.

Бояться следует не самого ИИ, а людей, которые используют его в нехороших целях или там, где он только вредит. Гуманитарная сфера — это люди, и когда пытаются человеческий фактор запихать технологическую систему, все идет криво и не туда.

Блог Натальи Касперской

Подпишитесь на рассылку
Получайте новости, дайджесты и анонсы от InfoWatch каждый день
Подписаться на рассылку
l.12-.057c.834-.407 1.663-.812 2.53-1.211a42.414 42.414 0 0 1 3.345-1.374c2.478-.867 5.078-1.427 7.788-1.427 2.715 0 5.318.56 7.786 1.427z" transform="translate(-128 -243)"/>