О регулировании ИИ в соцсфере

О конференции Института системного программирования им. В. П. Иванникова РАН (ИСП РАН), о сессии «Перспективы информационной безопасности в искусственном интеллекте» и моем докладе о рисках применения генеративного ИИ для социальной сферы.

Я приняла участие в конференции Института системного программирования им. В. П. Иванникова РАН (ИСП РАН) «Перспективы информационной безопасности в искусственном интеллекте» и выступила с докладом о рисках применения генеративного ИИ для социальной сферы. Другие доклады представили Максим Гурский (Positive Technologies), Антон Башарин (Swordfish Security), Лидия Виткова (Газинформсервис), Вартан Падарян (ИСП РАН), Григорий Маршалко (НКЦКИ) и Николай Ляпичев (АНО «Цифровая экономика»).

Дискуссионную сессию организовал консорциум исследований безопасности технологий ИИ. Консорциум создан при поддержке Минцифры России по инициативе АНО «Национальный технологический центр цифровой криптографии», Академии криптографии РФ и Института системного программирования им. В. П. Иванникова РАН. В состав входят ведущие компании ИБ‑сферы, вузы и госорганы. Его цель — обеспечить безопасное развитие ИИ-технологий через взаимодействие государства, бизнеса и науки. Однако, когда мы рассматриваем генеративный искусственный интеллект, возникает большая сложность в вопросе доверия такой технологии.

Проблема генеративного ИИ

Генеративный ИИ сам производит результат и работает как «черный ящик». Результат его работы непредсказуем даже для разработчика, и он может давать разный ответ на один и тот же вопрос. При этом любой ответ генеративная модель готова уверенно «обосновать».

Кроме того, генеративный ИИ обучается на неизвестном наборе данных, а используемые им большие данные человек не может проверить в принципе. Популярные модели генеративного ИИ тренируется десятками тысяч дешевых тренеров в Нигерии и Индии.

Дополнительная проблема с доверием возникает в связи с тем, что массово используемые модели — такие как ChatGPT, DeepSeek, Owen и Grock — размещены в облаке на зарубежных серверах. Российские же модели, по большей части, заимствованные и используют зарубежные технологии: от статей и нейронных фреймворков до датасетов, весов и движков LLM.

Социальные последствия использования генеративного ИИ

Активное применение генеративного ИИ в обществе может приводить к целому ряду негативных последствий. Например, продвижение повестки и нарративов недружественных к России политических сил. В иностранные языковые модели вносится фальсификация истории, пропаганда ЛГБТ, другие деструктивные для общества идеи.

Частое применение больших моделей быстро ведет к привыканию и снижению у человека критического мышления. Перестают думать и работать самостоятельно — анализировать, диагностировать, писать документы, теряют профессиональные компетенции. Дополнительным фактором является снижение качества сгенерированных текстов и графики. Нейросеть производит усредненный шлак.

Кроме того, использование ИИ способствует снятию и перекладыванию ответственности. При работе ведомств и организаций с людьми решение выносит ИИ и предъявить претензию, по сути, некому. Из этого вытекает отдельный массив рисков.

Возможности ИИ по ограничению прав граждан

В банках ИИ может применяться для автоматической оценки людей по платежеспособности и отказывать в выдаче кредитов и ипотеки. ИИ может самостоятельно расценивать те или иные операции как «подозрительные» и массово блокировать денежные переводы, банковские карты, а оспорить такие решения очень сложно. Фильтрация резюме может привести к открытой дискриминации при трудоустройстве.

На основании собранных или купленных оператором ИИ-модели персональных данных, торговые сервисы могут предлагать более обеспеченным клиентам завышенные цены на те же товары и услуги, которые для других людей стоят дешевле.

Какие запреты необходимы

Исходя из изложенного выше, я вижу стратегическую важность регулятивных ограничений на использование генеративного ИИ в образовании, госуправлении, нормотворчестве и медиа:

  • Запрет разработки учебных материалов при помощи генеративного ИИ.
  • Запрет на любую автоматизацию обучения и выработку индивидуальных «образовательных траекторий» с помощью ИИ — это прямой путь к дискриминации людей.
  • Запрет автоматического начисления штрафов.
  • Запрет любых социальных рейтингов, которые формируются на основе разрозненных наборов данных с помощью ИИ.
  • Запрет на написание нормативно-правовых актов и законопроектов, а также на их автоматическую проверку при помощи ИИ.
  • Запрет генерации судебных решений и исков.
  • Решение вопроса об авторских правах, запрет на использование образов популярных людей для генерации видео.
  • Полный запрет на дипфейки — виртуальные образцы, которые реалистично копируют лицо, голос и поведение человека.
  • Запрет на автоматические кредитные рейтинги, ограничения на автоматическую блокировку счетов.

Такие законы есть в США, ЕС, Китае, Латинской Америке, Индии и даже в Узбекистане. Россия здесь пока отстает. Сейчас рабочая группа Комитета Совета Федерации по конституционному законодательству и государственному строительству во главе с сенатором Владимиром Кожиным, куда вхожу и я, занимается разработкой законопроекта о безопасном использовании ИИ в социальной сфере.

Я надеюсь, что такой закон в России вскоре появится.

Блог Натальи Касперской

Подпишитесь на рассылку
Получайте новости, дайджесты и анонсы от InfoWatch каждый день
Подписаться на рассылку
l.12-.057c.834-.407 1.663-.812 2.53-1.211a42.414 42.414 0 0 1 3.345-1.374c2.478-.867 5.078-1.427 7.788-1.427 2.715 0 5.318.56 7.786 1.427z" transform="translate(-128 -243)"/>