О регулировании ИИ в соцсфере
О конференции Института системного программирования им. В. П. Иванникова РАН (ИСП РАН), о сессии «Перспективы информационной безопасности в искусственном интеллекте» и моем докладе о рисках применения генеративного ИИ для социальной сферы.
Я приняла участие в конференции Института системного программирования им. В. П. Иванникова РАН (ИСП РАН) «Перспективы информационной безопасности в искусственном интеллекте» и выступила с докладом о рисках применения генеративного ИИ для социальной сферы. Другие доклады представили Максим Гурский (Positive Technologies), Антон Башарин (Swordfish Security), Лидия Виткова (Газинформсервис), Вартан Падарян (ИСП РАН), Григорий Маршалко (НКЦКИ) и Николай Ляпичев (АНО «Цифровая экономика»).
Дискуссионную сессию организовал консорциум исследований безопасности технологий ИИ. Консорциум создан при поддержке Минцифры России по инициативе АНО «Национальный технологический центр цифровой криптографии», Академии криптографии РФ и Института системного программирования им. В. П. Иванникова РАН. В состав входят ведущие компании ИБ‑сферы, вузы и госорганы. Его цель — обеспечить безопасное развитие ИИ-технологий через взаимодействие государства, бизнеса и науки. Однако, когда мы рассматриваем генеративный искусственный интеллект, возникает большая сложность в вопросе доверия такой технологии.
Проблема генеративного ИИ
Генеративный ИИ сам производит результат и работает как «черный ящик». Результат его работы непредсказуем даже для разработчика, и он может давать разный ответ на один и тот же вопрос. При этом любой ответ генеративная модель готова уверенно «обосновать».
Кроме того, генеративный ИИ обучается на неизвестном наборе данных, а используемые им большие данные человек не может проверить в принципе. Популярные модели генеративного ИИ тренируется десятками тысяч дешевых тренеров в Нигерии и Индии.
Дополнительная проблема с доверием возникает в связи с тем, что массово используемые модели — такие как ChatGPT, DeepSeek, Owen и Grock — размещены в облаке на зарубежных серверах. Российские же модели, по большей части, заимствованные и используют зарубежные технологии: от статей и нейронных фреймворков до датасетов, весов и движков LLM.
Социальные последствия использования генеративного ИИ
Активное применение генеративного ИИ в обществе может приводить к целому ряду негативных последствий. Например, продвижение повестки и нарративов недружественных к России политических сил. В иностранные языковые модели вносится фальсификация истории, пропаганда ЛГБТ, другие деструктивные для общества идеи.
Частое применение больших моделей быстро ведет к привыканию и снижению у человека критического мышления. Перестают думать и работать самостоятельно — анализировать, диагностировать, писать документы, теряют профессиональные компетенции. Дополнительным фактором является снижение качества сгенерированных текстов и графики. Нейросеть производит усредненный шлак.
Кроме того, использование ИИ способствует снятию и перекладыванию ответственности. При работе ведомств и организаций с людьми решение выносит ИИ и предъявить претензию, по сути, некому. Из этого вытекает отдельный массив рисков.
Возможности ИИ по ограничению прав граждан
В банках ИИ может применяться для автоматической оценки людей по платежеспособности и отказывать в выдаче кредитов и ипотеки. ИИ может самостоятельно расценивать те или иные операции как «подозрительные» и массово блокировать денежные переводы, банковские карты, а оспорить такие решения очень сложно. Фильтрация резюме может привести к открытой дискриминации при трудоустройстве.
На основании собранных или купленных оператором ИИ-модели персональных данных, торговые сервисы могут предлагать более обеспеченным клиентам завышенные цены на те же товары и услуги, которые для других людей стоят дешевле.
Какие запреты необходимы
Исходя из изложенного выше, я вижу стратегическую важность регулятивных ограничений на использование генеративного ИИ в образовании, госуправлении, нормотворчестве и медиа:
- Запрет разработки учебных материалов при помощи генеративного ИИ.
- Запрет на любую автоматизацию обучения и выработку индивидуальных «образовательных траекторий» с помощью ИИ — это прямой путь к дискриминации людей.
- Запрет автоматического начисления штрафов.
- Запрет любых социальных рейтингов, которые формируются на основе разрозненных наборов данных с помощью ИИ.
- Запрет на написание нормативно-правовых актов и законопроектов, а также на их автоматическую проверку при помощи ИИ.
- Запрет генерации судебных решений и исков.
- Решение вопроса об авторских правах, запрет на использование образов популярных людей для генерации видео.
- Полный запрет на дипфейки — виртуальные образцы, которые реалистично копируют лицо, голос и поведение человека.
- Запрет на автоматические кредитные рейтинги, ограничения на автоматическую блокировку счетов.
Такие законы есть в США, ЕС, Китае, Латинской Америке, Индии и даже в Узбекистане. Россия здесь пока отстает. Сейчас рабочая группа Комитета Совета Федерации по конституционному законодательству и государственному строительству во главе с сенатором Владимиром Кожиным, куда вхожу и я, занимается разработкой законопроекта о безопасном использовании ИИ в социальной сфере.
Я надеюсь, что такой закон в России вскоре появится.