Новости компании
27 октября 2021

Глава InfoWatch приняла участие в подписании кодекса этики ИИ

В рамках международного форума «Этика искусственного интеллекта: начало доверия», который стартовал 26 октября 2021 года в Москве, представители 20 компаний, в число которых вошла и ГК InfoWatch, подписали кодекс этики искусственного интеллекта (ИИ).

Всего в подписании кодекса этики ИИ приняли участие представители 20 крупнейших российских компаний, вузов и научно-исследовательских институтов. В частности, это ГК InfoWatch, МФТИ, Сбер, Яндекс, МТС, Ростелеком, РФПИ, Газпромнефть и другие.

Форум стал первой в России площадкой, где разработчики и пользователи технологий искусственного интеллекта обсудили шаги по эффективному внедрению этики искусственного интеллекта в приоритетных отраслях экономики.

«Обществу нужен надёжный ИИ с вероятностью ошибки ниже, чем у человека. Права и свободы граждан гарантированы Конституцией РФ. Наша обязанность – реализовать механизмы по их защите, независимо от среды, в которой находится человек. Соблюдение этических норм при работе с ИИ позволит предотвратить их нарушение», – отметил Дмитрий Чернышенко, начальник Управления Президента РФ по развитию информационно-коммуникационных технологий и инфраструктуры связи.

«Я участвовала в разработке Кодекса этики ИИ с позиций эксперта по управлению рисками. Любая технология, а ИИ - не исключение из этого правила, несёт определенные риски в широком спектре: начиная от информационной безопасности, заканчивая социальными проблемами. Ключевым риском в данном случае является вопрос доверия к ИИ. Кодекс призван для того, чтобы закрепить в том числе и то, что системы, которые создаются и будут создаваться, этому доверию соответствовали», – сказала Наталья Касперская.

Глава ГК InfoWatch в своем выступлении привела несколько примеров, ярко описывающих риски, возникающие при использовании систем на базе ИИ.

Во-первых, это ошибки, которые выдает ИИ. Недавний пример: сотрудники правоохранительных органов задержали в Петербурге оперного певца и практически одновременно в Одинцове - режиссёра Фёдора Ермошина. Правоохранители полностью доверились в этом случае ИИ, допустившему ошибку в распознании лиц. Только в полиции выяснилось, что задержанные не являются разыскиваемыми преступниками.

Во-вторых, в состав рисков, присущих ИИ, входит возможность манипулирования человеком и возможность вмешательства в его частную жизнь, потому что все системы ИИ работают на основе огромного массива данных. А вот доступ к этим данным могут различными путями получить не только разработчики конкретной системы, но и системные администраторы и т.д. Эти люди могут настраивать систему определённым образом, в своих целях.

Во-третьих, возможны риски принятия неправильных решений. Например, банки зачастую отказывают человеку в кредите без объяснения причин, на основании результатов скоринга. Это тоже этический вопрос, так как у человека должно быть право опротестовать это решение. А финальное решение выдавать или не выдавать кредит должно, все же, оставаться за человеком, а не за машиной.

В-четвёртых, по мнению главы ГК InfoWatch, постоянное использование систем ИИ приводит к эффекту массового оглупления или к снижению интеллектуальных способностей их пользователей. Например, постоянное использование калькулятора привело к тому, что люди сейчас разучились считать в уме, а водители такси в Москве не в стоянии возить пассажиров без навигатора.

В-пятых, риски ИИ применительно к критической информационной инфраструктуре (КИИ) имеют особую важность. Например, в руководящих документах для пилотов пассажирских самолетов есть указание о том, что никогда нельзя выключать автопилот. Доказательство правильности этого распоряжения - авария с самолетом Сухой Superjet в Шереметьево 3 года назад, в которой погибло 40 человек. Лётчик потерял квалификацию из-за надежды на ИИ.

Мероприятие, в рамках которого был подписан кодекс этики ИИ, прошло в гибридном формате. Сессии форума транслировались онлайн для всех желающих.

Подпишитесь на рассылку INFOWATCH
l.12-.057c.834-.407 1.663-.812 2.53-1.211a42.414 42.414 0 0 1 3.345-1.374c2.478-.867 5.078-1.427 7.788-1.427 2.715 0 5.318.56 7.786 1.427z" transform="translate(-128 -243)"/>