ГК InfoWatch: у ИИ нет собственных этических норм
Директор по инновационным проектам ГК InfoWatch Андрей Арефьев принял участие в XIII Форуме безопасного Интернета и рассказал об этической составляющей и перспективах правового регулирования ИИ.
В рамках дискуссии «Искусственный интеллект: перспективы развития и правового регулирования» Андрей Арефьев рассказал о том, каким образом в технологиях ИИ проявляется этическая и моральная составляющая. Этот вопрос приобретает большое значение, потому что языковые модели уровня ChatGPT доступны всем пользователям интернета, включая детей и подростков. По мнению эксперта, у генеративных нейросетей нет изначально заложенного ориентира на позитивный или негативный контент — результаты генерации зависят только от данных, на которых обучают алгоритм.
«Важно понимать, что собственных этических норм у ИИ нет. Нейросети обучают инженеры с конкретным образованием, социальным опытом, на конкретных данных и текстах, и потом нейросеть на основании этого контента создает собственный. Разработчики языковых моделей осознают необходимость контролировать продукт работы нейросетей и стремятся блокировать генерацию негативного контента — в частности, над этим работают разработчики ChatGPT, компания OpenAI», — отметил Андрей Арефьев.
Дискуссия затронула и другой важный вопрос — правовое регулирование работы алгоритмов ИИ. По словам экспертов, в этом направлении предстоит большая работа, поскольку сейчас в законодательстве просто нет многих определений и терминов. Также нет четкого мнения в вопросе субъекта регулирования — кто должен нести ответственность за контент открытых генеративных моделей, доступных в интернете, которые обучаются на запросах и текстах всех пользователей. Среди технологий, внедрение, которые прямо зависит от регулирования, Андрей Арефьев назвал в частности беспилотный транспорт. Также эксперт обратил внимание на еще один важный вопрос — необходимость больших вычислительных мощностей для работы ИИ-моделей.
«Один из значимых вопросов развитии технологий искусственного интеллекта — это сокращение ресурсов, в первую очередь электроэнергии, которые модели тратят на обработку запросов. Если верить Илону Маску, то всем технологиям ИИ уже в обозримом будущем не хватит электричества, и это одна из больших проблем, потому что подобные технологии действительно потребляют колоссальное количество энергии», — отметил Андрей Арефьев.
Полное или частичное копирование материалов возможно только при указании ссылки на источник — сайт www.infowatch.ru или на страницу с исходной информацией.