Перейти к основному содержанию
Аналитика информационной безопасности
Экспертно-аналитический центр InfoWatch более десяти лет собирает и анализирует данные в сфере информационной безопасности, публикует аналитические отчёты, дайджесты и новости.
Основное внимание — утечкам персональных данных, безопасности цифровой экономики, защите автоматизированных систем управления.
05 апреля 2023

Инженеры слили конфиденциальную информацию в ChatGPT

Работники полупроводникового производства южнокорейской компании Samsung неоднократно делились конфиденциальной информацией с нейросетью ChatGPT с момента начала использования этого решения. Чтобы предотвратить утечку конфиденциальной информации, компания хочет разработать систему, аналогичную ChatGPT.

Отделение Samsung Semiconductor недавно разрешило техническим специалистам использовать популярную сеть ChatGPT на основе искусственного интеллекта. В частности, нейросеть помогает оперативно исправить ошибки при разработке кода. Однако, опыт обращения к уникальной технологии привел к серии утечек информации.

Как удалось выяснить журналистам, только в течение первых трех недель применения ChatGPT в Samsung Semiconductor зафиксировано три случая компрометации данных. В первом из них сотрудник фабрики по производству полупроводников передал в ChatGPT внутренний код программы, тем самым раскрыв секретную информацию Samsung искусственному интеллекту, который управляется третьими лицами. Во втором случае инженер ввел в нейросеть текстовые шаблоны, служащие для нахождения дефектов в чипах. Сотрудник хотел оптимизировать процедуру мониторинга кремния в полупроводниках, но последовательность текстовых документов для тестирования относится к конфиденциальным сведениям. Наконец, третий случай утечки информации был связан с тем, что сотрудник Samsung после совещания воспользовался программой Naver Clova (используется для конвертации записи) и загрузил документ в нейросеть ChatGPT, чтобы подготовить презентацию.

Работа сотрудников с ChatGPT подвергла конфиденциальные данные рискам утечки, что подвигло Samsung предупредить персонал об опасности обращения к ChatGPT. В письме, адресованном руководству и сотрудникам, компания объяснила, что данные, отправленные в нейросеть, попадают во внешние хранилища, что затрудняет контроль над этой информацией и увеличивает риски ее компрометации.

Конгломерат Samsung составляет план действий для предотвращения утечек через средства искусственного интеллекта. Если инцидент с нейросетью от OpenAI повторится, доступ сотрудников к ChatGPT будет закрыт. Компания также намерена разработать внутренний продукт, схожий с ChatGPT.

Источник: Tom’s Hardware.

Аналитика ИБ – это новые исследования каждый месяц
В отчётах есть данные, тенденции, выводы, которые необходимы в работе
Все утечки