Перейти к основному содержанию
Аналитика информационной безопасности
Экспертно-аналитический центр InfoWatch более десяти лет собирает и анализирует данные в сфере информационной безопасности, публикует аналитические отчёты, дайджесты и новости.
Основное внимание — утечкам персональных данных, безопасности цифровой экономики, защите автоматизированных систем управления.
17 сентября 2025

Утечка данных чат-ботов на основе искусственного интеллекта

Исследователи кибербезопасности нашли утечку данных у крупного разработчика приложений на основе ИИ. Утечка данных произошла из-за ошибок в настройке облачного хранилища.

Исследователи группы Cybernews обнаружили незащищенный экземпляр облачной системы хранения Elasticsearch. Сервер связан с расположенной в Пакистане компанией Vyro AI, разработчиком ряда популярных инструментов ИИ для устройств на базе iOS и Android.

На открытый сервер в режиме реального времени стекались данные из трех приложений: ImagineArt (более 10 млн загрузок в Google Play), Chatly (более 100 тыс. загрузок) и Chatbotx, чат-бота, который насчитывает около 50 тыс. посещений в месяц.

Vyro AI утверждает, что все приложения из ее портфолио были загружены в общей сложности более 150 млн раз, а ее продукты ежемесячно генерируют 3,5 млн изображений.

По словам исследователей, выявленная ими утечка данных затронула как продуктивный контур, так и среду разработки Vyro AI. Все скомпрометированные наборы данных содержали журналы событий из приложений с временным периодом от 2 до 7 суток. Cybernews утверждает, что база данных впервые была проиндексирована поисковыми системами IoT еще в середине февраля 2025 г., а значит, злоумышленники могли видеть ее на протяжении нескольких месяцев.

Как поясняют исследователи, благодаря этому нарушению любой человек, обнаруживший незащищенный сервер, мог отслеживать поведение пользователей, извлекать конфиденциальные данные, которыми пользователи делились с моделями генеративного ИИ, а также перехватывать учетные записи пользователей.

В зоне риска миллионы пользователей. 

«Один только масштаб ImagineArt делает инцидент тревожным. Учитывая более 10 миллионов установок Android и более 30 миллионов активных пользователей, раскрытые токены — настоящая находка для взломщиков аккаунтов», — пишут эксперты Cybernews.

В результате взлома хакеры могут получить доступ к полной истории чата жертвы, сгенерированным изображениям или использовать аккаунт для приобретения токенов ИИ, которые впоследствии станут использовать незаконно.

По словам исследователей, утечка пользовательских запросов к ИИ имеет еще одну важную проблему. Дело в том, что многие запросы имеют весьма интимный характер и содержат личные данные. Поэтому утечка подобной информации может раскрывать то, чем пользователи никогда не хотели бы делиться публично.

Безопасность ИИ по-прежнему не входит в число приоритетов многих компаний-разработчиков, констатируют исследователи. Утечка данных из компании Vyro AI подчеркивает растущий пробел в безопасности быстрорастущего направления, связанного с искусственным интеллектом. Стремясь как можно скорее захватить значительную долю рынка, стартапы в сфере ИИ порой экономят на информационной безопасности. Но по мере того, как все больше людей вкладывают свои мысли, идеи, а порой и конфиденциальные данные, в системы генеративного ИИ, ставки продолжают расти.

В августе пользователи были шокированы, когда их разговоры с ChatGPT и Grok попали в поисковую выдачу Google. Утечки были вызваны уязвимостями в функции обмена сообщениями. При создании ссылок на отправку сообщения другому пользователю поисковые системы могли индексировать такой контент.

Проблема недостаточно надежных барьеров безопасности затрагивает даже таких гигантов в области ИИ, как компания OpenAI. После того, как она представила свою модель GPT-5, несколько команд «белых хакеров» смогли взломать чат-бот менее чем за 24 часа.

Источник: Cybernews

Аналитика ИБ – это новые исследования каждый месяц
В отчётах есть данные, тенденции, выводы, которые необходимы в работе
Все утечки