АНАЛИТИКА

Международные новости утечек информации, ежегодные аналитические отчеты и статистика по инцидентам за прошедшие годы.

25 января 2021

Мошенничество с помощью искусственного интеллекта становится угрозой для бизнеса

Киберпреступники стали искуснее в создании реалистичных аудио- и видео-фальшивок с помощью технологии deepfake (дипфейк), а пандемия COVID-19 и массовый переход на удаленную работу лишь ускорили этот процесс. По оценкам CyberCube, международной аналитической компании по страхованию от киберпреступлений, в ближайшие годы это грозит бизнесу серьезными финансовыми потерями.

Технология дипфейков заключается в синтезе изображений. Искусственный интеллект анализирует подлинные записи и на их основе учится, как может выглядеть и двигаться конкретный человек, а затем создает новые видеоролики с заданным сюжетом. Уже известны случаи с убедительными дипфейками, например, Марка Цукерберга или Нэнси Пилоси. С годами алгоритмы усложнились, и подделки выглядят все более реалистично, что представляет угрозу политике и бизнесу.

При переходе на дистанционный режим работы организации стали в разы больше пользоваться аудио- и видеосвязью, в основном, по открытым каналам, что дало мошенникам доступ к огромному количеству примеров голосов и изображений. Это расширило возможности для создания подделок и манипулирования людьми.

Исследователи в своем отчете «Social Engineering. Blurring reality and fake» (2020 г.) выделяют три новых тенденции в создании дипфейков, которые могут оказать значительное влияние в ближайшие 2-4 года:

  1. Масштабное социальное профилирование (Social profiling at scale). Это построение профиля цели (личности, на которую направлена атака) с помощью его данных в социальных сетях или украденных документов — например, банковских, медицинских карт и водительских удостоверений. Активные пользователи социальных сетей — это настоящий подарок для социальных инженеров. В итоге злоумышленники создают подробный профиль жертвы, в котором описывают черты характера, интересы, желания и слабости и формируют его личный и профессиональный портрет, который затем используют для манипуляции жертвой.
  2. Подделка голоса (Deep Voice mimicry). Впервые синтезированный компьютером голос появился еще в 1970-х, но сегодня перед злоумышленниками стоит задача создания правдоподобного и убедительного голоса, неотличимого от оригинала. В этом случае также приходят на помощь технологии искусственного интеллекта, машинного обучения и нейросетей.

В исследовании приводится случай, когда в марте 2019 года злоумышленники воспользовались данными технологиями, сымитировав голос исполнительного директора, и потребовали у его подчиненных осуществить перевод размером $243 тыс. На сегодняшний день для подделки определенного голоса требуется несколько часов обработки, но исследователи ожидают, что в перспективе 3-5 лет технологии позволят это делать почти мгновенно.

  1. Подделка видео с технологией «mouth mapping», которая позволяет с высокой точностью имитировать движение человеческого рта (Deep Fake video mimicry, with special mention of “Mouth Mapping” technology). Она была разработана студентами и преподавателями Вашингтонского университета и дополняет технологии создания поддельных видео и голоса.

Повсеместное использование онлайн-платформ для коммуникаций из-за пандемии COVID-19 облегчило злоумышленникам сбор информации. Поскольку ее доступность выросла, теперь преступники вкладывают средства в технологии, чтобы ей воспользоваться, и вскоре дипфейки коренным образом изменят ландшафт киберугроз. Они уже сейчас используются в политических кампаниях для манипулирования аудиторией, и, как считают исследователи, это лишь вопрос времени, когда преступники применят этот метод к состоятельным частным лицам и бизнесу. Например, в вышеупомянутом отчете исследователи предлагают представить сценарий, в котором Илон Маск на собрании инвесторов дает советы по инсайдерской торговле.

Дипфейки способны не только дискредитировать влиятельных людей, но и потенциально нанести вред обществу в целом, в связи с чем многие эксперты по безопасности прогнозируют, что дипфейки могут стать серьезной угрозой уже в 2021-2022 гг.

 

Подпишитесь на рассылку INFOWATCH
l.12-.057c.834-.407 1.663-.812 2.53-1.211a42.414 42.414 0 0 1 3.345-1.374c2.478-.867 5.078-1.427 7.788-1.427 2.715 0 5.318.56 7.786 1.427z" transform="translate(-128 -243)"/>