Эволюция современных технологий привела к появлению различных инноваций, и одна из них, в частности, уже всколыхнула медиа-ландшафт – речь идет про дипфейки. Дипфейк (английский вариант: deepfake) - это видео, изображение или аудиозапись, которые были обработаны с помощью технологии искусственного интеллекта. Например, на видео с дипфейком можно сделать так, чтобы человек говорил или делал что-то, чего на самом деле в реальной жизни не было.

Дипфейки выглядят очень убедительно, и продолжающееся развитие технологий только усложнило различие между реальным и поддельным контентом. Хотя технология deepfake все еще относительно нова, мы регулярно наблюдаем ее значимую роль в пугающих тенденциях в сфере мошенничества и кибер-преступности. Дипфейки стали серьезной проблемой для домашних и корпоративных пользователей, поскольку они используются преступниками для проведения мошеннических афер и атак с методами социальной инженерии, а также для распространения дезинформации.

По оценкам экспертов, ущерб от мошеннических афер с дипфейками в 2020 году превысил 250 миллионов долларов США, хотя данная технология пока еще находится на ранних стадиях своего развития! Нет никаких сомнений в том, что по мере развития технологии дипфейков будет совершенствоваться и то, как преступники используют эту технологию для атак как на домашних, так и на корпоративных пользователей.

Что такое дипфейк (deepfake)?

Дипфейк (deepfake) - это форма мультимедиа, которая накладывает существующее изображение или видео на контент, созданный искусственным интеллектом, который напоминает чей-то голос или внешний вид. Обычно называемые формой «синтетических медиа», дипфейки имитируют лица, движения и голоса людей с такой точностью, что их часто невозможно отличить от оригинала в реальной жизни без специальных инструментов.

Благодаря высокоразвитым алгоритмам машинного обучения можно манипулировать такими биометрическими данными как выражение лица и тон человеческого голоса, чтобы создавать реалистичное изображение событий, которые никогда не происходили. Хотя не все подделки используются со злым умыслом, но все же эта форма «цифрового олицетворения» часто использовалась для создания поддельных видео и убедительно реальных аудиозаписей людей, которые якобы осуществляли свои действия со злонамеренными целями, что вызывает опасения по поводу конфиденциальности и возможности обмана.

Как работает технология дипфейков?

Ключевым компонентом для создания глубокой подделки с помощью дипфейков является машинное обучение. Дипфейки полагаются на компьютерные системы искусственного интеллекта, называемые искусственными нейронными сетями, работа которых созвучна работе человеческого мозга, и предназначены для распознавания закономерностей среди большого массива данных. Именно здесь начинается создание дипфейков.

Чтобы создать дипфейковое видео с каким-нибудь человеком, автор начинает с загрузки в нейронную сеть сотен часов реальных видеоматериалов, на которых записан этот человек в разных ситуациях, чтобы как можно лучше «обучить» компьютер распознавать подробные закономерности и характеристики этого человека. Это делается для того, чтобы дать алгоритму реалистичное представление о том, как выглядит этот человек с разных сторон.

На следующем шаге осуществляется объединение обученной нейронной сети с методами компьютерной графики для наложения реальных кадров человека на синтезированные искусственным интеллектом лицевые и речевые паттерны, полученные из данных нейронной сети.

Хотя многие считают, что для создания дипфейков требуются сложные инструменты и экспертные навыки, это не так – их можно сделать даже с базовыми навыками компьютерной графики. Для более убедительных дипфейков действительно требуются более продвинутые методы, но все, что вам действительно нужно, - это доступ к видео или аудиозаписи того человека, которого вы хотите подделать. А это также не является проблемой, учитывая ошеломляющее количество доступных сегодня источников информации, в результате чего можно собрать достаточный объем исходного материала для подачи алгоритма и создания реалистичного дипфейка.

Какие риски? 3 Вида мошенничества с дипфейками

Быстрое развитие технологии дипфейка создало возможность для технически подкованных преступников нанести серьезный финансовый ущерб. Злоумышленники активно в своих интересах используют дипфейки для кражи персональных данных и кражи онлайн-личности, распространения дезинформации в обществе, финансового шантажа, мошенничества и автоматизированных кибер-атак. Ниже приведены некоторые распространенные виды мошенничества с помощью дипфейков.

Аферы с «мертвыми душами»

Афера с «мертвыми душами» заключается в том, что преступник крадет данные умершего человека и пытается использовать его в «живом виде» для получения финансовой выгоды. Украденная личность может быть использована для получения доступа к онлайн-сервисам и учетным записям или для подачи заявок на банковские карты, кредиты и т.д.

Аферы с открытием счетов

Мошенничество с открытием счетов заключается в том, чтобы использовать украденные или поддельные личности с целью открытия новых банковских счетов. Как только преступник открыл счет, он может нанести серьезный финансовый ущерб, обналичив кредитные карты или взяв кредиты, которые он не намерен возвращать.

Аферы с синтезированными личностями

Мошенничество с использованием синтезированных личностей – это более сложный вид мошенничества, который, как правило, труднее обнаружить. Вместо того чтобы использовать украденную личность одного человека, преступники добывают информацию и сведения по нескольким людям, чтобы создать/синтезировать нового «человека», которого на самом деле не существует. Затем эта синтезированная личность используется для крупных финансовых транзакций или получения новых кредитов.

Примеры атак с использованием дипфейков

Последние инновации существенно сократили количество времени и данных, необходимых для создания высокореалистичных дипфейков. По мере того как дипфейки станут более доступными, число известных атак, вероятно, будет продолжать расти. Приведенные ниже примеры дают представление о том, на что способна технология дипфейка.

Атака на руководителя энергетической компании

Эта афера с использованием дипфейка в 2019 году является первой известной атакой с использованием данной технологии, и она иллюстрирует «темную» сторону возможностей технологии дипфейков. Как в классическом случае корпоративного вымогательства, генеральный директор энергетической фирмы получил телефонный звонок якобы от своего босса. На самом деле, это был поддельный голос, сгенерированный искусственным интеллектом, но на слух это невозможно было определить, поэтому генеральный директор спокойно выполнил его поручение о переводе 243 000 долларов США в течение часа.

Атака на техническую компанию

В этой неудачной попытке аудио-дипфейка в 2020 году сотрудник одной технической компании получил странное голосовое сообщение от кого-то, чей голос был очень похож на голос генерального директора фирмы. В сообщении содержалась просьба о «немедленной помощи для завершения срочной деловой сделки». Однако сотрудник компании, следуя своим подозрениям, сообщил об этом в юридический отдел фирмы.

Хотя эта атака с использованием дипфейка в конечном счете не увенчалась успехом, но она является ярким примером тех типов атак, которые мы ожидаем увидеть в большом объеме по мере того, как технологические достижения и инструменты для создания дипфейков будут становиться все более доступными.

Как обнаружить аферу с дипфейком

Хотя в примере с атакой дипфейка на техническую компанию голос мошенника звучал аналогично голосу генерального директора, которого он изображал, легкий роботизированный тон голоса дипфейка в конечном итоге вызвал подозрения у сотрудника. Несколько похожих признаков могут подсказать вам о потенциальной подделке аудио или видео:

  • Неестественная интонация речи
  • Роботизированный тон
  • Неестественное моргание или движение человека на видео
  • Движения губ не синхронизированы с речью
  • Низкое качество звука или видео

Компании могут бороться с угрозой атаки с использованием дипфейков, главным образом, обучая своих сотрудников тому, как распознавать потенциальные подделки. Чаще всего обучение сотрудников мерам информационной безопасности является первой линией защиты компании от кибер-атак. Предоставление четких корпоративных правил реагирования и наличие системы внутренней проверки подозрительных сообщений является важным началом, когда речь заходит о безопасности целой компании.

Будущее дипфейков

Технология дипфейков (deepfake) достигла невероятного уровня развития всего за несколько лет. В то время как инструменты обнаружения дипфейков совершенствуются, улучшаются и возможности самих дипфейков. Например, в США в последнее время усилия властей были сосредоточены на дальнейших исследованиях в области понимания технологий дипфейков, в результате чего появляется все больше законов на уровне отдельных штатов для оказания поддержки жертвам дипфейков.

Первый в США закон о дипфейках был принят в 2020 году. Он криминализировал создание и распространение видео с дипфейками, которые не помечены должным образом, и разработал план дальнейших исследований и разработок средств обнаружения дипфейков.

Хотя дипфейки, безусловно, не являются первой угрозой в области информационной безопасности, но они представляют собой растущую проблему, которая потребует постоянных исследований о том, как предотвратить использование данной технологии преступниками. Организациям и частным лицам необходимо будет искать новые способы надлежащей защиты своих данных от все более изощренных кибер-атак.