Дипфейки: что это такое и как защититься

Дипфейки: что это такое и как защититься
Марк Казаков
Специалист по информационной безопасности

Термин deepfake (дипфейк) составлен из двух слов: «глубинное обучение» (англ. deep learning) и «подделка» (англ. fake). С помощью технологии можно оживить фотографию, заменить лицо человека на видео, синхронизировать мимику двух людей или озвучить голосом известного человека нужный текст.

Начиналось все как безобидный эксперимент с обучением нейросети, и дипфэйк-ролики вызывали больше смеха, чем ощущения угрозы — например, те, в которых Том Круз отпускал шутки про Горбачева.

Но потенциал технологии довольно быстро разглядели мошенники.

В 2023 году рост преступлений, связанных с дипфейками, в США составил 1740%. А во всем мире от подобных преступлений пострадали уже более 10% компаний.


Дипфейк: технологии создания

Видео подобного плана — чаще всего результат работы генеративно-состязательных сетей (GAN, generative adversarial network). В такой модели друг другу противостоят две сети — генератор и дискриминатор; первая пытается обмануть вторую, и чем лучше у нее получается, тем качественнее будет дипфейк.

Дипфейки

Также подделки можно создавать с помощью технологий искусственного интеллекта — оживлять фотографии и персонажей, которых никогда не существовало в реальности, накладывать на ролики альтернативные аудиодорожки.

И нейросетям, и искусственному интеллекту для создания подделок нужны данные — видео, фото и запись голоса реального человека — поэтому до того, как сделать дипфейк, нужно собрать максимально возможное количество контента. В наше время это не проблема: данных достаточно в открытом доступе.

Технологий и вариантов дипфейкового контента много.

  • Face-swapping, буквально «пересадка лица», — технология, которую обычно подразумевают под термином «дипфейк» и которую использует одно из популярных приложений в широком доступе DeepFaceLab.

  • Lip syncing — технология, которая позволяет герою видео озвучивать совершенно другой текст, как в программе Wav2Lip.

  • Puppet master — перенос мимики и характеристик лица «донора» на исходное лицо; так умеет делать приложение Avatarify.

Существуют технологии дипфейков face synthesis и attribute editing, которые позволяют менять характеристики исходного лица — состаривать, омолаживать, добавлять аксессуары.

Не забываем об аудио-дипфейках — искажениях голоса, генерации речи и озвучке текста голосами людей, которые не могли бы озвучить его сами.

И, конечно, все технологии делятся на две большие группы:

  1. те, которые генерируют видео/аудио постфактум,

  2. те, которые осуществляют подмену в режиме реального времени — они сложнее, и времени на развитие до уровня высокого качества им нужно больше, но и потенциал у них выше, в том числе и в сфере киберпреступности.

Где применяют дипфейки

Первоначально дипфейки появились как результат естественного желания ответить на вопрос «А что могут нейросети?». Оказалось, что нейросети могут многое, и использовать их удобно в разных сферах.

В социальных сетях — для создания вирусного и развлекательного контента, например, забавных видеороликов с известными актерами (которые в них, конечно, не снимались). Дипфейк-Том Круз играет на гитаре, дипфейк-Киану Ривз по сто раз проверяет, выключил ли он утюг — лайки на дипфейк знаменитостей сыплются, как из рога изобилия.


Пример дипфейка

  • В киноиндустрии — для изменения лиц актеров без грима и для озвучки персонажей, которых не могут озвучить сами актеры. Пример дипфейка из мира кино: в фильме 2022 года «Топ Ган: Мэверик» за Айсмена в исполнении Вэла Килмера говорит модель для синтеза речи — актер тогда потерял голос из-за рака горла.

  • В работе распределенных команд — для поддержания зрительного контакта и повышения эффективности коммуникации. 12 января 2022 года компания Nvidia анонсировала дипфейк-технологию Nvidia Maxine Eye Contact, которая обеспечивает постоянный зрительный контакт пользователей при проведении сеансов видеоконференцсвязи — даже тогда, когда им нужно отвести глаза для просмотра документа в другой вкладке или пересылки файла.

Но «мирные» способы применения технологии deepfake — лишь вершина айсберга.

  • С помощью дипфейка легко скомпрометировать известного человека. Так, в Индии распространяли фейковые порноролики с журналисткой Раной Айюб, которая занималась разоблачением злоупотреблений властью.

  • Можно использовать образ человека, который вызывает доверие, для продвижения сомнительных продуктов в рекламе. В России клон Олега Тинькова какое-то время рекламировал схемы несуществующих доходов, а ссылки с роликов вели на мошеннические сайты.

  • Можно манипулировать крупными суммами денег, подменяя голоса руководителей компаний. В марте 2019 года генеральный директор британской энергетической компании перечислил €220 000 «венгерскому поставщику» после телефонного разговора с «высокопоставленным партнером из Германии». И эта история — не единственная.

  • Наконец, можно подменить голос близкого человека и даже его изображение — и вы будете уверены, что это именно ваш муж/брат или мама просят о помощи.

Да, известные люди становятся жертвами дипфейков чаще — но только потому, что информации о них, необходимой для обучения нейросети, намного больше. Это не значит, что дипфейки не существуют и не несут угрозы в мире обычных людей.

Как распознать дипфейк

Первые дипфейк-видео было легко отличить от реальных: расплывались контуры лиц, искажалось пространство, движения губ явно не успевали за аудиодорожкой, и сразу бросались в глаза «артефакты» — пятна фона, отсутсвующие детали, непроработанная фактура и так далее.

Однако совершенствование технологии привело к тому, что некоторые современные дипфейки нужно разбирать покадрово и буквально с лупой (а лучше — со специальным приложением), чтобы заметить подмену.

Как отличить дипфейк?

  • Обращайте внимание на контекст

Если человек на видео говорит или делает что-то, что он вряд ли бы сказал или сделал, — высок шанс, что это дипфейк.

  • Смотрите пристальнее

С каждой новой версией приложений для создания дипфейков они пропускают все меньше артефактов — но найти их можно! «Фейковые» персонажи неестественно моргают, странно двигают глазами, а иногда замирают на месте и шевелят только губами. Раньше такие недочеты были заметны постоянно, то теперь у вас буквально секунда или того меньше, чтобы заметить их.

  • Оцените в профиль

Нейросети обучаются на реально существующих изображениях, а в открытом доступе намного меньше изображений человека в профиль или 3/4, чем любых других. Именно эти моменты сложнее воспроизвести на дипфейк-видео.

  • Попробуйте другой способ связи

Если вами пытается манипулировать якобы близкий человек, но вы подозреваете, что это не его реальное изображение/голос, просто попробуйте связаться с ним по другому каналу.

  • Обратитесь к помощи специальных программ

Проект с открытым исходным кодом MesoNet, платформы Reality Defender или Sentinel помогут обнаружить дипфейк. А детектор FakeCatcher от Intel позволяет делать это даже в режиме реального времени — буквально, за миллисекунды и с точностью до 96%.

Как еще можно защититься от дипфейков

Как и во многих других случаях, лучшая защита в случае с дипфейками — это профилактика.

Что такое дипфейк

Когда сотрудник уже сидит на проводе с «директором департамента в Бельгии», он с низкой долей вероятности распознает подделку станет проверять этот звонок на подлинность. Но если в компании четко определены регламенты проведения операций с крупными суммами, и по телефону это не делается никогда, то он просто не станет продолжать разговор.

  • Проинформируйте сотрудников и членов семьи о дипфейках и связанных с ними рисках — врага надо знать в лицо, однако многие в принципе до сих пор не знают, что такое дипфейк.

  • Критически относитесь даже к видеозвонкам — подделать видео в режиме реального времени все еще сложно, но не невозможно.

  • Используйте резервное копирование данных, дважды думайте перед тем, как выложить что-то в открытый доступ, не пренебрегайте созданием сложных паролей — разных для каждого аккаунта. Относитесь к данным бережно.

Какое будущее ждет дипфейки

В некоторых странах использование дипфейков уже регулируется на законодательном уровне. Размещение роликов-имитаций ограничено крупнейшими сайтами, включая Reddit, Twitter и Facebook, в США с 2020 года закон запрещает использовать дипфейки для предвыборных махинаций, а в Китае, также с 2020 года, закон запрещает публикацию дипфейков без специальной пометки.

В России законодательных актов, направленных именно на борьбу с дипфейками, пока нет — но к их использованию вполне применимы уже существующие нормы, связанные со статьями о мошенничестве, защите деловой репутации и защите персональных данных.

Процесс развития технологии уже запущен, его не остановить: дипфейки будут совершенствоваться и использоваться дальше — как в мирных целях, так и нет.

При этом за безопасность данных и репутации каждый ответственен в первую очередь сам. В новой реальности, где дипфейки могут начать появляться из каждого утюга, особенно важно критически оценивать поступающую информацию, и помнить о том, что в мире цифрового контента становится все меньше ограничений.

Каталог

cookie
Сайт использует cookie-файлы.
Узнайте больше о нашей политике по использованию cookie‑файлов