Термин deepfake (дипфейк) составлен из двух слов: «глубинное обучение» (англ. deep learning) и «подделка» (англ. fake). С помощью технологии можно оживить фотографию, заменить лицо человека на видео, синхронизировать мимику двух людей или озвучить голосом известного человека нужный текст.
Начиналось все как безобидный эксперимент с обучением нейросети, и дипфэйк-ролики вызывали больше смеха, чем ощущения угрозы — например, те, в которых Том Круз отпускал шутки про Горбачева.
Но потенциал технологии довольно быстро разглядели мошенники.
В 2023 году рост преступлений, связанных с дипфейками, в США составил 1740%. А во всем мире от подобных преступлений пострадали уже более 10% компаний.
Дипфейк: технологии создания
Видео подобного плана — чаще всего результат работы генеративно-состязательных сетей (GAN, generative adversarial network). В такой модели друг другу противостоят две сети — генератор и дискриминатор; первая пытается обмануть вторую, и чем лучше у нее получается, тем качественнее будет дипфейк.
Также подделки можно создавать с помощью технологий искусственного интеллекта — оживлять фотографии и персонажей, которых никогда не существовало в реальности, накладывать на ролики альтернативные аудиодорожки.
И нейросетям, и искусственному интеллекту для создания подделок нужны данные — видео, фото и запись голоса реального человека — поэтому до того, как сделать дипфейк, нужно собрать максимально возможное количество контента. В наше время это не проблема: данных достаточно в открытом доступе.
Технологий и вариантов дипфейкового контента много.
-
Face-swapping, буквально «пересадка лица», — технология, которую обычно подразумевают под термином «дипфейк» и которую использует одно из популярных приложений в широком доступе DeepFaceLab.
-
Lip syncing — технология, которая позволяет герою видео озвучивать совершенно другой текст, как в программе Wav2Lip.
-
Puppet master — перенос мимики и характеристик лица «донора» на исходное лицо; так умеет делать приложение Avatarify.
Существуют технологии дипфейков face synthesis и attribute editing, которые позволяют менять характеристики исходного лица — состаривать, омолаживать, добавлять аксессуары.
Не забываем об аудио-дипфейках — искажениях голоса, генерации речи и озвучке текста голосами людей, которые не могли бы озвучить его сами.
И, конечно, все технологии делятся на две большие группы:
-
те, которые генерируют видео/аудио постфактум,
-
те, которые осуществляют подмену в режиме реального времени — они сложнее, и времени на развитие до уровня высокого качества им нужно больше, но и потенциал у них выше, в том числе и в сфере киберпреступности.
Где применяют дипфейки
Первоначально дипфейки появились как результат естественного желания ответить на вопрос «А что могут нейросети?». Оказалось, что нейросети могут многое, и использовать их удобно в разных сферах.
В социальных сетях — для создания вирусного и развлекательного контента, например, забавных видеороликов с известными актерами (которые в них, конечно, не снимались). Дипфейк-Том Круз играет на гитаре, дипфейк-Киану Ривз по сто раз проверяет, выключил ли он утюг — лайки на дипфейк знаменитостей сыплются, как из рога изобилия.
-
В киноиндустрии — для изменения лиц актеров без грима и для озвучки персонажей, которых не могут озвучить сами актеры. Пример дипфейка из мира кино: в фильме 2022 года «Топ Ган: Мэверик» за Айсмена в исполнении Вэла Килмера говорит модель для синтеза речи — актер тогда потерял голос из-за рака горла.
-
В работе распределенных команд — для поддержания зрительного контакта и повышения эффективности коммуникации. 12 января 2022 года компания Nvidia анонсировала дипфейк-технологию Nvidia Maxine Eye Contact, которая обеспечивает постоянный зрительный контакт пользователей при проведении сеансов видеоконференцсвязи — даже тогда, когда им нужно отвести глаза для просмотра документа в другой вкладке или пересылки файла.
Но «мирные» способы применения технологии deepfake — лишь вершина айсберга.
-
С помощью дипфейка легко скомпрометировать известного человека. Так, в Индии распространяли фейковые порноролики с журналисткой Раной Айюб, которая занималась разоблачением злоупотреблений властью.
-
Можно использовать образ человека, который вызывает доверие, для продвижения сомнительных продуктов в рекламе. В России клон Олега Тинькова какое-то время рекламировал схемы несуществующих доходов, а ссылки с роликов вели на мошеннические сайты.
-
Можно манипулировать крупными суммами денег, подменяя голоса руководителей компаний. В марте 2019 года генеральный директор британской энергетической компании перечислил €220 000 «венгерскому поставщику» после телефонного разговора с «высокопоставленным партнером из Германии». И эта история — не единственная.
-
Наконец, можно подменить голос близкого человека и даже его изображение — и вы будете уверены, что это именно ваш муж/брат или мама просят о помощи.
Да, известные люди становятся жертвами дипфейков чаще — но только потому, что информации о них, необходимой для обучения нейросети, намного больше. Это не значит, что дипфейки не существуют и не несут угрозы в мире обычных людей.
Как распознать дипфейк
Первые дипфейк-видео было легко отличить от реальных: расплывались контуры лиц, искажалось пространство, движения губ явно не успевали за аудиодорожкой, и сразу бросались в глаза «артефакты» — пятна фона, отсутсвующие детали, непроработанная фактура и так далее.
Однако совершенствование технологии привело к тому, что некоторые современные дипфейки нужно разбирать покадрово и буквально с лупой (а лучше — со специальным приложением), чтобы заметить подмену.
Как отличить дипфейк?
-
Обращайте внимание на контекст
Если человек на видео говорит или делает что-то, что он вряд ли бы сказал или сделал, — высок шанс, что это дипфейк.
-
Смотрите пристальнее
С каждой новой версией приложений для создания дипфейков они пропускают все меньше артефактов — но найти их можно! «Фейковые» персонажи неестественно моргают, странно двигают глазами, а иногда замирают на месте и шевелят только губами. Раньше такие недочеты были заметны постоянно, то теперь у вас буквально секунда или того меньше, чтобы заметить их.
-
Оцените в профиль
Нейросети обучаются на реально существующих изображениях, а в открытом доступе намного меньше изображений человека в профиль или 3/4, чем любых других. Именно эти моменты сложнее воспроизвести на дипфейк-видео.
-
Попробуйте другой способ связи
Если вами пытается манипулировать якобы близкий человек, но вы подозреваете, что это не его реальное изображение/голос, просто попробуйте связаться с ним по другому каналу.
-
Обратитесь к помощи специальных программ
Проект с открытым исходным кодом MesoNet, платформы Reality Defender или Sentinel помогут обнаружить дипфейк. А детектор FakeCatcher от Intel позволяет делать это даже в режиме реального времени — буквально, за миллисекунды и с точностью до 96%.
Как еще можно защититься от дипфейков
Как и во многих других случаях, лучшая защита в случае с дипфейками — это профилактика.
Когда сотрудник уже сидит на проводе с «директором департамента в Бельгии», он с низкой долей вероятности распознает подделку станет проверять этот звонок на подлинность. Но если в компании четко определены регламенты проведения операций с крупными суммами, и по телефону это не делается никогда, то он просто не станет продолжать разговор.
-
Проинформируйте сотрудников и членов семьи о дипфейках и связанных с ними рисках — врага надо знать в лицо, однако многие в принципе до сих пор не знают, что такое дипфейк.
-
Критически относитесь даже к видеозвонкам — подделать видео в режиме реального времени все еще сложно, но не невозможно.
-
Используйте резервное копирование данных, дважды думайте перед тем, как выложить что-то в открытый доступ, не пренебрегайте созданием сложных паролей — разных для каждого аккаунта. Относитесь к данным бережно.
Какое будущее ждет дипфейки
В некоторых странах использование дипфейков уже регулируется на законодательном уровне. Размещение роликов-имитаций ограничено крупнейшими сайтами, включая Reddit, Twitter и Facebook, в США с 2020 года закон запрещает использовать дипфейки для предвыборных махинаций, а в Китае, также с 2020 года, закон запрещает публикацию дипфейков без специальной пометки.
В России законодательных актов, направленных именно на борьбу с дипфейками, пока нет — но к их использованию вполне применимы уже существующие нормы, связанные со статьями о мошенничестве, защите деловой репутации и защите персональных данных.
Процесс развития технологии уже запущен, его не остановить: дипфейки будут совершенствоваться и использоваться дальше — как в мирных целях, так и нет.
При этом за безопасность данных и репутации каждый ответственен в первую очередь сам. В новой реальности, где дипфейки могут начать появляться из каждого утюга, особенно важно критически оценивать поступающую информацию, и помнить о том, что в мире цифрового контента становится все меньше ограничений.