Такие опасные дипфейки

Эксперты по безопасности начинают бить тревогу — технологии дипфейка могут стать причиной настоящего хаоса в обозримом будущем.

Термин дипфейк (Deepfake) происходит от deep learning (глубинное обучение) и fake (подделка). При генерации видео используются многоуровневые алгоритмы машинного обучения для извлечения все более сложных характеристик из необработанных входных данных.

Если прежде эти технологии применялись развлечения ради или в рекламе, то теперь их используют в корыстных политических целях. В уста и персонажей, и реальных лиц вкладывают слова, фразы, которые они не говорили. При этом картинка выглядит достаточно реалистично.

Применение технологии дипфейка, как рассказывает портал SecuryLab, многие неоднократно видели за последний месяц/ Лицо президента Украины Владимира Зеленского известно как никогда раньше и злоумышленники создают дипфейки с его участием. К примеру, на прошлой неделе в Сети стало распространяться дипфейк-видео, в котором Зеленский якобы призвал украинскую армию сложить оружие и сдаться. Сам украинский президент назвал это «детской провокацией». Позднее тоже самое провернули и с Владимиром Путиным.

Подобные технологии дипфейка могут стать причиной настоящего хаоса в будущем.

«Мы можем столкнуться с другими дипфейками, более впечатляющими и сложными, которые очень трудно отличить от настоящих», – сообщила специалист Канадского института международных отношений в области политик безопасности и обороны Эбби Макдональд (Abby MacDonald) журналистам Канадской телерадиовещательной корпорации (CBC).

Тем не менее, наличие дипфейков – это одно, а защита от них – совсем другое.

Технические подробности о создании дипфейков есть в материале на портале Хабр.
Несмотря на весьма впечатляющие результаты, дипфейки, создаваемые ИИ, не являются идеальными. У дипфейков есть ряд хорошо заметных (не для человека, для специализированного ПО) признаков, которые пока еще позволяют отличить реальность от вымысла. Это, например, нюансы освещения и теней, мигание, артикуляция, выражение и тон голоса. Для создания убедительного дипфейка все это нужно правильно комбинировать.

Достаточно часть в этом направлении используется Variational Autoencoder – VAE. Это генеративная модель, которая находит применение во многих областях исследований: от генерации новых человеческих лиц до создания полностью искусственной музыки. Что касается видео, то VAE позволяет достаточно быстро перенести особенности мимики и артикуляции определенного человека на сформированную объемную модель. VAE используется достаточно давно, но дипфейк, созданный при помощи этой технологии, несложно выявить.

С 2017 года развиваются генеративные состязательные сети (GAN). Здесь в единое целое объединены, по сути, две нейронные сети. Одна, «дискриминатор», определяет реалистичность модели, созданной другой нейросетью. На выходе получается модель, которая была «одобрена» и является наиболее реалистичной.

Приложения для создания дипфейков доступны даже на мобильных платформах.

«Я считаю, главный вопрос заключается в следующем: будет ли их (дипфейков – ред.) больше, в целом, по всему миру? Вот что по-настоящему пугает. Дело в том, что мы уже видели дипфейки, и до сих пор их было довольно легко развенчать, довольно легко показать, откуда они взялись. Но я думаю, что через некоторое время ситуация изменится», – сообщил профессор Нью-Йоркского университета Элиот Боренстейн (Eliot Borenstein).

Источник: SecurityLab

Loading

0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x