Технология создания deepfake-видео получила распространение

Благодаря стремительному развитию инноваций граница между реальностью и виртуальным миром становится все более размытой. Сегодня с помощью новейших технологий мы можем заставить любого человека «сказать» все, что угодно. В частности речь идет о распространенных deepfake-видео.

deepfake-видео

Что такое «deepfake»?

Технология «deepfake» является методом синтеза изображения человека на основе технологии искусственного интеллекта. Она позволяет создавать фальшивые ролики с помощью наложения нужных слов в уже существующее видео или наоборот. Такие видео выглядят очень реалистичными. Основными жертвами таких видеороликов становятся знаменитости и общественные деятели. Как правило, в поддельных видео известные личности якобы говорят что-то обидное и провокационное.

По данным ESET, популярность deepfake-видео растет с каждым днем, в частности за последний год их количество увеличилось почти вдвое. Кроме этого, совершенствуется и качество таких видео. Например, в Интернет-сети распространен видеоролик с актером Хейдером, который без особых усилий превращается в Тома Круза. При этом меняется не только внешность, но и голос актера. При поиске deepfake-видео на YouTube, вы найдете множество роликов с публичными личностями на довольно разные темы.

В чем опасность deepfake-видео?

Технология «deepfake» набирает все большую популярность не только среди обычных пользователей, но и среди киберпреступников. Хотя этот тренд воспринимается более развлечение, но в дальнейшем такие фальшивые ролики могут стать причиной политических скандалов, а также быть использованы в кибератаках и других преступных схемах.

Все чаще технология «deepfake» помогает злоумышленникам осуществлять различные мошеннические операции. Например, мошенники, выдавая себя за генерального директора, просили срочно перевести большие суммы якобы на счет поставщика, а на самом деле указывали свой счет. Стоит отметить, что подделать голоса личностей, которые занимают управляющие должности, достаточно легко, поскольку они часто выступают в различных конференциях, часто общедоступных на YouTube.

Всеобщая угроза

Deepfake-видео представляют угрозу не только публичным личностям, но и обычным пользователям, даже вашим близким и коллегам. Например, «deepfake» могут использоваться для издевательств в школах или офисах.

Технология «deepfake» становится все доступнее для любого пользователя, а распознать фальшивку становится все труднее . И действительно, фейк-технологии совершенствуются с каждым днем, а вот развитие инструментов, способных распознать поддельный контент, пока находится на начальном уровне. Сегодня нет сервиса или технологии, которая смогла бы разоблачить «deepfake». Поэтому остается только полагаться на свою интуицию.

Меры предосторожности

Избежать мошеннических схем с использованием этой технологии, нацеленных на предприятия, помогут следующие меры предосторожности:

  • создайте совместное тайное слово с людьми, которым вам придется поручать определенные действия, например, руководитель, который может отдавать распоряжение работникам переводить деньги, может использовать определенное слово, известное только ему и финансовому отделу;
  • обсудите с работниками действия, которые вы никогда не попросите их сделать, чтобы распознавать мошеннические запросы;
  • для проверки любого запроса используйте различные способы коммуникации, например, если общение начинается текстовым сообщением, подтвердите, обратившись к лицу с помощью известных вам номера телефона или электронной почты.

Стоит отметить, что для создания максимально реалистичного видеоролика нужно собрать большое количество видео- и аудиозаписей конкретного человека, даже для короткого клипа. Сейчас это не является большой проблемой, поскольку множество наших фото и видео общедоступные в популярных соцсетях. Однако, в погоне за виртуальной популярностью не стоит забывать, что вся опубликованная информация может быть использована киберпреступниками.

Читайте больше новостей об ESET

Читайте обзоры:

-->