В сети появляются ролики порнографического содержания с известными людьми

Новые исследования, показывают тревожные результаты. Возросло создание фейковых (deepfake) видеороликов, причём почти в два раза, за последние девять месяцев. Есть свидетельства, что создание таких фейковых видеороликов приносит неплохие деньги.Хоть и большую тревогу вызвала мысль о том, что deepfake могут быть использованы в политических целях, есть доказательства, что подавляющую часть, составляют видеоролики порнографического содержания.

Компания по кибербезопасности Deeptrace произвела исследования, в ходе которых исследователи нашли 14 698 deepface видео. Для сравнения, в декабре 2018 года их количество составляло 7 964.

Они заявили, что 96% из них носят порнографическое содержание, при этом чаще всего с компьютерным лицом знаменитости, которое заменяет оригинальное лицо взрослого человека в сцене сексуального характера.

В то время, как во многих роликах такого содержания, обычно ранее были использованы лица американских и британских актрис, исследователи обнаружили, что южнокорейские поп-певцы, также начали вставляться в поддельные видео. Это означает, что явление стало глобальным.

Становится очевидно, что реальная опасность заключается в том, что технологию используют для кибер-издевательств.

Генри Адждер, руководитель отдела анализа исследований компании Deeptrace, говорит, что слишком много дискуссий о deepfakes не соответствует действительности.

“Дебаты касающийся политики и краткосрочных угроз ничто, по сравнению с тем, что deepfake видео с порнографическим содержанием, несут реальный вред”, — объяснил он.

Само существование Deeptrace свидетельствует о том, как быстро deepfake видео стали проблемой для корпораций и правительств.

Термин deepfake впервые был придуман Reddit в 2017 году и с этого момента, за два года появилась целая индустрия, чтобы с этого получать деньги.

В Deeptrace выяснили, что четыре тематических порнографических сайта с deepfake видео, которые поддерживались рекламой, привлекли 134 миллиона просмотров роликов с февраля 2018 года.

Приложения, позволяющие создать такого рода материал, в настоящее время активно распространяются.

Один независимый эксперт подчеркнул, что сейчас стало намного проще производить поддельные видео.

“Стало намного проще создавать deepfake видео с небольшим количеством основного материала — алгоритмы требуют все меньше и меньше количество видео или видеоматериалов для создания”, — объяснила Катя Бего, главный научный сотрудник инновационного фонда Nesta.

“Поскольку эта технология развивается со стремительной скоростью, политикам важно сейчас подумать об ответных мерах. Это означает не только разработку инструментов обнаружения и повышение осведомлённости общественности, но и рассмотрение лежащих в основе социальной и политической динамики, которые делают deepfakes потенциально опасными”.

Авторы отчёта Deeptrace, также рассказывают о сервисных онлайн порталах, которые продают и создают deepfake видео.

Один такой портал требовал 250 фотографий целевого объекта и два дня совершал обработку и создания видео. Deeptrace говорит, что цены бывают разные, но минимально всего лишь 2,99 долларов за видео.

Совместная работа между правозащитной организацией Witness Media Lab и Google, обнаружила, что создание deepfake по прежнему требует определённых навыков.

В докладе говорится, что на данный момент моделирование реальных лиц, чтобы это выглядело реалистично, требует команду людей со специальными навыками и технологиями.

Но длительный процесс упрощается, позволяя людям и без специальных навыков создать такого рода видео, которые конечно будут менее качественными, но сделанные на скорую руку.

Глядя на видео, которые помечены хэштегом deepfake на YouTube, понимаешь глядя на впечатляющие примеры того, как эта технология может быть полезна для тех, кто делает с её помощью действительно нужные вещи, а не то, что творится в мире на данный момент.

Источник: http://leisurecentre.ru/v-seti-poyavlyayutsya-roliki-pornograficheskogo-soderzhaniya-s-izvestnymi-lyudmi/