ПОДЕЛИТЬСЯ

Новое программное обеспечение категории «Deepfake» («Глубинная подделка») даёт возможность добавлять, редактировать либо вообще удалять те или иные слова из стенограммы видеоролика, и данные изменения будут не особо заметны для зрителей роликов.

Отныне можно брать любое видео с «говорящими головами» в кадре и добавлять, редактировать, а то и вовсе удалять слова выступающего также легко, как это делают с письменным текстом, к примеру, в текстовом редакторе Word. Новый алгоритм категории «Deepfake» может обрабатывать видео и звук, создавая, по сути, новый файл, в котором выступающий говорит примерно то, что необходимо вам.

Новый программный продукт – результат совместной работы членов команды исследователей из Стэндфордского университета, Института информатики имени Макса Планка, Принстонского университета и Adobe Research, которые утверждают, что в «идеальном мире» технология может быть использована для устранения необходимости проведения повторных съёмок в случае, когда актёр перепутал текст или при необходимости внесения изменений в сценарий.

Для изучения особенностей мимики говорящего алгоритму требуется около 40 минут «обучающего» видео и текст, который звучит в кадре. То есть, это совсем не тот вариант, когда вы можете всё запихнуть в короткое видео, и придётся поработать, если вы желаете получить хороший результат. Эти 40 минут видео дают алгоритму возможность определить, как изменяется мимика говорящего в момент произнесения им тех или иных звуков в оригинальном тексте видео.

После того, как вы отредактировали текст речи говорящего, алгоритм позволяет создать трёхмерную модель мимики лица говорящего, соответствующую произношению нужных слов. И уже на основании этого технология машинного обучения, известная как Neural Rendering, может закрасить трёхмерную модель реалистичными текстурами, которые выглядят практически неотличимо от реальности.

Если вы желаете создать своё видео и аудио с участием говорящего, вы можете воспользоваться программой VoCo, в основе которой лежит тот же принцип использования обучающего видео, позволяющего разбивать текст на фонемы, а затем создавать на основе полученных данных свой текст выступления, записанного знакомым голосом.

В команде осознают потенциальный риск, связанный с неэтичным использованием программного обеспечения. Мир ещё не сталкивался с масштабным «скандалом мистификаторов» – возможно, мы станем свидетелями использования подделок во время предвыборной президентской кампании в США в 2020 году. Легко себе представить, насколько эффективным инструментом может стать данная технология для введения в заблуждение доверчивой публики.

Ещё большее опасение вызывает мысль о том, что существование данной технологии и связанных с ней предубеждений позволит нечестным публичным персонам отрицать подлинность настоящих видеозаписей, если те показывают их в нехорошем свете. Как только мы станем свидетелями нескольких крупных «мистификаторских» скандалов, попавших на экраны телевизоров, не будучи выявленными редакторами, а затем разоблачённых, мы вступим в эпоху, когда люди не смогут более и не будут доверять ничему из того, что они видят на экране.

Группа исследователей, разработавшая данное программное обеспечение, делает робкие попытки обезопасить мир от его потенциального неэтичного использования, предлагая решение, позволяющее каждому пользователю программы опционно ставить «водяной знак», указывающий на то, что видео является фейком, и предоставлять полный список внесённых в него правок. Вполне очевидно, что данная мера не станет преградой для тех, кто собирается использовать технологию в своих корыстных целях.

В команде также предлагают другим исследователям разработать «улучшенную систему экспертизы, к примеру – цифровые и нецифровые технологии снятия отпечатков пальцев, определяющие наличие либо отсутствие манипуляций, произведенных над видео в корыстных целях». И действительно, в данной ситуации есть потенциальная возможность использования последовательности непрерывных записей в стиле блокчейна, которые позволяют сверять каждый фрагмент видеозаписи с исходной точкой. Однако такая технология пока не существует, и неясно, каким образом её можно внедрять в глобальных масштабах.

Если не говорить о поиске отпечатков пальцев, то многие (если не все) приложения с глубинным обучением уже работают над проблемой выявления подделок. В случае с использованием генеративно-состязательных сетей две сети соревнуются друг с другом – одна постоянно генерирует фейки, вторая постоянно пытается отличить фальшивку от оригинала. На протяжении миллионов таких попыток сеть, ищущая подделки, делает это всё более и более искусно, а сеть, генерирующая фальшивки, находит всё новые и новые способы ввести её в заблуждение.

Таким образом, чем более успешным становится автоматический поиск подделок, тем более качественными создаются новые фальшивки. Таким образом, телеканалы не смогут полагаться лишь на простой алгоритм для автоматического выявления фальшивых видео. Это сложная и серьёзная проблема, которая, несмотря на то, что лишь только наклёвывается, всё же практически гарантировано окажет серьёзное влияние на новостную журналистику в ближайшие десятилетия.

На видео, представленном ниже, видно, насколько лёгким является процесс обработки видеоконтента при использовании нового алгоритма.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Понравилось нас читать?

ПОДЕЛИТЬСЯ
Борис Скуратовский
Журналист, медиа-эксперт и «летописец» истории украинского радио. Образование: филолог (должен был обучать детишек английскому языку, а также украинскому языку и литературе, но в итоге просвещаю взрослых дядь и тёть, информируя их о новостях из мира радио, телевидения и сопутствующих технологий). За развитием телевидения и радио в Украине слежу с 1990 года – вначале как пассивный наблюдатель, а с февраля 1997, когда на страницах киномузыкального еженедельника «П’ятниця» впервые вышла моя рубрика «Новости радио», - как журналист. Впоследствии в разное время сотрудничал с такими изданиями, как газета «Хрещатик», а также журналы «Телерадіокур’єр», «Телемир», «Медиа-Эксперт» и рядом других. С 1998 по 2001 год работал на «Радио РОКС – Украина», где впервые получил возможность изучить радио «изнутри». Затем какое-то время работал редактором-наполнителем сайта радиостанции «ХИТ FM», а потом сотрудничал ещё с несколькими радиостанциями в качестве копирайтера. С 1999 года веду собственный интернет-портал ProRadio.Org.Ua, всецело посвящённый теме радиовещания в Украине. Люблю классический хард-рок, ценю оригинальность и нестандартность. Интересуюсь историей, лингвистикой, психологией.