Видеохостинг YouTube начал тестирование новой технологии защиты от deepfake-контента на своей платформе. Система предназначена для идентификации видеоматериалов, в которых искусственный интеллект (ИИ) используется для несанкционированной замены лиц пользователей. По данным Engadget, инструмент уже доступен ограниченному кругу участников партнерской программы видеохостинга.
Новый механизм защиты фокусируется исключительно на выявлении изменений внешнего вида человека в видеопотоке. В то же время изменения голоса без согласия владельца функция пока не фиксирует. Это ограничение разработчики планируют устранить в следующих версиях системы.
Для активации функции пользователи должны пройти процедуру верификации личности. Процесс предусматривает загрузку официального документа и запись короткого видеообращения. Дополнительно система требует предоставления оригинальных материалов, которые будут служить эталоном для сравнения.
Технология работает по принципу, аналогичному системе Content ID, которую платформа использует для мониторинга защищенных авторским правом аудиофайлов. Алгоритм анализирует загруженный контент и выявляет потенциальные совпадения с эталонными образцами. После обнаружения подозрительного материала владелец лица получает возможность просмотреть результаты и отметить нарушение для дальнейшего удаления.
Подписывайтесь на Mediasat в Telegram: здесь самые интересные новости из мира технологий
Внедрение инструмента происходит на фоне активного развития генеративных технологий создания видео. Особое беспокойство вызывает появление новых мощных моделей, в частности Sora 2 от компании OpenAI, которые значительно упрощают процесс создания реалистичных deepfake-материалов.
