Специалисты британской компании NCC Group продемонстрировали технологию, способную воспроизводить голос человека практически мгновенно. Система генерирует синтетический голос с задержкой всего 0,5 секунды, что делает возможным ее использование во время телефонных разговоров. Об этом пишет ENGtechnica.
Новая разработка работает на стандартном оборудовании — для ее функционирования достаточно ноутбука с графическим процессором RTX A1000. Это существенно отличается от предыдущих решений, которые требовали предварительного синтеза голоса или работали со значительными задержками.
Технология не требует высококачественных образцов для создания голосового профиля. Даже аудиофайлы низкого качества становятся основой для генерации имитации. Специалисты совместили этот метод с подменой идентификатора абонента, что позволило реализовать атаки типа «дипфейк-вишинг» — мошеннические звонки с использованием искусственно созданного голоса.
Результаты тестирования показали высокую эффективность системы. В большинстве случаев люди не смогли отличить синтетический голос от настоящего. Технология воспроизводит индивидуальные характеристики речи, включая тембр, частотный диапазон и особенности интонирования.
Подписывайтесь на Mediasat в Telegram: здесь самые интересные новости из мира технологий
Эксперты NCC Group отмечают, что разработка демонстрирует комплексную проблему на стыке аппаратных решений, алгоритмов машинного обучения, телекоммуникационных сетей и информационной безопасности. Голосовая идентификация теряет статус надежного метода верификации личности, поскольку современные системы способны обманывать как человеческое восприятие, так и автоматизированные средства распознавания.
Компания рекомендует организациям переоценить уровень доверия к голосовым каналам коммуникации. Среди предложенных защитных мер — внедрение многоуровневой аутентификации, мониторинг нетипичных шаблонов входящих звонков и применение специализированных инструментов для выявления синтетического аудио.
Отметим, что дипфейк-угрозы касаются не только голоса. Именно поэтому YouTube недавно запустил тестирование системы, которая выявляет видео с поддельными лицами.
