По данным Engadget , инструмент уже доступен ограниченному кругу участников партнерской программы видеохостинга.
Новый механизм защиты фокусируется исключительно на обнаружении изменений внешнего вида человека в видеоряде. В то же время, изменения голоса без согласия владельца функция пока не фиксирует. Это ограничение разработчики планируют устранить в последующих версиях системы.
Для активации функции пользователи должны пройти процедуру верификации личности. Процесс предполагает загрузку официального документа и запись короткого видеообращения. Дополнительно система требует предоставления оригинальных материалов, которые будут служить эталоном для сравнения.
Технология работает по принципу, аналогичному системе Content ID, которую платформа использует для мониторинга защищенных авторским правом аудиофайлов. Алгоритм анализирует загруженный контент и выявляет потенциальные совпадения с эталонными образцами. После обнаружения подозрительного материала владелец лица получает возможность просмотреть результаты и указать нарушения для дальнейшего удаления.
Внедрение инструмента происходит на фоне активного развития генеративных технологий создания видео. Особую обеспокоенность вызывает появление новых мощных моделей, в частности Sora 2 от компании OpenAI , которые значительно упрощают процесс создания реалистичных deepfake-материалов .
YouTube тестирует систему защиты от deepfake-видео