Недавно организация OpenAI сообщила что разработали ИИ, который за 15 секунд может клонировать голос.
В свою очередь профессор Нинг Чжан из Университета Вашингтона в Сент-Луисе представил новый метод защиты от голосового клонирования, который эффективно противодействует возможным мошенническим действиям. Он разработал проект под названием DeFake, основанный на использовании адверсариального искусственного интеллекта для внедрения незаметных искажений в голосовые записи. Эти искажения делают клонирование голоса сложным и предотвращают их использование в мошеннических целях.
Принцип работы DeFake заключается в создании звуковых искажений, которые невидимы для человеческого слуха, но мешают искусственному интеллекту использовать записи. Такие методы защиты помогают предотвратить злоупотребление голосом других людей и обеспечивают безопасность пользователей от мошенничества.
OpenAI разработала ИИ, который за 15 секунд может клонировать голос
Источник: ferra