Ученые придумали способ защиты клонирования голоса от ИИ

Недавно организация OpenAI сообщила что разработали ИИ, который за 15 секунд может клонировать голос.

В свою очередь профессор Нинг Чжан из Университета Вашингтона в Сент-Луисе представил новый метод защиты от голосового клонирования, который эффективно противодействует возможным мошенническим действиям. Он разработал проект под названием DeFake, основанный на использовании адверсариального искусственного интеллекта для внедрения незаметных искажений в голосовые записи. Эти искажения делают клонирование голоса сложным и предотвращают их использование в мошеннических целях.

Принцип работы DeFake заключается в создании звуковых искажений, которые невидимы для человеческого слуха, но мешают искусственному интеллекту использовать записи. Такие методы защиты помогают предотвратить злоупотребление голосом других людей и обеспечивают безопасность пользователей от мошенничества.

OpenAI разработала ИИ, который за 15 секунд может клонировать голос

Источник: ferra

Поделиться с друзьями
ASTERA