Получи случайную криптовалюту за регистрацию!

Для клонирования голоса требуется лишь 15-секундный образец М | Tigran Ohanian

Для клонирования голоса требуется лишь 15-секундный образец

Модель OpenAI под названием Voice Generation разрабатывается с конца 2022 года и обеспечивает работу функции чтения вслух в ChatGPT

Компания OpenAI предлагает ограниченный доступ к разработанной ею платформе генерации текста в голос под названием Voice Engine, которая может создавать синтетический голос на основе 15-секундного отрывка чьего-либо голоса. Созданный ИИ голос может зачитывать текстовые подсказки по команде на том же языке, что и говорящий, или на ряде других языков.

Среди компаний, получивших доступ, - образовательная технологическая компания Age of Learning, платформа для создания визуальных историй HeyGen, производитель программного обеспечения для здравоохранения Dimagi, создатель коммуникационных приложений с искусственным интеллектом Livox и система здравоохранения Lifespan.

Модель была обучена на "смеси лицензированных и общедоступных данных". В OpenAI изданию сообщили, что модель будет доступна только примерно 10 разработчикам.

В то же время правительство США пытается пресечь неэтичное использование голосовых технологий ИИ. В прошлом месяце Федеральная комиссия по связи США запретила робозвонки с использованием голосов ИИ после того, как люди получили спам-звонки с клонированным ИИ голосом президента Джо Байдена.

По словам OpenAI, партнеры компании согласились соблюдать правила использования, согласно которым они не будут использовать Voice Generation для выдачи себя за людей или организации без их согласия. Кроме того, партнеры должны получить "явное и информированное согласие" оригинального диктора, не создавать способы, позволяющие отдельным пользователям создавать свои собственные голоса, и сообщать слушателям, что голоса генерируются искусственным интеллектом. OpenAI также добавила водяные знаки на аудиоклипы, чтобы отслеживать их происхождение и активно контролировать использование аудио.

OpenAI предложила несколько шагов, которые, по ее мнению, могут ограничить риски, связанные с подобными инструментами, включая постепенный отказ от голосовой аутентификации для доступа к банковским счетам, политику защиты использования голосов людей в ИИ, более широкое просвещение по вопросам глубоких подделок ИИ и разработку систем отслеживания контента ИИ.