Получи случайную криптовалюту за регистрацию!

Создали инструмент для защиты от подделки голоса ИИ-модели да | Город будущего

Создали инструмент для защиты от подделки голоса

ИИ-модели давно уже способны воспроизвести голос даже по короткому отрывку записи. И все чаще эта технология используется для создания дипфейков не только для развлечения, но и с целью мошенничества. Новый инструмент AntiFake, созданный инженерами из Университета штата Вашингтон, защищает запись голоса от копирования ИИ путем добавления неслышимых человеческим ухом искажений. В результате для человека запись звучит как прежде, но когда алгоритм пытается воспроизвести голос, результат оказывается совершенно не похожим на оригинал.

Суть решения в том, чтобы усложнить для ИИ считывание ключевых голосовых характеристик из записей голоса. Ирония здесь в том, что в технологии используется метод, который изначально был частью инструментария киберпреступников, но теперь применяется для защиты от них. Проведенные тесты показали, что эффективность AntiFake в предотвращении синтеза убедительных дипфейков — более 95%.

src