Популярные криптовалюты

BTC $103,561.93 +0.79%
SOL $243.36 +10.79%
ETH $3,293.21 -3.29%
XRP $3.1691 -2.10%
DOGE $0.39867 -2.70%
PEPE $0.0000188 -3.78%
SUI $4.6759 -4.61%

Исследование: голосовые дипфейки научились обманывать устройства распознавания речи

AI $0.6332 -7.33%

Группа исследователей из Чикагского университета обнаружила, что алгоритмы копирования голоса способны обмануть как устройства распознавания речи, так и людей, которые их слушают. Ученые протестировали две самые известные дипфейк-модели — SV2TTS и AutoVC. Они собрали набор данных из 90 голосовых фрагментов длительностью до пяти минут из общедоступных источников. Ученые также привлекли 14 волонтеров, предоставивших образцы речи и доступ к своим устройствам. Затем исследователи протестировали обе системы, используя программное обеспечение с открытым исходным кодом Resemblyzer, — оно сравнивает записи голоса и дает оценку схожести образцов. Они также провели эксперимент, в ходе которого попытались получить доступ к устройствам, с функцией  распознавания голоса, с помощью синтезированных образцов речи. Исследователи обнаружили, что алгоритмы смогли обхитрить Resemblyzer почти в половине случаев. Они также выяснили, что дипфейки способны обмануть службу распознавания голоса Microsoft Azure примерно в 30% случаев, а помощника Amazon Alexa — в 62% случаев. 200 добровольцев также прослушали пары записей и попытались определить, принадлежат ли голоса одному и тому же человеку. В большинстве случаев алгоритмам удалось обмануть подопытных, особенно когда образцы относились к известным людям. По словам исследователей, инструменты имитирования голоса могут нанести серьезный ущерб в различных условиях: «Они могут обойти голосовые системы аутентификации, автоматические телефонные линии в банках, службы входа в мессенджеры, такие как WeChat. Это также приведет ко взлому служб, предоставляющих доступ к устройствам Интернета вещей, например цифровых помощников Amazon Alexa или Google Home». Ученые добавили, что голосовые дипфейки также могут напрямую атаковать конечных пользователей, дополняя традиционные фишинговые мошенничества знакомым человеческим голосом. Напомним, в сентябре мошенники использовали дипфейк Олега Тинькова для рекламы поддельного сайта «Тинькофф Инвестиции». В середине сентября ученые рассказали, как отличить подделку от реального фото. В апреле эксперт заявил, что количество дипфейков в интернете удваивается раз в шесть месяцев. В марте американская полиция арестовала женщину за травлю подростков с помощью сгенерированных фото. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

RSS 14.10.2021 2 106
Источник: https://forklog.com/issledovanie-golosovye-dipfejki-nauchilis-obmanyvat-ustrojstva-raspoznavaniya-rechi/