Активное использование инструментов на базе искусственного интеллекта для создания дипфейков угрожает криптосообществу. Технологии быстро развиваются и становятся доступнее — на этом фоне возникают вопросы к надежности систем проверки личности, которые используют централизованные криптобиржи. Госорганы принимают меры для ограничения дипфейков Фейковые видеоролики быстро распространяются по социальным сетям и усиливают опасения, связанные с новой волной дезинформации и The post Пользователи централизованных бирж сталкиваются с рисками из-за роста дипфейков appeared first on BeInCrypto.
Активное использование инструментов на базе искусственного интеллекта для создания дипфейков угрожает криптосообществу.
Технологии быстро развиваются и становятся доступнее — на этом фоне возникают вопросы к надежности систем проверки личности, которые используют централизованные криптобиржи.
Фейковые видеоролики быстро распространяются по социальным сетям и усиливают опасения, связанные с новой волной дезинформации и фейковых материалов. Злоупотребления такими технологиями подрывают общественную безопасность.
Проблема вышла на новый уровень — власти разных стран принимают законы, запрещающие использование дипфейков.
На этой неделе Малайзия и Индонезия первыми ограничили доступ к Grok — чат-боту на базе искусственного интеллекта от xAI, который создала команда Илона Маска. Чиновники пояснили, что решение связано с опасениями из-за создания с помощью ИИ откровенных изображений без согласия людей.
Генеральный прокурор Калифорнии Роб Бонта объявил о похожих мерах. В среду он подтвердил, что его ведомство расследует несколько случаев, связанных с публикацией откровенных изображений реальных людей без их согласия.
«Такой контент, где изображают женщин и детей обнаженными или в сексуализированных сценах, используют для травли в интернете. Призываю xAI немедленно принять меры, чтобы распространение подобных материалов прекратилось», — говорится в заявлении Бонты.
В отличие от ранних дипфейков, новые инструменты реагируют на запросы в реальном времени и могут правдоподобно воспроизводить мимику и движения губ, синхронизированные с речью.
В результате простые проверки — например, мигание, улыбка или движения головы — уже не дают гарантии, что перед камерой настоящий человек.
Подобные технологические изменения напрямую влияют на централизованные биржи, занимающиеся визуальной идентификацией пользователей при регистрации.
Финансовые последствия мошенничества с дипфейками уже ощущаются на практике.
Эксперты и исследователи из сферы технологий отмечают, что созданные искусственным интеллектом фото и видео все чаще появляются, например, при рассмотрении страховых случаев и судебных разбирательствах.
Пример дипфейка для регистрации на биржеКриптоплатформы, работающие по всему миру и часто использующие автоматическую регистрацию пользователей, могут стать удобной мишенью для подобных действий, если защитные меры не будут развиваться вместе с технологиями.
По мере того как ИИ-контент становится доступнее, доверять только визуальной верификации уже недостаточно.
Перед криптоплатформами стоит задача — реагировать быстрее, пока развитие технологий не оставило защитные инструменты позади и не создало угрозу для пользователей и сервисов.
Хотите получить доступ к экспертным инсайдам? Подписывайтесь на наш телеграм-канал, получайте доступ торговым сигналам и новостям рынка, общайтесь с нашим аналитиком. Будьте на шаг впереди рынка каждый день!
The post Пользователи централизованных бирж сталкиваются с рисками из-за роста дипфейков appeared first on BeInCrypto.