Сооснователь Ethereum Виталик Бутерин предупредил криптопроекты об опасности использования искусственного интеллекта в системах управления. Разработчик выразил обеспокоенность после того, как новое обновление ChatGPT продемонстрировало серьезные уязвимости в сфере защиты данных. Эксплойты ИИ угрожают децентрализованному управлению «Если вы используете ИИ для распределения финансирования за вклад в проект, люди ОБЯЗАТЕЛЬНО будут добавлять взломы системы с требованиями передать… Сообщение Бутерин предупредил об опасности ИИ-управления в криптовалютных проектах появились сначала на Hash Telegraph.
Сооснователь Ethereum Виталик Бутерин предупредил криптопроекты об опасности использования искусственного интеллекта в системах управления. Разработчик выразил обеспокоенность после того, как новое обновление ChatGPT продемонстрировало серьезные уязвимости в сфере защиты данных.
«Если вы используете ИИ для распределения финансирования за вклад в проект, люди ОБЯЗАТЕЛЬНО будут добавлять взломы системы с требованиями передать им все средства везде, где только смогут», — написал Бутерин в субботу в соцсети X.
Таким образом разработчик отвечал на видео Эйто Миямуры (Eito Miyamura), создателя ИИ-платформы для данных EdisonWatch. Миямура продемонстрировал, как новую функцию ChatGPT, добавленную в среду, можно использовать для утечки приватной информации.
Многие участники криптосообщества активно внедряют ИИ для создания сложных торговых ботов и агентов управления портфелями. Это привело к идее, что технология могла бы помочь управляющим группам частично или полностью контролировать криптопротоколы.
Основатель Ethereum считает последний эксплойт ChatGPT доказательством того, что «наивное ИИ-управление — плохая идея». Взамен он предложил альтернативу под названием «подход информационных финансов».
«У вас есть открытый рынок, где любой может предоставить свои модели, которые подлежат механизму выборочной проверки. Его может запустить кто угодно, а оценивает человеческое жюри», — объяснил разработчик.
Бутерин писал об информационных финансах в ноябре 2024 года. Принцип работы простой: сначала определяется информация, которую нужно получить, затем создается рыночный механизм, мотивирующий участников предоставлять точные данные. Разработчик считает рынки предсказаний эффективным инструментом для сбора прогнозов о будущих событиях.
«Такой подход, где вы создаете открытую возможность для людей с большими языковыми моделями подключиться извне, вместо жесткого программирования одной модели самостоятельно, изначально более устойчив», — отметил Бутерин в своем посте.
Система обеспечивает разнообразие моделей в реальном времени и создает встроенные стимулы для разработчиков моделей и внешних участников, чтобы они следили за проблемами и быстро их исправляли.
В среду OpenAI обновила ChatGPT для поддержки инструментов Model Context Protocol — стандарта интеграции ИИ-моделей с другим программным обеспечением для работы в качестве агентов.
Миямура сообщил в своем посте в X, что смог заставить модель слить приватные данные электронной почты, используя только адрес жертвы. По его словам, обновление «создает серьезный риск безопасности».
Атакующий может отправить приглашение в календарь на email жертвы с «джейлбрейк-промптом». Даже если жертва не примет приглашение, ChatGPT можно взломать. Когда пользователь просит ИИ посмотреть календарь, искусственный интеллект читает приглашение с промптом и «захватывается атакующим, действуя по его команде». Это позволяет искать письма и пересылать их злоумышленнику.
Миямура отметил, что обновление требует ручного подтверждения человека, «но усталость от принятия решений — реальная вещь. Обычные люди просто доверяют ИИ, не зная, что делать, и нажимают кнопку «одобрить»». «ИИ может быть супер умным, но его можно обмануть и заставить сливать данные невероятно глупыми способами», — добавил он.
Самые интересные и важные новости на нашем канале в Telegram
Сообщение Бутерин предупредил об опасности ИИ-управления в криптовалютных проектах появились сначала на Hash Telegraph.