DeepSeek-R1 галлюцинирует в 14,3% случаев по данным Vectara, что в 4 раза больше, чем у V3. Эти данные сигнализируют о риске для токенов крипто-AI-агентов. The post Как трейдеры зарабатывают на галлюцинациях ИИ-агентов appeared first on BeInCrypto.
ИИ-агенты ошибаются чаще, чем кажется. По данным бенчмарка HHEM 2.1 от Vectara, reasoning-модель DeepSeek-R1 галлюцинирует с частотой 14,3% — почти в четыре раза выше, чем базовая DeepSeek-V3 с показателем 3,9%. Проблема не уникальна для DeepSeek: по обновленному рейтингу Vectara, все протестированные reasoning-модели — включая GPT-5, Claude Sonnet 4.5, Grok-4 — превышают порог 10%.
Для крипторынка, где сотни AI-агентов автономно торгуют, генерируют сигналы и управляют кошельками, каждая придуманная деталь — потенциальная точка входа для тех, кто умеет играть на чужих ошибках.
AIXBT, один из самых популярных AI-агентов в экосистеме Virtuals Protocol, рекламировал 416 токенов с винрейтом 48% и средней доходностью 19% на прибыльных позициях. Аналитик, Pix On Chain, насчитал 83% рекомендаций, которые принесли профит, на выборке из 210 токенов (при продаже на пике). Удерживание до текущего момента давало всего +4,57%.
Разница между 83% и 48% — вопрос тайминга. Кто продавал на пике, заработал до +54,7%. Кто держал — часто терял. Токены CONSENT и BARSIK из рекомендаций AIXBT потеряли 99,9% и 82,2% соответственно.
52% неудачных сигналов — не случайный шум. Когда ИИ-агент с сотнями тысяч подписчиков публикует рекомендацию, за ней следует предсказуемый всплеск объема. Трейдеры, которые распознают паттерн, открывают встречные позиции до того, как волна схлынет.
Неэффективности, создаваемые AI-агентами, работают на нескольких уровнях.
Reasoning-модели вроде DeepSeek-R1 востребованы у агентов, которым нужно планировать действия на несколько шагов вперед. Парадокс в том, что именно здесь галлюцинации наносят максимальный урон.
Аналитики Vectara обнаружили, что R1 склонна «перепомогать» — добавлять в ответ сведения, которых нет в исходном тексте. Такие уточнения могут быть сами по себе правдивыми, но все равно считаются галлюцинациями, потому что вносят недокументированные детали. По сводным данным отраслевых бенчмарков, R1 генерирует 71,7% «доброкачественных галлюцинаций» (правдоподобных, но не подтвержденных добавлений) против 36,8% у V3.
Одна придуманная деталь в начале цепочки рассуждений способна исказить все последующие шаги. Когда модель выдумывает ценовой уровень, партнерство или адрес контракта, ошибка оказывается в ончейне — и порождает реальные убытки для одних и реальную прибыль для других.
Уязвимости не ограничиваются галлюцинациями в текстовых ответах. В январе 2026 года платформа Step Finance на Solana потеряла около $40 миллионов после того, как злоумышленники скомпрометировали устройства команды и получили доступ к кошелькам. ИИ-торговые агенты, интегрированные в платформу, усилили ущерб: их протоколы разрешали избыточные операции без надлежащей изоляции. Токен STEP рухнул на 97%.
В том же периоде общий объем потерь от инцидентов безопасности, связанных с AI-агентами, превысил $45 миллионов. Атаки 2026 года изменили модель угроз: целью стала не логика смарт-контрактов, а «мозг» агента — его долговременная память и протоколы подключения к торговым инструментам.
Ян Лекун, главный специалист по искусственному интеллекту в признанной в РФ экстремистской Meta, убежден: авторегрессионные языковые модели не способны полностью избавиться от галлюцинаций. По его мнению, сама архитектура не содержит устойчивой модели мира.
Обучение с подкреплением по цепочке рассуждений помогает в узких областях — математике, программировании. Но корневая причина остается. Другие лаборатории не согласны: результаты бенчмарков улучшаются за счет дообучения, постобработки и использования верификаторов. Однако пока ни один подход не устранил проблему полностью.
Сегмент AI-агентов продолжает расти. Но структура рынка в мае 2026 года отличается от спекулятивного бума конца 2024 года. Часть проектов выпустила работающие продукты. Другие потеряли ликвидность и аудиторию. Рынок все отчетливее разделяет эти две группы.
Для трейдеров, которые понимают механику галлюцинаций, разрыв между тем, что AI-агент говорит, и тем, что происходит на рынке, — измеримый и торгуемый сигнал. Системы верификации, которые проверяют каждое утверждение модели отдельным этапом, могут снизить частоту ошибок. Но пока их нет в большинстве агентов, неэффективности остаются — и на них зарабатывают те, кто смотрит на AI-сигналы как на данные, а не как на истину.
Хотите получить доступ к экспертным инсайдам? Подписывайтесь на наш телеграм-канал, получайте доступ торговым сигналам и новостям рынка, общайтесь с нашим аналитиком. Будьте на шаг впереди рынка каждый день!
The post Как трейдеры зарабатывают на галлюцинациях ИИ-агентов appeared first on BeInCrypto.