• Добро пожаловать на сайт - Forumteam.bet !

    Что бы просматривать темы форума необходимо зарегестрироваться или войти в свой аккаунт.

    Группа в телеграме (подпишитесь, что бы не потерять нас) - ForumTeam Chat [Подписатся]
    Связь с администратором - @ftmadmin

Crypto Как трейдеры зарабатывают на галлюцинациях ИИ-агентов

Article Publisher

Публикатор
Команда форума
Регистрация
05.02.25
ИИ-агенты ошибаются чаще, чем кажется. По данным бенчмарка HHEM 2.1 от Vectara, reasoning-модель DeepSeek-R1 галлюцинирует с частотой 14,3% — почти в четыре раза выше, чем базовая DeepSeek-V3 с показателем 3,9%. Проблема не уникальна для DeepSeek: по обновленному рейтингу Vectara, все протестированные reasoning-модели — включая GPT-5, Claude Sonnet 4.5, Grok-4 — превышают порог 10%.

Для крипторынка, где сотни AI-агентов автономно торгуют, генерируют сигналы и управляют кошельками, каждая придуманная деталь — потенциальная точка входа для тех, кто умеет играть на чужих ошибках.



Каждый второй сигнал AIXBT оказывается убыточным​

AIXBT, один из самых популярных AI-агентов в экосистеме Virtuals Protocol, рекламировал 416 токенов с винрейтом 48% и средней доходностью 19% на прибыльных позициях. Аналитик, Pix On Chain, насчитал 83% рекомендаций, которые принесли профит, на выборке из 210 токенов (при продаже на пике). Удерживание до текущего момента давало всего +4,57%.

Разница между 83% и 48% — вопрос тайминга. Кто продавал на пике, заработал до +54,7%. Кто держал — часто терял. Токены CONSENT и BARSIK из рекомендаций AIXBT потеряли 99,9% и 82,2% соответственно.

52% неудачных сигналов — не случайный шум. Когда ИИ-агент с сотнями тысяч подписчиков публикует рекомендацию, за ней следует предсказуемый всплеск объема. Трейдеры, которые распознают паттерн, открывают встречные позиции до того, как волна схлынет.

Как именно трейдеры монетизируют ошибки AI​

Неэффективности, создаваемые AI-агентами, работают на нескольких уровнях.

  • Фейдинг сигналов. Когда AI-агент публикует бычий вызов по малоликвидному токену, цена краткосрочно растет на притоке розничных покупателей. Опытные трейдеры фиксируют прибыль или открывают шорт в момент пика ажиотажа, рассчитывая на возврат к среднему.
  • MEV-извлечение. AI-агенты с доступом к кошельку совершают ончейн-транзакции, которые видны в мемпуле до подтверждения. MEV-боты выстраивают сэндвич-атаки вокруг таких сделок — покупают до транзакции агента и продают после, забирая спред. По данным отраслевых исследователей, в 2026 году AI-усиленные MEV-боты адаптируются в реальном времени, работают одновременно на нескольких блокчейнах и анализируют мемпулы Ethereum, Solana, Polygon и BNB Chain.
  • Арбитраж рынков прогнозов. В СМИ упоминают кейс, когда один автоматизированный бот провел 8894 сделки на коротких контрактах прогнозов и заработал около $150 000 без участия человека. Бот эксплуатировал моменты, когда контракты «да» и «нет» кратковременно суммировались до менее чем 1 доллара, фиксируя 1,5–3% на сделку.


Reasoning-модели опасны в многоступенчатых сценариях​

Reasoning-модели вроде DeepSeek-R1 востребованы у агентов, которым нужно планировать действия на несколько шагов вперед. Парадокс в том, что именно здесь галлюцинации наносят максимальный урон.

Аналитики Vectara обнаружили, что R1 склонна «перепомогать» — добавлять в ответ сведения, которых нет в исходном тексте. Такие уточнения могут быть сами по себе правдивыми, но все равно считаются галлюцинациями, потому что вносят недокументированные детали. По сводным данным отраслевых бенчмарков, R1 генерирует 71,7% «доброкачественных галлюцинаций» (правдоподобных, но не подтвержденных добавлений) против 36,8% у V3.

Одна придуманная деталь в начале цепочки рассуждений способна исказить все последующие шаги. Когда модель выдумывает ценовой уровень, партнерство или адрес контракта, ошибка оказывается в ончейне — и порождает реальные убытки для одних и реальную прибыль для других.

Когда AI-агент становится жертвой​

Уязвимости не ограничиваются галлюцинациями в текстовых ответах. В январе 2026 года платформа Step Finance на Solana потеряла около $40 миллионов после того, как злоумышленники скомпрометировали устройства команды и получили доступ к кошелькам. ИИ-торговые агенты, интегрированные в платформу, усилили ущерб: их протоколы разрешали избыточные операции без надлежащей изоляции. Токен STEP рухнул на 97%.

В том же периоде общий объем потерь от инцидентов безопасности, связанных с AI-агентами, превысил $45 миллионов. Атаки 2026 года изменили модель угроз: целью стала не логика смарт-контрактов, а «мозг» агента — его долговременная память и протоколы подключения к торговым инструментам.

Проблема в архитектуре, а не в настройке​

Ян Лекун, главный специалист по искусственному интеллекту в признанной в РФ экстремистской Meta, убежден: авторегрессионные языковые модели не способны полностью избавиться от галлюцинаций. По его мнению, сама архитектура не содержит устойчивой модели мира.

Обучение с подкреплением по цепочке рассуждений помогает в узких областях — математике, программировании. Но корневая причина остается. Другие лаборатории не согласны: результаты бенчмарков улучшаются за счет дообучения, постобработки и использования верификаторов. Однако пока ни один подход не устранил проблему полностью.

Рынок растет — и зависимость от галлюцинирующих моделей тоже​

Сегмент AI-агентов продолжает расти. Но структура рынка в мае 2026 года отличается от спекулятивного бума конца 2024 года. Часть проектов выпустила работающие продукты. Другие потеряли ликвидность и аудиторию. Рынок все отчетливее разделяет эти две группы.

Для трейдеров, которые понимают механику галлюцинаций, разрыв между тем, что AI-агент говорит, и тем, что происходит на рынке, — измеримый и торгуемый сигнал. Системы верификации, которые проверяют каждое утверждение модели отдельным этапом, могут снизить частоту ошибок. Но пока их нет в большинстве агентов, неэффективности остаются — и на них зарабатывают те, кто смотрит на AI-сигналы как на данные, а не как на истину.
 
Сверху Снизу