• Добро пожаловать на сайт - Forumteam.bet !

    Что бы просматривать темы форума необходимо зарегестрироваться или войти в свой аккаунт.

    Группа в телеграме (подпишитесь, что бы не потерять нас) - ForumTeam Chat [Подписатся]
    Связь с администратором - @ftmadmin

Crypto AI агенты научились находить уязвимости в смарт-контрактах и извлекать миллионы в симуляции

Article Publisher

Публикатор
Команда форума
Регистрация
05.02.25
Исследователи выяснили, что автономные AI агенты способны находить уязвимости в смарт-контрактах и извлекать из них деньги в симуляции. Потенциальный ущерб достигает $4,6 млн. Атаки выполняются автоматически и опираются на реальные ошибки в коде.

Бенчмарк для проверки назвали SCONE-bench. Он включает 405 контрактов, которые действительно взламывали с 2020 по 2025 годы. Каждый запускался в изолированной среде, в которой агент создавал эксплойт и тестировал его на практике.



$4,6 млн в симулированных атаках​

Выборка из 34 контрактов, взломанных после марта 2025 года, помогла оценить реальные возможности агентов. У моделей не было доступа к сведениям об этих взломах. Тем не менее Opus 4,5, Sonnet 4,5 и GPT-5 выявили уязвимости в 19 случаях. Суммарная симулированная прибыль достигла $4,6 млн.

Рост заметный: объем извлекаемых средств удваивался примерно каждые 1,3 месяца благодаря улучшенному планированию действий и точной работе с инструментами.

На скрине видно, как менялась сумма средств, которые разные модели смогли извлечь в симуляции, эксплуатируя уязвимости смарт-контрактов после 1 марта 2025 года.
На скрине показано, сколько денег разные модели извлекли в симуляции из уязвимостей смарт-контрактов, найденных после 1 марта 2025 года, и как этот показатель рос от поколения к поколению. Источник: anthropic

Два нулевых дня​

Нулевой день — это уязвимость, которую никто ранее не обнаружил и не задокументировал. Подобные баги считаются наиболее опасными, так как у разработчиков нет времени на исправление.



Для проверки на новых данных исследователи взяли 2 849 контрактов в сети BNB Chain. Код был верифицирован, ликвидность присутствовала. Официально уязвимостей в них не значилось.

Sonnet 4,5 и GPT-5 нашли две такие ошибки нулевого дня. Прибыль от их эксплуатации составила $3 694. Стоимость одного полного прохода GPT-5 — $3 476. Эксперимент окупился.

Примеры багов​

В одном токене забыли модификатор view. Из-за этого вызов функции менял состояние и увеличивал баланс вызывающего адреса. Агент многократно активировал метод и обменивал полученные токены через DEX. Прибыль в симуляции составляла около $2 500, а в период максимальной ликвидности могла достигать примерно $19 000.

В другом контракте для запуска токенов комиссия распределялась между контрактом и бенефициаром. Если бенефициар не был указан, проверка не выполнялась. Агент подставил свой адрес и вывел средства. Через несколько дней аналогичный баг использовали в реальной сети.



Экономика атак​

Анализ одного контракта обходился в $1,22. Поиск уязвимости — примерно $1 738. Средняя прибыль — $1 847. Чистый результат — около $109.

Наибольшие затраты приходились на проверку безопасных контрактов. В реальной атаке злоумышленники фильтруют их заранее: по структуре байткода, шаблонам функций, активности и ликвидности. Это снижает стоимость в разы.

Одновременно уменьшалось потребление токенов. За полгода — примерно на 70%.



На скрине видно, что каждая новая версия модели тратила меньше токенов на разработку успешного эксплойта уязвимого смарт-контракта.
На скрине показано, как у разных поколений моделей уменьшалось среднее число токенов, необходимых для создания успешного эксплойта смарт-контракта. Источник: anthropic

Риск для разработчиков​

Смарт-контракты подходят для подобных испытаний: код открыт, данные прозрачны, ошибки сразу приводят к убыткам. Навыки агентов легко переносятся на другие типы приложений. Логические дефекты встречаются в API, сервисах и внутренних инструментах.

AI системы уже находят значительную долю багов, которые в прошлом выявляли только вручную. Потенциальный ущерб вырос до $4,6 млн. Стоимость анализа упала. Интервал между публикацией кода и возможной атакой стал коротким.

Автоматический AI аудит превращается в необходимую практику. Иначе окно между релизом и попыткой взлома может оказаться критически малым.
 
Сверху Снизу