- Автор темы
- #1
На прошлой неделе компания Anthropic опубликовала отчет, в котором заявила, что китайская хак-группа GTG-1002 провела масштабную кибершпионскую операцию, автоматизировав до 90% своих атак с помощью ИИ-модели Claude Code. Эти заявления компании вызвали волну скептицизма со стороны ИБ-экспертов.
Согласно отчету Anthropic, в сентябре 2025 года компания обнаружила и остановила первую в истории масштабную киберкампанию, где ИИ работал практически автономно. Хакеры атаковали 30 организаций (технологические компании, финансовые институты, химические производители и госучреждения), причем некоторые из этих взломов были успешными.
В отчете представители Anthropic подчеркивали беспрецедентный уровень автоматизации атак:
После того как субагенты разрабатывали цепочки эксплоитов и создавали кастомные пейлоады, человек-оператор тратил от двух до десяти минут на проверку результатов работы ИИ и одобрение последующих действий.
Однако ИБ-сообщество встретило отчет Anthropic с большим скепсисом. Главные претензии экспертов заключались в следующем.
Отсутствие технических подробностей. В отчете Anthropic не предоставила ни единого индикатора компрометации (IOC), технических деталей атак или каких-либо доказательств содеянного GTG-1002.
Ничего нового среди использованных методов. Согласно отчету, хакеры использовали обычные опенсорсные инструменты, которые существуют много лет и легко детектируются. К тому же сама Anthropic признала, что Claude часто «галлюцинировал» — преувеличивал и подделывал результаты во время автономной работы. К примеру, Claude заявлял, что нашел учетные данные (которые не работали), или докладывал об обнаружении критически важных сведений, которые оказывались общедоступной информацией.
Кроме того, многие восприняли отчет компании Anthropic как обычный маркетинговый ход.
Большинство экспертов сходятся в том, что ИИ действительно помогает ускорить и упростить выполнение некоторых задач (например, сортировку и анализ логов или реверс-инжиниринг). Однако автономное выполнение сложных цепочкек действий с минимальным участием человека остается для ИИ недостижимым.
Согласно отчету Anthropic, в сентябре 2025 года компания обнаружила и остановила первую в истории масштабную киберкампанию, где ИИ работал практически автономно. Хакеры атаковали 30 организаций (технологические компании, финансовые институты, химические производители и госучреждения), причем некоторые из этих взломов были успешными.
В отчете представители Anthropic подчеркивали беспрецедентный уровень автоматизации атак:
По оценкам компании, люди вмешивались в происходящее только в 10-20% случаев — для принятия критических решений и проверки данных перед их хищением. Так, разработанный атакующими фреймворк якобы использовал Claude для оркестрации многоэтапных атак, которые затем выполнялись силами нескольких субагентов Claude, каждый из которых имел свои задачи: маппинг атаки, сканирование целевой инфраструктуры, поиск уязвимостей и исследование техник эксплуатации.«ИИ автономно обнаруживал уязвимости, эксплуатировал их в реальных операциях и проводил широкий спектр постэксплуатационных действий».
После того как субагенты разрабатывали цепочки эксплоитов и создавали кастомные пейлоады, человек-оператор тратил от двух до десяти минут на проверку результатов работы ИИ и одобрение последующих действий.
Однако ИБ-сообщество встретило отчет Anthropic с большим скепсисом. Главные претензии экспертов заключались в следующем.
Отсутствие технических подробностей. В отчете Anthropic не предоставила ни единого индикатора компрометации (IOC), технических деталей атак или каких-либо доказательств содеянного GTG-1002.
Двойные стандарты для ИИ. Исследователи задаются вопросом, почему злоумышленники якобы получают от моделей невероятные результаты, тогда как обычные пользователи сталкиваются с ограничениями и «галлюцинациями»?«Полное отсутствие IOC явно свидетельствует о том, что они не хотят, чтобы их в чем-то уличили», — считает известный ИБ-специалист Кевин Бомонт (Kevin Beaumont).
Низкая эффективность. Из 30 атакованных организаций успешно скомпрометировать удалось лишь «несколько». Исследователи не видят смысла в столь сложной автоматизации, если процент успешности атак настолько низок.«Я отказываюсь верить, что атакующие заставляют модели делать то, чего не удается другим, — заявляет Дэн Тентлер (Dan Tentler) из Phobos Group. — Почему модели дают им результат в 90% случаев, а нам приходится иметь дело с заискиванием, саботажем и галлюцинациями?»
Ничего нового среди использованных методов. Согласно отчету, хакеры использовали обычные опенсорсные инструменты, которые существуют много лет и легко детектируются. К тому же сама Anthropic признала, что Claude часто «галлюцинировал» — преувеличивал и подделывал результаты во время автономной работы. К примеру, Claude заявлял, что нашел учетные данные (которые не работали), или докладывал об обнаружении критически важных сведений, которые оказывались общедоступной информацией.
Кроме того, многие восприняли отчет компании Anthropic как обычный маркетинговый ход.
В своих комментариях эксперты сравнивают использование ИИ в кибератаках с инструментами вроде Metasploit и SEToolkit, которые существуют десятилетиями. Они бесспорно полезны и удобны, однако их появление не привело к качественному росту возможностей хакеров.«Эта штука от Anthropic — маркетинговая чушь. ИИ — это суперускоритель, но это не Skynet, он не способен думать. На самом деле это даже не искусственный интеллект (это маркетинговый трюк, придуманный людьми)», — пишет исследователь Дэниел Кард (Daniel Card).
Большинство экспертов сходятся в том, что ИИ действительно помогает ускорить и упростить выполнение некоторых задач (например, сортировку и анализ логов или реверс-инжиниринг). Однако автономное выполнение сложных цепочкек действий с минимальным участием человека остается для ИИ недостижимым.
