- Автор темы
- #1
Представители Anthropic заявили, что три китайские ИИ-компании провели масштабные кампании по дистилляции модели Claude, сгенерировав свыше 16 млн запросов через 24 000 фейковых аккаунтов. При этом использование сервисов Anthropic в Китае запрещено.
В Anthropic пишут, что обнаружили «кампании промышленных масштабов», связанные с тремя китайскими лабораториями — DeepSeek, Moonshot AI и MiniMax. Якобы эти компании применяли против Claude дистилляцию — технику, при которой менее мощная модель обучается на ответах более сильной.
Такая практика представляет собой серьезную коммерческую и конкурентную проблему защиты интеллектуальной собственности. Ведь вместо того чтобы тратить миллиарды долларов и годы на обучение собственной LLM, можно попытаться использовать уже существующую модель как шорткат. В целом метод легален для обучения собственных моделей, но не для копирования чужих наработок.
Разработчики сообщают, что атаки исходили от 24 000 фиктивных аккаунтов, а также коммерческих прокси-сервисов, перепродающих доступ к топовым ИИ-моделям. Такие сервисы используют архитектуру типа hydra cluster — крупные сети фейковых учетных записей для распределения трафика. Отмечается, что в одном случае единственная прокси-сеть управляла более чем 20 000 аккаунтов, подмешивая запросы для дистилляции к легитимным.
Масштабы различались. Так, в Anthropic сообщают, что разработчики DeepSeek провели свыше 150 000 обменов сообщениями с Claude, оценивая логические способности модели и нацеливаясь на генерацию «безопасных с точки зрения цензуры» ответов на политически чувствительные темы.
Moonshot AI сгенерировала более 3,4 млн запросов, в основном связанных с автономными возможностями Claude, кодингом, использованием инструментов и компьютерным зрением.
MiniMax стала рекордсменом — свыше 13 млн обменов сообщениями с фокусом на кодинг. При этом в MiniMax перебросили почти половину трафика на новейшую модель Claude сразу после ее запуска.
В Anthropic подчеркнули, что масштаб атак «требует доступа к продвинутым чипам», а значит, это подтверждает необходимость мер экспортного контроля. Дело в том, что обвинения в адрес китайских компаний прозвучали на фоне споров об экспорте ИИ-чипов: в прошлом месяце администрация Трампа разрешила Nvidia поставлять продвинутые чипы в Китай.
Также в компании заявляют, что дистилляция может создать риски для национальной безопасности США, и модели, построенные на незаконной дистилляции, лишены защитных механизмов, а их возможности могут использоваться для киберопераций, дезинформации и массовой слежки.
Для противодействия таким атакам в Anthropic создали классификаторы и системы поведенческого фингерпринтинга для выявления дистилляции в API-трафике, а также внедрили меры, снижающие эффективность ответов модели при подобных атаках.
Отметим, что публикация Anthropic вызвала волну критики и обвинений в лицемерии. Причем критика обрушилась не на китайские лаборатории, а на саму компанию. К примеру, Илон Маск (Elon Musk) в X назвал Anthropic «невыносимо самодовольными и лицемерными» и напомнил, что в прошлом году компания выплатила 1,5 млрд долларов на урегулирование иска, который был связан с использованием пиратских книг во время обучения Claude.
Как отмечает издание Fortune, пользователи в сети вспомнили иски к Anthropic не только за нелицензированное использование книг, но и за скрапинг Reddit.
Критики подчеркивают, что компания, построившая бизнес на нелицензированных данных миллионов авторов и веб-издателей, теперь жалуется, что конкуренты делают с ней нечто похожее. При этом отмечается, что китайские компании хотя бы платили за доступ к API, тогда как авторы и издатели, чьи работы использовались для обучения Claude, не получили ничего.
В Anthropic пишут, что обнаружили «кампании промышленных масштабов», связанные с тремя китайскими лабораториями — DeepSeek, Moonshot AI и MiniMax. Якобы эти компании применяли против Claude дистилляцию — технику, при которой менее мощная модель обучается на ответах более сильной.
Такая практика представляет собой серьезную коммерческую и конкурентную проблему защиты интеллектуальной собственности. Ведь вместо того чтобы тратить миллиарды долларов и годы на обучение собственной LLM, можно попытаться использовать уже существующую модель как шорткат. В целом метод легален для обучения собственных моделей, но не для копирования чужих наработок.
Разработчики сообщают, что атаки исходили от 24 000 фиктивных аккаунтов, а также коммерческих прокси-сервисов, перепродающих доступ к топовым ИИ-моделям. Такие сервисы используют архитектуру типа hydra cluster — крупные сети фейковых учетных записей для распределения трафика. Отмечается, что в одном случае единственная прокси-сеть управляла более чем 20 000 аккаунтов, подмешивая запросы для дистилляции к легитимным.
Масштабы различались. Так, в Anthropic сообщают, что разработчики DeepSeek провели свыше 150 000 обменов сообщениями с Claude, оценивая логические способности модели и нацеливаясь на генерацию «безопасных с точки зрения цензуры» ответов на политически чувствительные темы.
Moonshot AI сгенерировала более 3,4 млн запросов, в основном связанных с автономными возможностями Claude, кодингом, использованием инструментов и компьютерным зрением.
MiniMax стала рекордсменом — свыше 13 млн обменов сообщениями с фокусом на кодинг. При этом в MiniMax перебросили почти половину трафика на новейшую модель Claude сразу после ее запуска.
В Anthropic подчеркнули, что масштаб атак «требует доступа к продвинутым чипам», а значит, это подтверждает необходимость мер экспортного контроля. Дело в том, что обвинения в адрес китайских компаний прозвучали на фоне споров об экспорте ИИ-чипов: в прошлом месяце администрация Трампа разрешила Nvidia поставлять продвинутые чипы в Китай.
Также в компании заявляют, что дистилляция может создать риски для национальной безопасности США, и модели, построенные на незаконной дистилляции, лишены защитных механизмов, а их возможности могут использоваться для киберопераций, дезинформации и массовой слежки.
Для противодействия таким атакам в Anthropic создали классификаторы и системы поведенческого фингерпринтинга для выявления дистилляции в API-трафике, а также внедрили меры, снижающие эффективность ответов модели при подобных атаках.
Отметим, что публикация Anthropic вызвала волну критики и обвинений в лицемерии. Причем критика обрушилась не на китайские лаборатории, а на саму компанию. К примеру, Илон Маск (Elon Musk) в X назвал Anthropic «невыносимо самодовольными и лицемерными» и напомнил, что в прошлом году компания выплатила 1,5 млрд долларов на урегулирование иска, который был связан с использованием пиратских книг во время обучения Claude.
Как отмечает издание Fortune, пользователи в сети вспомнили иски к Anthropic не только за нелицензированное использование книг, но и за скрапинг Reddit.
Критики подчеркивают, что компания, построившая бизнес на нелицензированных данных миллионов авторов и веб-издателей, теперь жалуется, что конкуренты делают с ней нечто похожее. При этом отмечается, что китайские компании хотя бы платили за доступ к API, тогда как авторы и издатели, чьи работы использовались для обучения Claude, не получили ничего.
