• Добро пожаловать на сайт - Forumteam.bet !

    Что бы просматривать темы форума необходимо зарегестрироваться или войти в свой аккаунт.

    Группа в телеграме (подпишитесь, что бы не потерять нас) - ForumTeam Chat [Подписатся]
    Связь с администратором - @ftmadmin

Anthropic обвиняет DeepSeek, Moonshot AI и MiniMax в попытках копировать Claude

Article Publisher

Публикатор
Команда форума
Регистрация
05.02.25
Представители Anthropic заявили, что три китайские ИИ-компании провели масштабные кампании по дистилляции модели Claude, сгенерировав свыше 16 млн запросов через 24 000 фейковых аккаунтов. При этом использование сервисов Anthropic в Китае запрещено.

В Anthropic пишут, что обнаружили «кампании промышленных масштабов», связанные с тремя китайскими лабораториями — DeepSeek, Moonshot AI и MiniMax. Якобы эти компании применяли против Claude дистилляцию — технику, при которой менее мощная модель обучается на ответах более сильной.


Такая практика представляет собой серьезную коммерческую и конкурентную проблему защиты интеллектуальной собственности. Ведь вместо того чтобы тратить миллиарды долларов и годы на обучение собственной LLM, можно попытаться использовать уже существующую модель как шорткат. В целом метод легален для обучения собственных моделей, но не для копирования чужих наработок.

Разработчики сообщают, что атаки исходили от 24 000 фиктивных аккаунтов, а также коммерческих прокси-сервисов, перепродающих доступ к топовым ИИ-моделям. Такие сервисы используют архитектуру типа hydra cluster — крупные сети фейковых учетных записей для распределения трафика. Отмечается, что в одном случае единственная прокси-сеть управляла более чем 20 000 аккаунтов, подмешивая запросы для дистилляции к легитимным.

Масштабы различались. Так, в Anthropic сообщают, что разработчики DeepSeek провели свыше 150 000 обменов сообщениями с Claude, оценивая логические способности модели и нацеливаясь на генерацию «безопасных с точки зрения цензуры» ответов на политически чувствительные темы.

Moonshot AI сгенерировала более 3,4 млн запросов, в основном связанных с автономными возможностями Claude, кодингом, использованием инструментов и компьютерным зрением.

MiniMax стала рекордсменом — свыше 13 млн обменов сообщениями с фокусом на кодинг. При этом в MiniMax перебросили почти половину трафика на новейшую модель Claude сразу после ее запуска.

В Anthropic подчеркнули, что масштаб атак «требует доступа к продвинутым чипам», а значит, это подтверждает необходимость мер экспортного контроля. Дело в том, что обвинения в адрес китайских компаний прозвучали на фоне споров об экспорте ИИ-чипов: в прошлом месяце администрация Трампа разрешила Nvidia поставлять продвинутые чипы в Китай.

Также в компании заявляют, что дистилляция может создать риски для национальной безопасности США, и модели, построенные на незаконной дистилляции, лишены защитных механизмов, а их возможности могут использоваться для киберопераций, дезинформации и массовой слежки.

Для противодействия таким атакам в Anthropic создали классификаторы и системы поведенческого фингерпринтинга для выявления дистилляции в API-трафике, а также внедрили меры, снижающие эффективность ответов модели при подобных атаках.

Отметим, что публикация Anthropic вызвала волну критики и обвинений в лицемерии. Причем критика обрушилась не на китайские лаборатории, а на саму компанию. К примеру, Илон Маск (Elon Musk) в X назвал Anthropic «невыносимо самодовольными и лицемерными» и напомнил, что в прошлом году компания выплатила 1,5 млрд долларов на урегулирование иска, который был связан с использованием пиратских книг во время обучения Claude.

Как отмечает издание Fortune, пользователи в сети вспомнили иски к Anthropic не только за нелицензированное использование книг, но и за скрапинг Reddit.

Критики подчеркивают, что компания, построившая бизнес на нелицензированных данных миллионов авторов и веб-издателей, теперь жалуется, что конкуренты делают с ней нечто похожее. При этом отмечается, что китайские компании хотя бы платили за доступ к API, тогда как авторы и издатели, чьи работы использовались для обучения Claude, не получили ничего.
 
Сверху Снизу