Anthropic opublikowało w poniedziałek raport, który rozpalił dyskusję w całej branży AI. Firma oskarża trzy chińskie laboratoria o prowadzenie zorganizowanych kampanii „distillation attacks” na swoim modelu Claude – na skalę, której trudno nie nazwać przemysłowym szpiegostwem.
Chodzi o DeepSeek, Moonshot AI oraz MiniMax. Według Anthropic, te trzy firmy wygenerowały łącznie ponad 16 milionów wymian z Claude’em, korzystając z około 24 tysięcy fałszywych kont – wszystko w jawnym naruszeniu regulaminu usługi i regionalnych ograniczeń dostępu.
Czym jest „distillation” i dlaczego to problem?
Distillation to technika treningowa szeroko stosowana w branży AI – polega na tym, że słabszy model uczy się na odpowiedziach mocniejszego. Nic złego w tym nie ma, gdy robisz to na własnych modelach. Problem pojawia się, gdy bez zgody i wiedzy konkurenta używasz jego modelu jako nauczyciela dla siebie.
W tym przypadku skala jest uderzająca:
- DeepSeek – ponad 150 tysięcy wymian, skupionych na rozumowaniu i tworzeniu alternatyw dla zapytań drażliwych politycznie (czytaj: obejście cenzury)
- Moonshot AI – ponad 3,4 miliona wymian, celowanie w reasoning agentowy, kodowanie, analizę danych i computer vision
- MiniMax – ponad 13 milionów wymian, skupionych na agentycznym kodowaniu i orchestracji narzędzi
Anthropic podkreśla, że atakujący celowali w „najbardziej wyróżniające możliwości Claude’a” – agentic reasoning, tool use i coding. Nie przypadkowe próby, lecz precyzyjnie zaplanowane operacje.
Moment, który mówi wszystko
Najbardziej wymowny jest jeden szczegół z raportu. Kiedy Anthropic wypuściło nowy model w trakcie aktywnej kampanii MiniMax, chińska firma zareagowała błyskawicznie:
„When we released a new model during MiniMax’s active campaign, they pivoted within 24 hours, redirecting nearly half their traffic to capture capabilities from our latest system.”
24 godziny. To nie jest spontaniczne działanie – to zorganizowana operacja z jasnym celem i gotowymi procedurami reagowania.
Głos redaktora
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Trudno mi nie docenić tego, co Anthropic zrobiło tym raportem – bo to nie tylko skarga, to dobrze zagrany ruch PR i polityczny jednocześnie. Firma dostarcza konkretnych dowodów, liczb i nazw, co w tej branży zdarza się rzadko. Ale warto zachować chłodną głowę.
Po pierwsze, distillation od zawsze był elementem gry. OpenAI oskarżało innych, inni oskarżali OpenAI. Granica między „uczeniem się od najlepszych” a „kradzieżą” jest w AI wyjątkowo płynna. Po drugie, raport Anthropic wychodzi dokładnie wtedy, gdy administracja Trumpa dyskutuje o poluzowaniu kontroli eksportu chipów do Chin. Przypadek? Może. Ale warto pytać: czy firmy takie jak Anthropic nie mają interesu w zaostrzeniu tych regulacji, skoro same walczą o dominację na rynku?
Z drugiej strony – jeśli dane są prawdziwe, a nie mamy powodów zakładać że nie są – to jest to realna kradzież własności intelektualnej na przemysłową skalę. I to wymaga odpowiedzi.
Kontekst geopolityczny: chipy i kontrola eksportu
Anthropic nie przypadkowo publikuje raport właśnie teraz. W ubiegłym miesiącu administracja Trumpa formalnie zezwoliła firmom takim jak Nvidia na eksport zaawansowanych chipów AI (w tym H200) do Chin. Krytycy od razu alarmowali, że to wzmocni chińskie zdolności obliczeniowe w krytycznym momencie wyścigu o dominację w AI.
Anthropic wprost łączy oba wątki: „Distillation attacks reinforce the rationale for export controls: restricted chip access limits both direct model training and the scale of illicit distillation.”
Dmitri Alperovitch, współzałożyciel CrowdStrike i przewodniczący think-tanku Silverado Policy Accelerator, powiedział TechCrunch wprost:
„It’s been clear for a while now that part of the reason for the rapid progress of Chinese AI models has been theft via distillation of U.S. frontier models. Now we know this for a fact.”
Co dalej?
Anthropic zapowiada inwestycje w mechanizmy obronne, które mają utrudnić wykrywanie i przeprowadzanie tego typu ataków. Firma wzywa też do „skoordynowanej odpowiedzi całej branży AI, dostawców chmury i decydentów politycznych.”
DeepSeek, Moonshot i MiniMax nie skomentowały zarzutów.
Warto przypomnieć, że DeepSeek już w zeszłym roku zelektryzowało branżę, wypuszczając open-source’owy model R1, który niemal dorównywał zachodnim frontrunnerom przy ułamku kosztów. Teraz firma szykuje podobno DeepSeek V4, który ma prześcignąć zarówno Claude’a, jak i ChatGPT w kodowaniu. Skala operacji opisanych przez Anthropic może tłumaczyć, przynajmniej częściowo, skąd ten postęp się bierze.
Pytanie, które zadaje sobie teraz cała branża, brzmi jednak inaczej: jak zamknąć drzwi, skoro fundamentem całego ekosystemu AI jest to, że modele są dostępne dla każdego?
