Anthropic pracuje nad nowym modelem AI, który ma stanowić jakościowy skok w stosunku do wszystkiego, co firma dotychczas wypuściła na rynek. Informacja wyszła na jaw nie przez oficjalny komunikat prasowy, ale przez zwykłą ludzką pomyłkę – ktoś zostawił wewnętrzne dokumenty w publicznie dostępnym miejscu w sieci.
Redakcja Fortune natknęła się na nieogłoszony jeszcze wpis blogowy przechowywany w niezabezpieczonym, publicznie przeszukiwalnym cache danych. Model nosi nazwę „Claude Mythos”, choć w dokumentach pojawia się również nazwa „Capybara” – zdaniem ekspertów odnoszą się do tego samego systemu. Firma potwierdziła fakt prowadzenia prac i testów, nie ukrywając, że chodzi o coś naprawdę poważnego.
Nowa kategoria: ponad Opus
Dotychczas modele Anthropic dzieliły się na trzy poziomy: Haiku (mały i szybki), Sonnet (balans między możliwościami a kosztem) i Opus (największy, najdroższy, najzdolniejszy). Capybara/Mythos ma jednak tworzyć zupełnie nową kategorię – wyżej niż Opus.
W przechwyconej treści dokumentu Anthropic wprost napisało: „Capybara is a new name for a new tier of model: larger and more intelligent than our Opus models – which were, until now, our most powerful.”
Rzecznik firmy potwierdził Fortunę, że model „represents a step change” i jest „the most capable we’ve built to date.” Trwają testy z wąską grupą klientów z wczesnym dostępem (early access customers), bo model jest drogi w obsłudze i nie jest jeszcze gotowy na masowe wdrożenie.
Wyciek danych i ludzka nieuwaga
Sprawa wyszła na jaw dzięki błędowi konfiguracyjnemu w systemie CMS (systemie zarządzania treścią), z którego korzysta Anthropic do publikowania swojego bloga. Pliki przesyłane przez system były domyślnie ustawione jako publiczne – o ile użytkownik nie zmienił ręcznie ustawień prywatności. Nikt tego nie zrobił.
Roy Paz, starszy badacz bezpieczeństwa AI w LayerX Security, oraz Alexandre Pauwels z Uniwersytetu Cambridge zlokalizowali i przeanalizowali wyciekły materiał. Według szacunków Pauwelsa w publicznie dostępnym cache znajdowało się blisko 3000 zasobów powiązanych z blogiem Anthropic, które nigdy nie zostały oficjalnie opublikowane.
Po otrzymaniu pytań od redakcji Fortune firma usunęła możliwość przeszukiwania zasobu. W oświadczeniu przyznała, że doszło do „human error” w konfiguracji systemu.
Największe ryzyko: cyberbezpieczeństwo
To, co szczególnie rzuca się w oczy w wyciekłych dokumentach, to wyraźny niepokój samego Anthropic dotyczący potencjału nowego modelu w obszarze cyberbezpieczeństwa.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
To bardzo ciekawy moment. Z jednej strony Anthropic zachowuje się odpowiedzialnie – sam przyznaje, że model „is currently far ahead of any other AI model in cyber capabilities” i zamiast go po prostu wypuścić, prowadzi ostrożne testy. To godne pochwały. Z drugiej strony warto zadać pytanie: czy branża AI zbliża się do punktu, w którym najnowsze systemy stają się zbyt niebezpieczne, żeby udostępniać je szeroko? I czy firmy, które same te modele budują, są odpowiednim arbitrem takich decyzji? Historia z wyciekiem pokazuje też coś innego – nawet dobrze finansowane firmy popełniają banalne błędy operacyjne. Jeśli ktoś zostawia takie dokumenty w publicznie dostępnym miejscu, to jak wygląda bezpieczeństwo w obszarach naprawdę wrażliwych?
W wyciekłym materiale Anthropic ostrzegało, że nowy model „presages an upcoming wave of models that can exploit vulnerabilities in ways that far outpace the efforts of defenders.” Firma planuje udostępnić go najpierw właśnie obrońcom cybernetycznym – po to, by mogli wzmocnić swoje systemy zanim zagrożenie stanie się powszechne.
Nie jest to zresztą nowy problem. Już w lutym, przy okazji premiery Claude Opus 4.6, Anthropic przyznało, że model potrafi wykrywać nieznane wcześniej luki w produkcyjnym kodzie. Podobne ostrzeżenia towarzyszyły wydaniu GPT-5.3-Codex przez OpenAI – był to pierwszy model, który firma zakwalifikowała jako „high capability” pod kątem zadań związanych z cyberatakami.
Anthropic dokumentowało już rzeczywiste przypadki nadużyć:
- Grupy hakerskie powiązane z chińskim rządem próbowały wykorzystać Claude do ataków
- W jednym udokumentowanym przypadku chińska, sponsorowana przez państwo grupa używała Claude Code do infiltracji około 30 organizacji – w tym firm technologicznych, instytucji finansowych i agencji rządowych
- Anthropic wykryło operację, zablokowało konta i powiadomiło poszkodowane organizacje
Ekskluzywny szczyt CEO w Anglii
W wycieku znalazł się też inny dokument – PDF opisujący planowane, zamknięte spotkanie dla szefów europejskich firm. Dwudniowe wydarzenie ma odbyć się w osiemnastowiecznym angielskim dworku, który dziś pełni funkcję hotelu i spa. Dario Amodei, CEO Anthropic, będzie uczestniczył osobiście. Attendees opisano jako „Europe’s most influential business leaders” – bez podania nazwisk.
Uczestnicy mają usłyszeć od polityków o wdrażaniu AI w biznesie i osobiście przetestować nieogłoszone jeszcze możliwości Claude’a. Rzecznik Anthropic potwierdził, że „is part of an ongoing series of events we’ve hosted over the past year.”
Co dalej z Mythosem?
Model nie trafi szybko do ogólnej dostępności. Anthropic wyraźnie komunikuje ostrożną strategię wdrożenia, podyktowaną zarówno kosztami, jak i kwestiami bezpieczeństwa. Na razie testy prowadzi wąska grupa wybranych klientów biznesowych.
Kilka rzeczy, które wiemy na pewno z wyciekłych dokumentów i oficjalnych potwierdzeń:
- Model przewyższa Claude Opus 4.6 w testach z zakresu kodowania, wnioskowania akademickiego i cyberbezpieczeństwa
- Jego możliwości w obszarze cyber są oceniane jako bezprecedensowe wśród dostępnych modeli AI
- Anthropic traktuje go jako „step change” – nie iterację, ale skok jakościowy
- Premiera będzie stopniowa i kontrolowana
Fakt, że świat dowiedział się o Mythosie przez przypadkowy wyciek, a nie przez zaplanowane ogłoszenie, jest sam w sobie symptomatyczny dla tempa, w jakim branża AI pędzi do przodu. Produkty są gotowe zanim firmy zdążą przygotować komunikację. Pytanie, czy to samo dotyczy gotowości na ich skutki.
