Anthropic cicho wypuściło nowy model AI stworzony z myślą o cyberbezpieczeństwie. Claude Mythos Preview to nie jest produkt dla każdego – firma od razu zastrzegła, że dostęp do niego będą miały wyłącznie starannie zweryfikowane organizacje.
Wśród pierwszych klientów znalazły się giganci: Amazon, Apple, Microsoft, Broadcom, Cisco i CrowdStrike. Anthropic potwierdziło też, że prowadzi rozmowy z rządem USA w sprawie wykorzystania modelu.
Czym jest Claude Mythos?
To model „ogólnego przeznaczenia” – jak opisuje go sam producent – ale z wyjątkowymi zdolnościami w obszarze bezpieczeństwa cyfrowego. Jest to pierwsza sytuacja, w której Anthropic zdecydowało się na ograniczony, kontrolowany dostęp właśnie ze względu na konkretne możliwości narzędzia.
I nie ma w tym nic dziwnego. Model potrafi:
- wykrywać luki bezpieczeństwa w skali niemożliwej do osiągnięcia przez ludzi
- identyfikować błędy w kodzie, które umykały zautomatyzowanym testom przez lata
- rozpoznawać tzw. zero-day vulnerabilities, czyli wcześniej nieznane luki
W ciągu ostatnich kilku tygodni Mythos wykrył tysiące takich luk, wiele z nich krytycznych, funkcjonujących w systemach od dekady lub dłużej. Jeden z przykładów robi szczególne wrażenie: model znalazł błąd w popularnym oprogramowaniu wideo, który miał 16 lat i który zautomatyzowane narzędzia testowe „wykonały” 5 milionów razy bez wykrycia problemu.
Możliwości kontra zagrożenia
Każdy nowy model AI w obszarze cyberbezpieczeństwa to broń obosieczna. Z jednej strony mamy realną szansę na systemowe uszczelnienie infrastruktury, której łatanie do tej pory było jak gaszenie pożaru kubłem wody. Z drugiej – narzędzie, które potrafi nie tylko znajdować luki, ale i uczyć się je wykorzystywać, w złych rękach staje się potencjalnie bardzo groźne. Pytanie brzmi: czy model kontrolowanego dostępu, jakkolwiek przemyślany, wystarczy w świecie, gdzie wycieki danych zdarzają się nawet najlepszym?
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
I tu właśnie zaczyna się trudniejsza część tej historii. Mythos nie tylko wykrywa luki – może też opracowywać sposoby ich exploitowania. To właśnie dlatego Anthropic zdecydowało się nie publikować modelu szeroko i trzymać go z dala od otwartego rynku.
Dianne Na Penn, szefowa działu zarządzania produktem i badań w Anthropic, ujęła to wprost: „We believe technologies like this are powerful enough to do a lot of really beneficial good but also potentially bad if they land in the wrong hands” / „Wierzymy, że technologie takie jak ta są wystarczająco potężne, by przynieść wiele realnych korzyści, ale też potencjalnie szkodliwe, jeśli trafią w niewłaściwe ręce.”
Sandbox uciekł do internetu
Testy modelu nie przebiegały bezproblemowo. Podczas jednego z nich Mythos wydostał się ze swojego środowiska sandbox – czyli izolowanego środowiska testowego zaprojektowanego tak, by model nie miał dostępu do sieci – i samodzielnie opublikował w internecie szczegóły dotyczące swojego obejścia zabezpieczeń.
Anthropic oficjalnie przyznało, że model zademonstrował „potentially dangerous capability for circumventing [the company’s] safeguards” / „potencjalnie niebezpieczną zdolność do obchodzenia zabezpieczeń firmy.”
Sam Bowman, badacz techniczny Anthropic, zaznaczył, że „scariest behaviors” / „najbardziej niepokojące zachowania” pochodziły ze wcześniejszych wersji modelu. Obecna iteracja jest „less likely” / „mniej skłonna” do wyciekania informacji, choć wciąż pozostaje „at least as capable of doing things like working around sandboxes” / „co najmniej równie zdolna do obchodzenia środowisk sandbox.”
Wyciek przed premierą i polityczne turbulencje
Ogłoszenie nie jest przypadkowe w tej konkretnej chwili. W zeszłym miesiącu szczegóły dotyczące Mythosa wyciekły do publicznie dostępnego zasobu danych – i trafiły do sieci zanim firma zdążyła sama je ogłosić. Następnie, w zeszłym tygodniu, doszło do kolejnego incydentu: do publicznego dostępu trafił wewnętrzny kod źródłowy asystenta Claude Code.
Anthropic za oba przypadki obwinia „ludzki błąd.”
W tle toczy się też napięty spór polityczny. Departament Obrony USA próbował oznaczył Anthropic jako ryzyko dla łańcucha dostaw – sąd tymczasowo zablokował tę próbę. Prezydent Donald Trump skrytykował firmę jako „leftwing nut jobs” po tym, jak odmówiła złagodzenia swoich „czerwonych linii” dotyczących zastosowań militarnych swojej technologii.
Mimo to rozmowy z rządem w sprawie Mythosa trwają. W lutym FT informowało, że Pentagon szuka narzędzi AI do operacji cybernetycznych, w tym identyfikowania infrastruktury przeciwników takich jak Chiny.
Pieniądze i open source
Anthropic przeznacza do 100 milionów dolarów w formie kredytów dla organizacji uczestniczących w projekcie, które w zamian mają dostarczać informacje zwrotne o swoich odkryciach. Dodatkowo firma przekaże 4 miliony dolarów grupom zajmującym się bezpieczeństwem open source, by pomóc w zabezpieczaniu otwartego oprogramowania, które często wiąże się z podwyższonym ryzykiem cybernetycznym.
