Goldman Sachs wdraża dodatkowe zabezpieczenia infrastruktury po tym, jak regulatorzy ostrzegli największe amerykańskie banki w sprawie najnowszego modelu AI od Anthropic – Claude Mythos Preview. CEO banku David Solomon potwierdził, że instytucja aktywnie „uzupełnia” swoje systemy ochrony cybernetycznej.
Sprawa nabrała rozmachu w zeszłym tygodniu, gdy sekretarz skarbu Scott Bessent oraz prezes Rezerwy Federalnej Jerome Powell zwołali pilne spotkanie z szefami największych banków na Wall Street. Tematem była jedna kwestia: czy nowy model AI od Anthropic otwiera drzwi do nowej ery zagrożeń cybernetycznych. Na sali zasiedli Brian Moynihan z Bank of America, Jane Fraser z Citigroup, David Solomon z Goldman Sachs, Ted Pick z Morgan Stanley oraz Charlie Scharf z Wells Fargo. Nieobecny był tylko Jamie Dimon z JPMorgan.
Czym jest Mythos i dlaczego budzi niepokój
Claude Mythos Preview to najnowszy model graniczny Anthropic, który w ciągu kilku tygodni testów zidentyfikował tysiące podatności zero-day w popularnych systemach operacyjnych – wiele z nich krytycznych, część liczących sobie dekady. Model nie był specjalnie trenowany pod kątem cyberbezpieczeństwa – jego możliwości wynikają z ogólnego wzrostu zdolności, który dotyczy całej klasy modeli granicznych.
Kluczową przewagą Mythos nad człowiekiem jest szybkość działania. Standardowy proces: znaleźć lukę, opracować exploit, powiadomić producenta, wydać łatkę – tradycyjnie zajmuje miesiące. Mythos radykalnie skraca ten cykl.
Analityczka Allie Mellen z firmy zajmującej się bezpieczeństwem operacyjnym AI ujęła to wprost:
„What we’re basically seeing these AI systems do now – if everything that they are saying in this announcement is accurate – is that time is compressed significantly. The time between anyone – not just a white-hat hacker, but also a black-hat hacker, or a nation-state or a cyber criminal gang – being able to identify and exploit those vulnerabilities is incredibly small.”
(„To, co obserwujemy teraz u tych systemów AI – jeśli wszystko, co mówią w tym ogłoszeniu, jest prawdą – to znaczące skrócenie czasu. Czas pomiędzy tym, kiedy ktokolwiek – nie tylko etyczny haker, ale też cyberprzestępca, państwo lub gang – może zidentyfikować i wykorzystać te luki, jest teraz niewyobrażalnie krótki.”)
Komentarz redaktora naczelnego
To jest ten moment, w którym AI przestaje być ciekawostką w dyskusjach o cyberbezpieczeństwie i staje się jego centralnym problemem. Z jednej strony mamy realną szansę: jeśli narzędzia takie jak Mythos zostaną udostępnione obrońcom zanim trafią w ręce przestępców, możemy łatać podatności w tempie dotychczas nieosiągalnym. Z drugiej – pytanie o to, co się stanie, gdy podobne możliwości pojawią się w modelach open source lub w rękach wrogich państw, pozostaje otwarte. Goldman Sachs wzmacnia dziś swoje systemy. Ale czy małe firmy, szpitale czy samorządy mają zasoby, żeby zrobić to samo? Myślę, że ten wyścig zostanie rozstrzygnięty nie przez to, kto ma najlepszy model – ale przez to, kto ma lepszą organizację.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Project Glasswing – ofensywa defensywna
Anthropic ogłosiło inicjatywę o nazwie Project Glasswing – ograniczony program, w ramach którego wybrane firmy technologiczne uzyskają dostęp do modelu wyłącznie w celach defensywnych. Wśród uczestników znalazły się Apple, Google, Microsoft, Nvidia oraz Amazon Web Services, a także ponad 40 innych podmiotów, w tym CrowdStrike i Palo Alto Networks.
Anthropic przekazuje uczestnikom inicjatywy 100 milionów dolarów w kredytach na korzystanie z Mythos oraz dodatkowe 4 miliony dolarów na wsparcie projektów open source związanych z bezpieczeństwem.
Nazwa projektu to nieprzypadkowy wybór – glasswing to motyl o przezroczystych skrzydłach, metafora podatności w oprogramowaniu, które są „stosunkowo niewidoczne” dla ludzkiego oka.
CEO Dario Amodei napisał na platformie X:
„The dangers of getting this wrong are obvious, but if we get it right, there is a real opportunity to create a fundamentally more secure internet and world than we had before the advent of AI-powered cyber capabilities.”
(„Niebezpieczeństwa związane z błędnym podejściem są oczywiste, ale jeśli zrobimy to dobrze, istnieje realna szansa na stworzenie fundamentalnie bezpieczniejszego internetu i świata, niż mieliśmy przed nadejściem możliwości cybernetycznych napędzanych AI.”)
Rząd reaguje, ale pytania pozostają
Sekretarz skarbu Bessent zwołał spotkanie z głównymi instytucjami finansowymi, by omówić „gwałtowny rozwój wydarzeń w obszarze AI.” Eksperci ostrzegają, że AI mogłoby posłużyć do atakowania systemów finansowych, blokowania szpitali i zakładów produkcyjnych, a nawet wyłączania krytycznej infrastruktury.
Tymczasem relacje Anthropic z administracją Trumpa są dalekie od harmonijnych:
- Pentagon wpisał Anthropic na listę zagrożeń dla łańcucha dostaw po tym, jak firma odmówiła zgody na autonomiczne namierzanie celów przez swoje modele
- Federalny sąd apelacyjny odrzucił wniosek Anthropic o tymczasowe zablokowanie tej decyzji
- Jednocześnie odrębne orzeczenie pozwala firmie kontynuować współpracę z innymi agencjami rządowymi
Departament Obrony nadal korzysta z Claude mimo trwającego sporu prawnego.
Wyścig, który już trwa
Niepokojący kontekst: w jednym z udokumentowanych przypadków Anthropic wykryło, że chińska grupa sponsorowana przez państwo prowadziła skoordynowaną kampanię z użyciem Claude Code, penetrując około 30 organizacji – w tym firmy technologiczne, instytucje finansowe i agencje rządowe – zanim firma to wykryła.
Logan Graham, szef ofensywnych badań cybernetycznych w Anthropic, przyznaje wprost: nawet jeśli Mythos nigdy nie trafi do publicznego dostępu, spodziewa się, że konkurenci – w tym chińskie firmy – wypuszczą modele o porównywalnych zdolnościach w ciągu najbliższych sześciu do dwunastu miesięcy.
Brzmi jak ostrzeżenie. I chyba nim jest.
