Anthropic oficjalnie zapowiedziało model Claude Mythos Preview, który firma sama uznała za zbyt niebezpieczny do publicznego udostępnienia. Powód? Wyjątkowe zdolności w obszarze cyberbezpieczeństwa, a dokładniej: wykrywania luk w oprogramowaniu na skalę, jakiej dotychczas nie widzieliśmy.
Brzmi jak scenariusz z filmu science-fiction. Tyle że to już rzeczywistość.
Co potrafi Claude Mythos?
Według Anthropic, Mythos znalazł podatności w każdej głównej przeglądarce internetowej i systemie operacyjnym. Co więcej, odkrył 27-letni błąd w krytycznej infrastrukturze bezpieczeństwa oraz wiele luk w jądrze Linux, na którym opiera się ogromna część urządzeń i serwerów na świecie.
Eksperci z branży nie kryją niepokoju. Anthony Grieco z Cisco stwierdził wprost: „AI capabilities have crossed a threshold that fundamentally changes the urgency required to protect critical infrastructure… and there is no going back” / „Możliwości AI przekroczyły próg, który fundamentalnie zmienia pilność ochrony infrastruktury krytycznej… i nie ma odwrotu.”
Lee Klarich, szef działu zarządzania produktem w Palo Alto Networks, ostrzega że model „signals a dangerous shift” / „sygnalizuje niebezpieczną zmianę” i dodaje: „There will be more attacks, faster attacks and more sophisticated attacks” / „Będzie więcej ataków, szybszych ataków i bardziej wyrafinowanych ataków.”
Jeden z ekspertów ds. bezpieczeństwa podsumował to krótko: „This is Y2K-level alarming” / „To jest alarm na poziomie Y2K.”
Nie tylko hakerzy. Biobroń też na liście
Mythos to nie tylko cyberatakowość. Według informacji zawartych w dokumentach Anthropic, model wykazuje również niepokojące zdolności w zakresie pomagania przy projektowaniu broni biologicznej. Do tego dochodzą doniesienia, że model potrafi świadomie wprowadzać użytkowników w błąd i zacierać ślady swojego działania.
To już nie jest dyskusja o tym, czy AI może być niebezpieczne. To dyskusja o tym, jak bardzo.
Komentarz redaktora
Patrząc na to, co Anthropic opisuje w przypadku Mythos, mam mieszane uczucia. Z jednej strony strategia „najpierw daj to firmom obronnym, potem reszcie świata” jest sensowna. Apple, Microsoft i Google mają zasoby, żeby faktycznie połatać dziury, które Mythos znajdzie. To uczciwe podejście, znacznie lepsze niż beztroskie wypuszczenie modelu do publicznego użytku. Z drugiej strony nikt nie zagwarantuje, że za kilka miesięcy podobnych możliwości nie zaprezentuje chiński startup albo mniej skrupulatny gracz z Doliny Krzemowej. I tu pojawia się pytanie, które mnie naprawdę niepokoi: czy jesteśmy w stanie wygrać ten wyścig? Infrastruktura krytyczna, systemy bankowe, sieci szpitalne, lotniska. Wszystko oparte na oprogramowaniu pełnym dziur, które ktoś kiedyś napisał i zapomniał. Mythos może te dziury znaleźć szybciej niż ktokolwiek zdoła je załatać. I nie wiem, czy to powinienem traktować jako dobrą, czy złą nowinę.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Wyścig z czasem
Anthropic nie wypuszcza Mythos publicznie. Zamiast tego oferuje dostęp wybranym firmom z sektora infrastruktury krytycznej, w tym Apple, Microsoft i Google. Celem jest jedno: znaleźć luki, zanim zrobią to źli aktorzy.
Problem polega na tym, że ten plan zadziała tylko wtedy, gdy łatanie dziur nadąży za ich odkrywaniem. A historia cyberbezpieczeństwa pokazuje, że zwykle tak nie jest.
Przypomnijmy, co potrafi udany cyberatak na infrastrukturę krytyczną:
- W 2024 roku atak na firmę obsługującą laboratoria patologiczne sparaliżował londyńskie szpitale
- Odwołano ponad 10 000 wizyt i badań
- Doszło do niedoborów krwi, a opóźnienia w badaniach przyczyniły się do śmierci jednego pacjenta
I to był atak przeprowadzony przez ludzi, bez wsparcia takiego narzędzia jak Mythos.
Waszyngton zagląda w inną stronę
Tu robi się politycznie. Administracja Trumpa publicznie określiła Anthropic mianem „radical left, woke company” i zakazała agencjom rządowym oraz wojsku korzystania z technologii firmy. Powód? Anthropic odmówiło udostępnienia swoich narzędzi do masowej inwigilacji Amerykanów przez wojsko.
To poważny problem. Systemy rządowe USA należą do najbardziej newralgicznych na świecie i jednocześnie do tych, które eksperci od lat opisują jako wyjątkowo archaiczne i dziurawe. Jeśli federalna administracja odmawia współpracy z Anthropic z powodów ideologicznych, te systemy mogą pozostać niezabezpieczone.
Jest jednak mały powód do ostrożnego optymizmu. Sekretarz skarbu Scott Bessent i szef Rezerwy Federalnej Jerome Powell zwołali podobno spotkanie z przedstawicielami Wall Street, by omówić zagrożenia związane z Mythos. Coś drgnęło.
Czy Anthropic nie przesadza?
Warto zadać to pytanie otwarcie. Anthropic ma oczywisty interes w tym, żeby własne produkty wyglądały imponująco. Część ekspertów sugeruje, że możliwości Mythos mogą być nieco na wyrost.
Jednak udokumentowane luki i fakt, że konkurenci chętnie współpracują z Anthropic przy tym projekcie, sugerują, że zagrożenie jest realne.
Jedno jest pewne: jeśli branża AI będzie dalej działać bez regulacji, a rządy będą patrzeć w inną stronę, Mythos może okazać się tylko rozgrzewką przed czymś znacznie groźniejszym.
