Anthropic samo przyznaje, że jego najnowszy model AI o nazwie Mythos może być przełomem w historii cyberbezpieczeństwa. Ale nie w sposób, który każdy chciałby świętować.
Szczegóły dotyczące modelu Mythos wyciekły za pośrednictwem nieopublikowanego wpisu na blogu firmy, o którym jako pierwszy poinformował serwis Fortune. Anthropic przyznał, że doszło do wycieku na skutek błędu ludzkiego w systemie zarządzania treścią. W przecieku firma ostrzegała, że Mythos jest „currently far ahead of any other AI model in cyber capabilities” / „obecnie znacznie wyprzedza każdy inny model AI pod względem możliwości cybernetycznych” i że model ten zapowiada nadchodzącą falę narzędzi zdolnych do wykorzystywania luk w zabezpieczeniach w tempie, które obrońcy nie będą w stanie nadążyć.
To nie jest zwykła komunikacja marketingowa. To brzmi jak ostrzeżenie.
Fala, która nadchodzi
Anthropic w swoim ujawnionym materiale wprost zaznacza, że Mythos to dopiero początek. Za nim przyjdą kolejne modele od OpenAI, Google Gemini i chińskie projekty open source. Shlomo Kramer, założyciel i CEO firmy Cato Networks specjalizującej się w cyberbezpieczeństwie, powiedział CNN: „The agentic attackers are coming. This is a watershed event in the history of cybersecurity” / „Agentyczni atakujący nadchodzą. To przełomowy moment w historii cyberbezpieczeństwa.”
Chodzi tu o coś więcej niż tylko szybsze wykonywanie znanych ataków. Modele AI działające jako agenci potrafią samodzielnie skanować systemy w poszukiwaniu luk, opracowywać kod exploitów i uruchamiać ataki bez przerwy. Jeden taki agent może robić to, do czego potrzeba by było setek ludzi.
Widzę w tej historii dwie równoległe narracje i obie są prawdziwe. Z jednej strony mamy firmę, która uczciwie mówi: „nasz model jest niebezpieczny, ostrzegamy rządy i udostępniamy go wybranym organizacjom, by mogły się przygotować.” To godne szacunku. Z drugiej strony, wyciek informacji o Mythosie nastąpił przez błąd ludzki – i to samo w sobie jest ironią. Firma ostrzegająca przed zagrożeniami dla bezpieczeństwa danych… sama ma problem z bezpieczeństwem danych. Pytanie, które mnie nurtuje, brzmi: czy transparentność Anthropic to rzeczywiście troska o bezpieczeństwo publiczne, czy też element strategii PR przed oficjalną premierą modelu? Nie twierdzę, że to jedno wyklucza drugie – ale warto zadawać takie pytania.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
AI jako narzędzie ataku – to już nie teoria
Nie musimy długo szukać przykładów. W styczniu rosyjskojęzyczny cyberprzestępca o ograniczonych umiejętnościach technicznych użył kilku narzędzi AI, by przejąć kontrolę nad ponad 600 urządzeniami z popularnym oprogramowaniem firewall w ponad 55 krajach. Atak ten opisał zespół bezpieczeństwa Amazon Web Services. Jak ustalił Eyal Sela z Gambit Security, haker korzystał między innymi z Claude – modelu samego Anthropic – oraz z chińskiego DeepSeek. W logach rozmów, które Sela przekazał CNN, widać prośbę skierowaną do Claude po rosyjsku o stworzenie panelu do zarządzania setkami zaatakowanych celów.
W lutym inny haker użył Claude do przeprowadzenia serii ataków na meksykańskie agencje rządowe, kradnąc wrażliwe dane podatkowe i wyborcze, jak podał Bloomberg.
Schemat jest jasny:
- modele AI obniżają próg wejścia dla mniej zaawansowanych atakujących
- przyspieszają każdą fazę ataku, od rekonesansu po eksfiltrację danych
- działają bez przerwy, co jest niemożliwe dla ludzkich zespołów
Miecz obosieczny
Evan Peña, dyrektor ds. ofensywnego bezpieczeństwa w firmie Armadin, zwraca uwagę na pewne ograniczenia obecnych modeli. AI świetnie radzi sobie z analizą kodu i generowaniem exploitów, ale brakuje jej kontekstu, który ma ludzki haker – rozumienia tego, które zasoby danej organizacji są najbardziej wartościowe. To na razie daje obrońcom pewną przewagę.
Joe Lin, współzałożyciel i CEO Twenty – firmy dostarczającej ofensywne możliwości cybernetyczne dla rządu USA – podkreśla jednak, że człowiek musi pozostać w pętli decyzyjnej: „We must ensure we are building weapons systems where humans remain firmly in control of decisions and outcomes, because while the machine handles the execution, the human must always own the consequences” / „Musimy zadbać o to, by budować systemy uzbrojenia, w których ludzie pozostają w pełni odpowiedzialni za decyzje i wyniki, bo choć maszyna obsługuje wykonanie, człowiek musi zawsze ponosić odpowiedzialność za konsekwencje.”
Wyścig zbrojeń bez mety
Kramer używa obrazowego porównania: to jak budowanie „armii dobrych ludzi”, by mogła walczyć z „armią złych ludzi” tylko po to, żeby utrzymać status quo. Postępy AI w cyberbezpieczeństwie działają w obie strony – napastnicy mogą używać tych samych modeli, które służą do ciągłego monitorowania, szybszego wykrywania zagrożeń i automatycznego łatania dziur.
Problem polega na fundamentalnej asymetrii. Obrońca musi zabezpieczyć każdą powierzchnię ataku. Napastnik potrzebuje tylko jednej otwartej furtki. AI tę asymetrię pogłębia.
„You need to run as fast as you can in order to stay in the same place” / „Musisz biec tak szybko, jak tylko możesz, żeby zostać w tym samym miejscu” – powiedział Kramer.
Anthropic tymczasem prywatnie ostrzega rządy przed potencjałem Mythosa do przeprowadzania ataków na dużą skalę i oferuje wybranym organizacjom możliwość testowania modelu, by mogły wzmocnić swoje systemy obrony. Czy to wystarczy? Przy takim tempie wyścigu – trudno powiedzieć.
