Anthropic ogłosiło wyniki współpracy z Mozillą, w ramach której model Claude Opus 4.6 przeskanował kod źródłowy Firefoksa i w ciągu zaledwie dwóch tygodni wykrył 22 luki bezpieczeństwa, z czego 14 zakwalifikowano jako krytyczne. To niemal jedna piąta wszystkich wysokiego ryzyka podatności, które Mozilla łatała przez cały 2025 rok.
Rezultat robi wrażenie, bo Firefox to jeden z najlepiej przetestowanych projektów open source na świecie. Dziesiątki lat fuzzingu, setki badaczy bezpieczeństwa, regularne audyty. A mimo to model AI znalazł rzeczy, które wszystkim umknęły.
Warto dodać kontekst: Claude przeskanował prawie 6000 plików C++ i przesłał do systemu Bugzilla łącznie 112 unikalnych zgłoszeń. Ostatecznie Mozilla wystawiła CVE dla 22 z nich, a poprawki trafiły do użytkowników w aktualizacji Firefox 148, wydanej pod koniec lutego.
Jak to działa w praktyce
Claude Code, narzędzie Anthropic do pracy z kodem, operuje jako tzw. agent stateful, co oznacza, że nie analizuje pojedynczych plików w izolacji. Model potrafi rozumować w poprzek całego repozytorium, łączyć ze sobą zależności, śledzić przepływ danych między komponentami.
Zamiast szukać znanych wzorców podatności jak tradycyjne narzędzia SAST, Claude stosuje coś, co Anthropic opisuje jako logiczne wnioskowanie o algorytmach. W praktyce model nie pyta „czy tu jest znana podatność?”, tylko „czy ta logika może prowadzić do problemu w określonych warunkach?”.
Przykład z badań: w bibliotece CGIF Claude wykrył przepełnienie bufora sterty (heap buffer overflow) wynikające z analizy logiki kompresji LZW. To błąd, który przez dekady przeoczył zarówno fuzzing, jak i ludzcy recenzenci kodu.
Co istotne, po 20 minutach eksploracji kodu JavaScript model zgłosił pierwszy błąd typu use-after-free. Jeden z badaczy zweryfikował znalezisko w izolowanej maszynie wirtualnej, a Claude w tym samym czasie zdążył wykryć jeszcze 50 kolejnych crashujących przypadków wejściowych.
Komentarz redakcji
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
To jest moment, który warto zapamiętać. Nie dlatego, że AI „pobił” ludzi, bo to nie jest właściwa rama. Warto go zapamiętać, bo pokazuje realny, mierzalny wkład modeli językowych w bezpieczeństwo oprogramowania. Firefox to projekt z absolutnie najwyższej półki pod kątem testowania. Jeśli Claude находит tu rzeczy nieznane od lat, to zadaję sobie pytanie: co z projektami, które nie mają zasobów Mozilli?
Ale jest też druga strona tej historii. Te same możliwości, które pomagają znajdować błędy, mogą pomagać je wykorzystywać. Anthropic wydało $4000 w API, próbując napisać exploity na podstawie znalezionych podatności. Udało się w dwóch przypadkach, w środowisku testowym, bez sandboxa. To na razie mało, ale trajektoria jest oczywista. Czy branża cybersecurity jest gotowa na świat, gdzie odkrywanie i eksploatacja podatności stają się coraz tańsze i szybsze? To pytanie, na które nie ma jeszcze dobrej odpowiedzi.
Agentic coding i nowy tryb pracy
Równolegle Anthropic rozwija Claude Code jako samodzielne narzędzie deweloperskie. Kilka kluczowych aspektów tej platformy:
- Auto-Accept Mode (Shift+Tab): agent pisze kod, uruchamia testy i iteruje autonomicznie, dopóki testy nie przejdą
- CLAUDE.md: plik konfiguracyjny, który tłumaczy modelowi specyfikę projektu, zależności w pipeline’ach danych, konwencje w kodzie
- MCP (Model Context Protocol): protokół integracji z zewnętrznymi źródłami danych, jak BigQuery czy Snowflake, z zachowaniem szczegółowego logowania bezpieczeństwa
- Według wewnętrznych benchmarków Anthropic model wykonuje średnio 21,2 niezależnych wywołań narzędzi bez interwencji człowieka, co oznacza wzrost o 116% względem poprzednich sześciu miesięcy
Tryb auto-accept to coś, co Anthropic otwarcie nazywa „vibe coding dla enterprise”, jednocześnie zaznaczając, że przy kluczowej logice biznesowej człowiek powinien pozostać ostatnim recenzentem.
Reakcja Mozilli
Mozilla nie była pasywnym odbiorcą wyników. Po pierwszym zgłoszeniu, gdy Claude wykrył bug w silniku JavaScript, Brian Grinstead, senior principal engineer w organizacji, stwierdził wprost:
„This is a large influx. We did mobilize as sort of an incident response to get the 100+ bugs that were filed, triaged and most of them fixed.”
Mozilla potwierdziła też, że exploitowanie znalezionych podatności wymagałoby łączenia wielu błędów jednocześnie, co znacznie podnosi poprzeczkę dla potencjalnych napastników. Jednocześnie organizacja zapowiedziała integrację narzędzi opartych na AI z wewnętrznymi procesami bezpieczeństwa.
Logan Graham, szef Frontier Red Team w Anthropic, ujął cel badań zwięźle:
„We went into this believing if Claude could find undiscovered high-severity bugs here, it would tell us something substantial about where these capabilities are heading and the urgency of the moment we are in.”
Urgency of the moment. To zdanie mówi dużo o tym, jak Anthropic postrzega obecne tempo zmian. Pytanie, czy reszta branży nadąża z wyciąganiem wniosków.
