OpenAI ogłosiło rozszerzenie programu Trusted Access for Cyber i jednocześnie wypuściło nowy model GPT-5.4-Cyber – wersję GPT-5.4 dopasowaną specjalnie do zadań z obszaru cyberbezpieczeństwa. Ruch jest nieprzypadkowy: to bezpośrednia odpowiedź na projekt Glasswing (Claude Mythos) Anthropic, który zadebiutował zaledwie tydzień wcześniej.
GPT-5.4-Cyber – czym jest nowy model?
GPT-5.4-Cyber to wariant GPT-5.4 wytrenowany specjalnie pod kątem defensywnych zastosowań w cyberbezpieczeństwie. OpenAI określa go jako „cyber-permissive” – czyli model, który ma generować mniej odmów przy zapytaniach z obszaru bezpieczeństwa, tam gdzie wcześniejsze wersje odmawiały współpracy nawet przy zupełnie legalnych zadaniach badawczych.
Część partnerów z branży cybersecurity skarżyła się, że starsze modele GPT odmawiały odpowiedzi na tzw. dual-use queries – zapytania, które mogą służyć zarówno atakującym, jak i obrońcom. Nowy model ma to zmienić – przynajmniej dla zweryfikowanych użytkowników.
Na razie dostęp jest mocno ograniczony. GPT-5.4-Cyber jest testowany wyłącznie z wyselekcjonowanymi i zweryfikowanymi dostawcami usług bezpieczeństwa, organizacjami i badaczami.
Trusted Access for Cyber – jak działa system weryfikacji?
Program Trusted Access for Cyber (TAC) nie jest zupełną nowością. OpenAI uruchomiło go już w lutym – użytkownicy mogą zweryfikować swoją tożsamość poprzez zdjęcie dokumentu tożsamości, przetwarzane przez serwis Persona, aby uzyskać dostęp z „ograniczonymi odmowami” do modeli OpenAI w pracy z cybersecurity.
Teraz program dostaje nowe poziomy dostępu:
- Poziom podstawowy – indywidualna weryfikacja tożsamości pod adresem chatgpt.com/cyber, dostępna dla każdego zainteresowanego
- Poziom dla firm – przedsiębiorstwa mogą wnioskować o dostęp dla całego zespołu przez swojego przedstawiciela OpenAI
- Poziom zaawansowany – tylko na zaproszenie, dla badaczy i zespołów potrzebujących dostępu do najbardziej rozbudowanych możliwości ofensywno-defensywnych
Celem jest jednak to, żeby jak najnieodsetek użytkowników w ogóle musiał przystępować do programu Trusted Access – OpenAI planuje przejście od weryfikacji na poziomie konta do weryfikacji na poziomie pojedynczego zapytania.
Demokratyzacja czy kontrola?
Tu zaczyna się ciekawa część.
Podejście OpenAI różni się wyraźnie od strategii Anthropic – ta druga firma udostępniła swój model Mythos Preview zaledwie około 40 organizacjom. OpenAI idzie w kierunku szerszego dostępu, uzasadniając to prostą logiką: skoro modele zdolne do cyberataków i tak wkrótce pojawią się jako open-weight u innych dostawców, lepiej żeby obrońcy infrastruktury mieli do nich dostęp wcześniej niż atakujący.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
OpenAI gra tutaj na dwa fronty jednocześnie i trzeba to powiedzieć wprost. Z jednej strony argument o „demokratyzacji dostępu dla obrońców” brzmi sensownie – jeśli narzędzia ofensywne i tak trafią na rynek, lepiej żeby defensywne zespoły miały przewagę czasową. Z drugiej strony, historia branży security pokazuje, że każde „zweryfikowane” środowisko prędzej czy później zostaje skompromitowane lub obejście. Weryfikacja dowodem osobistym przez Persona to nie jest rozwiązanie klasy enterprise dla infrastruktury krytycznej. Pytanie, które warto zadać: czy OpenAI naprawdę rozwiązuje problem dwoistego użycia tych narzędzi, czy tylko przenosi odpowiedzialność za ewentualne nadużycia na samych użytkowników? I dlaczego rząd USA na razie nie dostał dostępu do GPT-5.4-Cyber?
To ostatnie pytanie jest szczególnie interesujące. OpenAI nie oferuje obecnie dostępu do GPT-5.4-Cyber agencjom rządu USA, ale firma potwierdziła, że prowadzi rozmowy i będzie oceniać dostęp przez wewnętrzne procesy zarządzania i przeglądu bezpieczeństwa.
10 milionów dolarów na badania i nowe narzędzia
Finansowy akcent ogłoszenia to 10 milionów dolarów w kredytach API przeznaczonych dla zespołów badawczych w ramach Cybersecurity Grant Program.
OpenAI zapowiedziało też kilka dodatkowych inicjatyw:
- Aardvark – agentyczny badacz bezpieczeństwa w prywatnej becie, który skanuje bazy kodu w poszukiwaniu luk i proponuje poprawki; ma już na koncie identyfikację nowych CVE w oprogramowaniu open-source, analizując całe repozytoria
- Frontier Risk Council – nowa rada doradcza złożona z praktyków cyberbezpieczeństwa, mająca doradzać wewnętrznym zespołom OpenAI
- Bezpłatne pokrycie skanowaniem dla wybranych niekomercyjnych repozytoriów open-source
GPT-5.3-Codex – poprzednik, który postawił poprzeczkę
Warto przypomnieć kontekst. GPT-5.3-Codex to pierwszy model, który OpenAI zakwalifikowało jako „High cybersecurity capability” w ramach swojego Preparedness Framework, co wymaga dodatkowych zabezpieczeń. Model jest szkolony do odmawiania przy jednoznacznie złośliwych zapytaniach, a ruch wysokiego ryzyka jest automatycznie przekierowywany do mniej wydajnego GPT-5.2.
GPT-5.4-Cyber to kolejny krok w górę tej drabiny możliwości.
Co to oznacza dla branży?
Fouad Matin, badacz bezpieczeństwa w OpenAI, ujął to tak: „This is a team sport, we need to make sure that every single team is empowered to secure their systems” / „To sport drużynowy, musimy zadbać o to, żeby każdy zespół był w stanie zabezpieczyć swoje systemy.”
Brzmi szlachetnie. Ale część ekspertów ds. bezpieczeństwa zaznacza, że wiele luk wykrywanych przez modele AI niekoniecznie jest nowych ani łatwych do wykorzystania – niemniej tempo, w jakim te modele je odnajdują, oraz szybkość ich rozwoju niepokoją zarówno urzędników rządowych, jak i liderów biznesu na całym świecie.
Wyścig między OpenAI a Anthropic w obszarze cyberzbrojenia trwa. Dwa różne podejścia – masowy dostęp z weryfikacją tożsamości kontra wąskie grono zaufanych partnerów – to w istocie test dwóch filozofii zarządzania ryzykiem przy AI. Który model okaże się skuteczniejszy, dowiemy się nie z komunikatów prasowych, lecz z wyników.
