Zaledwie kilka dni po tym, jak Anthropic ogłosiło kontrolowany program dostępu do swojego nowego modelu Mythos, okazuje się, że ktoś ten dostęp po prostu… sobie wziął. Według raportu Bloomberga, nieautoryzowana grupa użytkowników regularnie korzysta z modelu od dnia jego publicznego ogłoszenia.
Czym jest Mythos i dlaczego jest tak wrażliwy
Mythos to nie jest kolejny chatbot. Anthropic zaprojektował go z myślą o zastosowaniach w cyberbezpieczeństwie korporacyjnym – model ma pomagać organizacjom w ochronie przed zaawansowanymi atakami. Problem w tym, że ta sama moc, która czyni go wartościowym narzędziem obronnym, sprawia, że w niewłaściwych rękach mógłby stać się groźną bronią ofensywną.
Właśnie dlatego firma wdrożyła model wyłącznie w ramach inicjatywy o nazwie Project Glasswing – kontrolowanego programu, do którego dostęp otrzymała tylko wąska grupa zaufanych partnerów, w tym podobno Apple. Cały pomysł opierał się na założeniu, że ograniczając dostęp, Anthropic zdoła zapobiec nadużyciom.
Jak doszło do wycieku
Tu zaczyna się kłopotliwa część. Bloomberg informuje, że grupka użytkowników skupionych na prywatnym forum dyskusyjnym uzyskała dostęp do Mythos dokładnie w dniu, w którym Anthropic oficjalnie zapowiedział program. Co więcej, nie użyli do tego żadnego wyszukanego exploita. Po prostu:
- trafnie odgadli lokalizację modelu w sieci, bazując na wiedzy o formacie, którego Anthropic używa przy innych modelach,
- skorzystali z dostępów, jakie posiada jedna z osób pracujących u zewnętrznego dostawcy współpracującego z Anthropic,
- zebrali się na Discordzie, gdzie regularnie szukają informacji o jeszcze niewydanych modelach AI.
Źródło Bloomberga podkreśla, że grupie nie chodzi o sabotaż ani ataki – są po prostu entuzjastami, którzy chcą „pobawić się” nowym modelem. Na potwierdzenie swoich słów przedstawili redakcji zrzuty ekranu oraz przeprowadzili demonstrację na żywo.
Komentarz redaktora
Rozumiem ciekawość. Sam ją czuję za każdym razem, gdy pojawia się zapowiedź nowego modelu. Ale ten przypadek pokazuje coś niepokojącego – nie tyle lekkomyślność tych konkretnych osób, ile strukturalną słabość modelu zaufania opartego na zewnętrznych dostawcach. Jeśli ktoś z firmy partnerskiej może stać się nieświadomym (lub świadomym) wektorem dostępu, to pytanie o bezpieczeństwo modelu jest tak naprawdę pytaniem o bezpieczeństwo całego łańcucha dostaw. A ten bywa długi i trudny do skontrolowania. Z drugiej strony – czy Anthropic powinien był w ogóle budować coś tak potencjalnie niebezpiecznego? I czy jest w stanie realnie kontrolować, kto i jak tego używa? To są pytania, które powinny zadawać sobie wszystkie firmy rozwijające modele o zastosowaniach dual-use.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Co mówi Anthropic
Firma nie zaprzeczyła doniesieniom. Rzecznik prasowy przekazał oficjalne stanowisko:
„We’re investigating a report claiming unauthorized access to Claude Mythos Preview through one of our third-party vendor environments.” / „Badamy doniesienia o nieautoryzowanym dostępie do Claude Mythos Preview za pośrednictwem jednego ze środowisk naszych zewnętrznych dostawców.”
Anthropic dodaje, że do tej pory nie znalazło żadnych dowodów na to, że nieautoryzowana aktywność wpłynęła w jakikolwiek sposób na wewnętrzne systemy firmy. Dochodzenie trwa.
Wpadka w najgorszym możliwym momencie
Mythos był prezentowany jako dowód na to, że Anthropic potrafi rozwijać mocne narzędzia AI w sposób odpowiedzialny. Cały projekt Glasswing miał być przykładem dojrzałego podejścia do dystrybucji potencjalnie niebezpiecznych modeli – z ograniczonym dostępem, zaufanymi partnerami i kontrolą nad tym, kto i do czego używa technologii.
Doniesienia Bloomberga podważają tę narrację. Nie dlatego, że coś złego się stało – bo zgodnie z dostępnymi informacjami nie stało się. Ale dlatego, że kontrola okazała się iluzją już pierwszego dnia. Jeśli nieautoryzowani użytkownicy wchodzą przez drzwi zewnętrznego dostawcy zanim kurz po ogłoszeniu zdąży opaść, to cały model bezpieczeństwa wymaga przemyślenia od nowa.
Na domiar złego, to kolejny trudny tydzień w mediach dla Anthropic, który od jakiegoś czasu zmaga się z pytaniami o relacje z Pentagonem i granice komercyjnego zastosowania swojej technologii w sektorze obronnym.
