OpenAI opublikowało raport, który trudno nazwać inaczej niż szokującym. Chiński funkcjonariusz służb mundurowych używał ChatGPT jak osobistego notatnika, dokumentując w nim szczegóły tajnej operacji wymierzonej w chińskich dysydentów na całym świecie.
Sprawa wyszła na jaw nie przez wyrafinowane działania wywiadowcze, lecz przez… zwykłą nieostrożność. Pracownik chińskich organów ścigania logował się do ChatGPT i opisywał kolejne etapy operacji, jakby prowadził prywatny dziennik. OpenAI wykryło aktywność, zablokowało konto i postanowiło upublicznić ustalenia.
Co dokładnie odkryto?
Skala operacji robi wrażenie. Według raportu OpenAI kampania obejmowała setki operatorów i tysiące fałszywych kont w mediach społecznościowych. Działania były wielotorowe i przemyślane:
- Podszywanie się pod urzędników imigracyjnych USA, by straszyć dysydentów konsekwencjami prawnymi za ich publiczne wypowiedzi
- Tworzenie fałszywych nekrologów i zdjęć nagrobków, by rozsiewać plotki o śmierci konkretnych działaczy (fałszywe informacje o śmierci jednego z dysydentów faktycznie pojawiły się w sieci w 2023 roku)
- Używanie sfałszowanych dokumentów sądowych z amerykańskich sądów okręgowych, by wymuszać usunięcie kont dysydentów z platform społecznościowych
- Próby manipulowania nastrojami politycznymi w Japonii, m.in. przez nakręcanie gniewu wokół ceł USA na japońskie towary
Ben Nimmo, główny śledczy OpenAI, powiedział przed publikacją raportu wprost: „This is what Chinese modern transnational repression looks like. It’s not just digital. It’s not just about trolling. It’s industrialized. It’s about trying to hit critics of the CCP with everything, everywhere, all at once.”
Komentarz redakcji
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: Ta sprawa stawia kilka ważnych pytań jednocześnie. Z jednej strony mamy tu dowód na to, że systemy AI potrafią wykrywać nadużycia i reagować na nie, co jest pozytywnym sygnałem. OpenAI nie tylko zablokowało konto, ale i poinformowało opinię publiczną. Z drugiej strony pojawia się pytanie fundamentalne: co by się stało, gdyby operacja była prowadzona ostrożniej? Czy systemy detekcji nadal by ją wykryły? Sama nieostrożność agenta, który używał ChatGPT jak dziennika, jest dość zdumiewająca, ale nie możemy zakładać, że wszystkie podobne operacje są równie niechlujne. Nie wiemy też, ile takich kampanii pozostaje niewykrytych. To nie jest powód do euforii, raczej do czujności.
AI w służbie represji
Raport wpisuje się w szerszy kontekst rywalizacji USA-Chiny o dominację w obszarze sztucznej inteligencji. Michael Horowitz, były urzędnik Pentagonu ds. nowych technologii, a dziś profesor Uniwersytetu Pensylwanii, ocenia sprawę bez ogródek: „US-China AI competition is continuing to intensify. This competition is not just taking place at the frontier, but in how China’s government is planning and implementing the day-to-day of their surveillance and information apparatus.”
Co ciekawe, ChatGPT w jednym przypadku odmówił wykonania polecenia. Gdy chiński operator poprosił o opracowanie wieloetapowego planu dyskredytacji japońskiej premier Sanae Takaichi, system odmówił odpowiedzi. Mimo to w październiku, gdy Takaichi obejmowała władzę, na japońskich platformach pojawiły się hashtagi atakujące ją i odwołujące się do ceł USA. Operacja najwyraźniej realizowała się innymi kanałami.
Szerszy kontekst: Anthropic też pod presją
Raport ukazuje się w momencie, gdy kwestia zabezpieczeń w modelach AI staje się gorącym tematem politycznym w Waszyngtonie. Sekretarz obrony Pete Hegseth wyznaczył Anthropic termin do piątku, domagając się złagodzenia ograniczeń w modelu AI używanym przez Pentagon. Dario Amodei, CEO Anthropic, stoi pod presją: albo ograniczenia zostaną poluzowane, albo firma straci lukratywny kontrakt z wojskiem.
Zestawiając te dwie sprawy, widać wyraźnie napięcie, które będzie definiować branżę AI przez najbliższe lata. Firmy takie jak OpenAI i Anthropic chcą budować modele z odpowiedzialnymi zabezpieczeniami. Rządy, w tym demokratyczne, wywierają presję, by te zabezpieczenia osłabiać lub omijać. I właśnie w tej szczelinie operują aktorzy tacy jak opisany w raporcie chiński funkcjonariusz.
Pytanie nie brzmi już „czy AI jest używana do operacji wpływu”. Brzmi: na jaką skalę i przez kogo jeszcze.
