Sam Altman publicznie przyznał, że OpenAI działał za szybko i zbyt pochopnie. Kontrakt z Pentagonem, ogłoszony w piątek, właśnie trafia do renegocjacji.
Wszystko zaczęło się od spektakularnego rozejścia Anthropic z amerykańskim Departamentem Obrony. Anthropic postawiło twarde warunki: żadnych autonomicznych broni, żadnej masowej inwigilacji obywateli. Pentagon odmówił zawarcia kontraktu na tych zasadach. Kilka godzin później Trump podpisał decyzję wyznaczającą Anthropic jako zagrożenie dla łańcucha dostaw, de facto blokując współpracę firmy z wojskiem i agencjami federalnymi.
I wtedy wkroczył OpenAI.
Kontrakt, który wywołał burzę
W piątek wieczorem Altman ogłosił na X, że OpenAI zawarło umowę zezwalającą Departamentowi Obrony na korzystanie z jego modeli AI w klasyfikowanej sieci wojskowej. Timing był… delikatnie mówiąc, niefortunny. Ogłoszenie nastąpiło zaledwie dzień przed tym, jak USA i Izrael przeprowadziły wspólny atak na Iran.
Krytycy, w tym Jonathan Iwry z Accountable AI Lab na Wharton School, oskarżyli OpenAI o podkopywanie pozycji Anthropic w kluczowym momencie negocjacji. W sieci zawrzało. Użytkownicy zaczęli masowo odinstalowywać ChatGPT. Według doniesień liczba odinstalowań aplikacji mobilnej ChatGPT wzrosła w sobotę o 295% w porównaniu z typowymi wskaźnikami. Claude od Anthropic wspiął się na szczyt rankingu App Store Apple’a.
Komentarz redakcji
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: Cała ta historia to doskonały przykład napięcia, które będzie nam towarzyszyć przez kolejne lata. Z jednej strony rozumiem logikę OpenAI: jeśli technologia i tak trafi do wojska, lepiej żeby trafiła z jakimiś zabezpieczeniami niż bez nich. Z drugiej strony trudno nie zauważyć, że kontrakt pojawił się w idealnym momencie dla OpenAI biznesowo, a bardzo złym dla Anthropic. Pytanie, które mnie nurtuje: czy naprawdę chodziło o „deeskalację”, jak twierdzi Altman, czy o przejęcie lukratywnej umowy, zanim zrobi to ktoś inny? I czy zabezpieczenia zapisane w kontrakcie są prawdziwymi ograniczeniami, czy jedynie politycznym parawanem? Na te pytania nie mamy jeszcze odpowiedzi.
„Opportunistic and sloppy” – Altman nie owija w bawełnę
W poniedziałek Altman opublikował na X wewnętrzny memo skierowany do pracowników. Tonu nie sposób było zinterpretować inaczej niż jako przyznanie się do błędu:
„We were genuinely trying to de-escalate things and avoid a much worse outcome, but I think it just looked opportunistic and sloppy.”
CEO dodał, że „nie powinien się spieszyć” z ogłoszeniem umowy w piątek, bo „kwestie są niezwykle złożone i wymagają jasnej komunikacji.”
Zmiany, które OpenAI teraz negocjuje z Pentagonem, są konkretne:
- Umowa zostaje uzupełniona o klauzulę zakazującą „zamierzonego wykorzystania systemu AI do krajowej inwigilacji obywateli i rezydentów USA”
- Agencje wywiadowcze jak NSA, Narodowa Agencja Rozpoznania Geoprzestrzennego czy Agencja Wywiadu Obronnego nie będą mogły korzystać z usług OpenAI bez osobnej modyfikacji kontraktu
- Zakaz obejmuje teraz również dane „commercially acquired” – czyli lokalizacje z telefonów, dane z aplikacji fitness i inne komercyjnie dostępne informacje o Amerykanach
Co z Anthropic?
Departament Stanu, Departament Skarbu i Federalna Agencja Finansowania Mieszkalnictwa ogłosiły w poniedziałek plany zaprzestania korzystania z narzędzi Anthropic. Izolacja firmy postępuje, mimo że to właśnie Anthropic jako pierwsze postawiło twarde granice etyczne.
Altman zaznaczył w swoim poście, że w rozmowach w weekend podkreślał, iż Anthropic nie powinno być wyznaczane jako zagrożenie dla łańcucha dostaw i że ma nadzieję, że Pentagon zaoferuje firmie te same warunki, na jakie zgodziło się OpenAI. Czy to wystarczy? Na razie decyzja Trumpa pozostaje w mocy.
AI na wojnie – co wiemy
Kontekst tej całej batalii jest szerszy niż jeden kontrakt. Modele językowe są już realnie używane w operacjach wojskowych. Platforma obronna Maven od Palantira, używana przez USA, Ukrainę i NATO, łączy dane satelitarne z raportami wywiadowczymi i analizuje je właśnie za pomocą komercyjnych systemów AI, w tym Claude od Anthropic. Jak ujął to Louis Mosley, szef brytyjskich operacji Palantira, celem jest podejmowanie „szybszych, wydajniejszych i ostatecznie bardziej śmiertelnych decyzji”.
Profesor Mariarosaria Taddeo z Oksfordu powiedziała BBC, że po wykluczeniu Anthropic „najbardziej ostrożny aktor jeśli chodzi o bezpieczeństwo” znalazł się „poza pokojem” negocjacji. „To jest prawdziwy problem” – stwierdziła.
Skoro Claude i tak trafił do użytku wojskowego mimo formalnej blokady, pytanie o skuteczność etycznych klauzul staje się jeszcze bardziej palące. Kontrakt to jedno. Praktyka to drugie.
