Peter Steinberger, twórca popularnego narzędzia OpenClaw i jednocześnie pracownik OpenAI, w piątek rano opublikował na X zrzut ekranu wiadomości od Anthropic. Jego konto zostało zawieszone z powodu „podejrzanej aktywności”. Post błyskawicznie się rozszedł po sieci, a kilka godzin później konto zostało przywrócone.
Wpis, który wywołał lawinę
Steinberger nie owijał w bawełnę:
Yeah folks, it's gonna be harder in the future to ensure OpenClaw still works with Anthropic models. pic.twitter.com/U6F8GZvPcH
— Peter Steinberger 🦞 (@steipete) April 10, 2026
„Yeah folks, it’s gonna be harder in the future to ensure OpenClaw still works with Anthropic models / Hej, będzie trudniej w przyszłości zapewnić, że OpenClaw nadal działa z modelami Anthropic” – napisał, dołączając screenshota z informacją o zawieszeniu.
Komentarzy pojawiły się setki. Część użytkowników od razu rzuciła się w stronę teorii spiskowych, a powód był oczywisty: Steinberger pracuje dla OpenAI, czyli bezpośredniego rywala Anthropic. Insynuacje nasuwały się same.
Do dyskusji włączył się jednak inżynier Anthropic, który publicznie zapewnił, że firma nigdy nie blokowała nikomu dostępu za samo korzystanie z OpenClaw i zaproponował pomoc. Kilka godzin później konto zostało odblokowane.
Kontekst, który robi całą różnicę
Żeby zrozumieć, dlaczego ta historia jest czymś więcej niż incydentem z zawieszonym kontem, trzeba cofnąć się o tydzień. Anthropic ogłosił wtedy, że subskrypcje Claude nie będą już obejmować tzw. „harnesses” (zewnętrznych narzędzi i środowisk uruchomieniowych), w tym właśnie OpenClaw. Użytkownicy, którzy chcą korzystać z Claude przez OpenClaw, muszą teraz płacić osobno, przez API, według zużycia.
W branży szybko pojawiło się nieoficjalne określenie: „claw tax”. Steinberger twierdził, że stosował się do nowych zasad i korzystał właśnie z API, a mimo to jego konto zostało zablokowane.
Uzasadnienie Anthropic? Subskrypcje nie były projektowane z myślą o wzorcach użycia charakterystycznych dla narzędzi klasy „claw”. I to prawda technicznie: takie narzędzia mogą być znacznie bardziej zasobożerne od zwykłych zapytań, bo uruchamiają pętle rozumowania, automatycznie ponawiają zadania i podłączają się do dziesiątek zewnętrznych serwisów.
Steinberger jednak tej narracji nie kupił. Tydzień wcześniej napisał:
„Funny how timings match up, first they copy some popular features into their closed harness, then they lock out open source / Zabawne, jak te terminy się pokrywają, najpierw kopiują popularne funkcje do swojego zamkniętego narzędzia, a potem blokują open source.”
Miał prawdopodobnie na myśli funkcję Claude Dispatch, dodaną do agenta Cowork na kilka tygodni przed zmianą polityki cenowej wobec OpenClaw. Dispatch pozwala użytkownikom zdalnie sterować agentami i przydzielać im zadania.
Komentarz redaktora
Ta historia ma kilka warstw i warto je rozdzielić. Z jednej strony: Anthropic ma pełne prawo kształtować swój model biznesowy i nie ma obowiązku dotować zewnętrznych narzędzi, które generują nieproporcjonalnie wysokie koszty infrastrukturalne. Subskrypcja to nie carte blanche na dowolne użycie API.
Z drugiej strony, timing jest naprawdę uderzający. Własne narzędzie agentowe Anthropic zyskuje funkcje, które wcześniej oferował OpenClaw, a za chwilę zmienia się polityka cenowa wobec tego samego OpenClaw. Można to tłumaczyć zbiegiem okoliczności. Można też nie.
Pytanie, które warto zadać głośno: gdzie przebiega granica między uzasadnioną ochroną własnej platformy a celowym wypychaniem konkurencji open source? I czy ekosystem AI, w którym wielkie firmy kontrolują zarówno modele, jak i narzędzia do ich obsługi, jest tym, co chcemy budować?
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
OpenAI vs Anthropic przez pryzmat jednego developera
Wątek pracowniczy dodaje całej sprawie pikanterii. Kiedy kilka osób zapytało Steinbergera, dlaczego w ogóle używa modeli Claude, skoro pracuje dla OpenAI, odpowiedź była prosta: używa ich wyłącznie do testowania, żeby upewnić się, że aktualizacje OpenClaw nie zepsują działania dla użytkowników korzystających z modeli Anthropic.
Sam to tak ujął: „You need to separate two things. My work at the OpenClaw Foundation where we wanna make OpenClaw work great for any model provider, and my job at OpenAI to help them with future product strategy / Musisz oddzielić dwie rzeczy. Moją pracę w OpenClaw Foundation, gdzie chcemy, żeby OpenClaw działał świetnie z każdym dostawcą modeli, i moją pracę w OpenAI, gdzie pomagam przy przyszłej strategii produktowej.”
To z kolei dało do myślenia wielu obserwatorom: skoro Claude wciąż pozostaje najpopularniejszym wyborem użytkowników OpenClaw, wyprzedzając nawet ChatGPT, to Anthropic właśnie utrudnił życie sporemu segmentowi swoich własnych użytkowników.
Jedna wymowna odpowiedź
Ktoś w wątku napisał do Steinbergera: „You had the choice, but you went to the wrong one / Miałeś wybór, ale wybrałeś złe miejsce”, sugerując, że powinien był dołączyć do Anthropic zamiast OpenAI.
Steinberger odpisał krótko: „One welcomed me, one sent legal threats / Jedno mnie przyjęło, drugie wysłało groźby prawne.”
Więcej komentarza to zdanie nie potrzebuje.
Co z tego wynika?
Ta historia pokazuje kilka rzeczy naraz:
- granica między „zarządzaniem platformą” a „blokowaniem open source” jest cieńsza, niż chcą przyznać firmy AI
- modele biznesowe dużych laboratoriów AI coraz silniej zderzają się z kulturą open source i niezależnych deweloperów
- nawet krótkotrwałe, prawdopodobnie automatyczne zawieszenie konta może wywołać lawinę, jeśli trafi na odpowiednią osobę w odpowiednim momencie
- konkurencja między OpenAI a Anthropic toczy się nie tylko na poziomie modeli, ale też ekosystemów narzędzi
Anthropic jak dotąd nie skomentowało publicznie sprawy zawieszenia poza działaniem swojego inżyniera w wątku na X. Steinberger nie odpowiedział na prośbę o komentarz.
