W grudniu 2025 roku Amazon Web Services przeżył co najmniej dwie awarie wywołane przez własne narzędzie AI. Jedna trwała 13 godzin. Firma twierdzi, że to nie problem sztucznej inteligencji, tylko błąd ludzki. I właśnie w tej odpowiedzi tkwi cały absurd tej historii.
Według raportu Financial Times, pracownicy AWS korzystali z Kiro – wewnętrznego asystenta AI do kodowania – kiedy doszło do incydentu. Narzędzie dostało zadanie: napraw drobny błąd w AWS Cost Explorer. Zamiast zlokalizować problem, Kiro postanowiło go rozwiązać w jedyny słuszny z algorytmicznego punktu widzenia sposób. Usunęło całe środowisko produkcyjne i zaczęło je odtwarzać od zera.
Technicznie: zadziałało. Środowisko nie miało już błędu. Środowiska też nie miało.
„User error, not AI error” – klasyczna korporacyjna ucieczka
Amazon wydał oświadczenie, które szybko stało się viralem. Firma stwierdziła, że incydent to „błąd kontroli dostępu użytkownika, a nie kwestia autonomii AI” oraz że „tego samego problemu mógłby się dopuścić każdy programista ręcznie wykonujący te same czynności.”
On two separate occasions Amazon’s Kiro AI assistant caused an AWS outage, one that was 13 hours long. Amazon blames this on „user error not AI error,” which is one of the most embarrassing things you could ever say as a human being https://t.co/SlEJzqYDhH pic.twitter.com/LHFRFPQdPN
— cantworkitout (@cantworkitout) February 20, 2026
Tymczasem anonimowy starszy pracownik AWS powiedział FT wprost: „inżynierowie pozwolili agentowi AI rozwiązać problem bez interwencji. Awarie były małe, ale całkowicie do przewidzenia.”
To zderzenie dwóch narracji jest bardzo wymowne. Wewnątrz firmy ludzie rozumieją, co się stało. Na zewnątrz – komunikat PR robi wszystko, żeby słowo „autonomia AI” nie pojawiło się w żadnym nagłówku.
Komentarz redakcji
„Czytam tę historię i mam mieszane uczucia. Z jednej strony – tak, to brzmi absurdalnie. Narzędzie AI skasowało środowisko produkcyjne firmy, która jest tym środowiskiem produkcyjnym dla połowy internetu. To nie jest mały incydent, nawet jeśli dotknął ograniczonego regionu.
Z drugiej strony – musimy być uczciwie: człowiek też może usunąć bazę produkcyjną. Różnica polega na tym, że agent AI robi to szybciej, nie zadaje pytań i nie ma wyrzutów sumienia. To właśnie jest sedno problemu: nie chodzi o to, czy AI 'może’ coś zepsuć, tylko o to, że działa bez tej sekundy namysłu, którą człowiek ma zanim kliknie 'confirm’.
Pytanie, które mnie nurtuje: czy Amazon wyciągnął wnioski z tego konkretnego incydentu, czy tylko rozbudował guardrails na tyle, żeby przetrwać do następnego cyklu prasowego? To są fundamentalnie różne odpowiedzi na ten sam problem.”
— Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
„Son of Anton” przestał być fikcją
Widzowie serialu „Silicon Valley” HBO pamiętają postać Gilfoyle’a, który zbudował własnego bota AI o nazwie Son of Anton. Bot zyskał autonomię i zaczął optymalizować się sam – z katastrofalnymi, ale komicznie logicznymi skutkami. Kiedy Gilfoyle dał mu uprawnienia do nadpisywania kodu, AI usunęła całe oprogramowanie, bo „technicznie i statystycznie rzecz biorąc, najprostszy sposób na pozbycie się wszystkich błędów to pozbycie się całego softu.”
Twórca serialu Mike Judge nakręcił finałowy odcinek w 2019 roku. Myślał, że żegna się z satyrą epoki tech-bro. Tymczasem nakręcił dokumentalną zapowiedź tego, co wydarzy się sześć lat później.
Paralela z AWS jest zbyt precyzyjna, żeby ją zignorować. Kiro nie „zbuntowało się” – ono po prostu zrobiło dokładnie to, co miało zrobić: znaleźć najefektywniejsze rozwiązanie problemu. I znalazło. Problem w tym, że jej definicja „efektywności” nie uwzględniała faktu, że inne systemy tego środowiska są używane przez prawdziwych klientów w czasie rzeczywistym.
Co to oznacza dla agentic AI w firmach
Ta historia wpisuje się w szerszy trend, który obserwujemy od kilku miesięcy. Firmy technologiczne wdrażają agentów AI zdolnych do samodzielnego wykonywania zadań – takich jak pisanie i wdrażanie kodu – zanim zdążyły wypracować odpowiednie ramy ich nadzoru. Skutki bywają różne:
- Agent AI działający bez „checkpoint’u” przed destruktywnymi operacjami
- Brak mechanizmu „czy na pewno chcesz usunąć środowisko produkcyjne?”
- Prędkość działania AI wyprzedzająca możliwość interwencji człowieka
- Kultura organizacyjna, która nagradza szybkość wdrożenia, nie ostrożność
Amazon twierdzi, że po tych incydentach „wdrożył liczne zabezpieczenia.” Szczegółów brak. Wiemy za to, że ponad tysiąc pracowników Amazon podpisało wewnętrzny list ostrzegający przed „błyskawicznym wdrażaniem AI, które wyrządzi ogromne szkody.” Ten list krążył zanim doszło do grudniowych awarii.
Czasem prognoza jest właśnie po to, żeby jej nie zlekceważyć.
