W debacie o sztucznej inteligencji przez długi czas dominowało jedno pytanie: czy te systemy w ogóle działają? Dziś to pytanie staje się coraz mniej aktualne – i właśnie dlatego rozmowa staje się trudniejsza.
Eryk Salvaggio, badacz z Uniwersytetu Cambridge, opublikował tekst, który uderza w samo serce branżowego optymizmu. Nie dlatego, że AI nie działa. Właśnie dlatego, że zaczyna działać.
Papugi ewoluują w stado
Pamiętacie słynne określenie „stochastic parrot” z przełomowego artykułu Bender, Gebru i współautorek z 2021 roku? Modele językowe jako systemy, które statystycznie powielają wzorce z danych treningowych, bez rozumienia, bez intencji. Ta metafora wciąż się trzyma.
Ale teraz papugi przestały działać solo. Wchodzimy w erę agentyczną, gdzie systemy AI planują, piszą kod, uruchamiają inne modele, wykonują sekwencje działań bez nadzoru człowieka. Salvaggio nazywa to „stochastycznym stadem” – sformalizowanym chaosem, który optymalizuje się wzajemnie, ale bez żadnej nadrzędnej odpowiedzialności. I dodaje ze złośliwą precyzją: angielskie słowo na gromadę papug to pandemonium.
Mój komentarz
Czytam ten tekst z mieszanymi uczuciami – i uważam, że właśnie o to chodzi. Salvaggio nie mówi „AI jest bezużyteczne, zapomnijcie”. Mówi coś trudniejszego: bo jest użyteczne, musimy być jeszcze bardziej ostrożni. I z tym się zgadzam. Widzę realny postęp – agenty kodujące, weryfikujące własne błędy, wykonujące złożone zadania. To nie jest hype bez pokrycia. Ale jednocześnie widzę, że branża nagradza szybkość, nie jakość. Widzę, że rządy chcą używać tych narzędzi do decyzji o świadczeniach społecznych, bo to „oszczędza czas”. I tu się zaczynam niepokoić. Pytanie nie brzmi „czy AI działa?” – brzmi „dla kogo działa i kto płaci cenę, gdy zawodzi?”
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Slopware – nowe słowo, stary problem
Salvaggio wprowadza pojęcie, które warto zapamiętać: slopware. To oprogramowanie generowane przez AI szybciej, niż ktokolwiek jest w stanie je sprawdzić. Nie złośliwe, ale niedbałe. Nie malware, ale coś gorszego w pewnym sensie – kod, który działa w wąskich warunkach, maskując błędy ukryte głębiej.
Klasyczny przykład z tekstu: kalkulator finansów domowych, który działa idealnie dla singla z regularną pensją, a generuje błędy dla samotnej matki z nieregularnymi dochodami. Nikt nie zaprojektował tego jako dyskryminacji. Po prostu nikt nie myślał wystarczająco szeroko.
Salvaggio wymienia kilka konkretnych zagrożeń wynikających z agentycznego AI:
- Kumulowanie błędów technicznych – hallucynacje są matematycznie niemożliwe do wyeliminowania, a agentic systems ukrywają je głębiej w łańcuchu działań
- Kumulowanie błędów odpowiedzialności – gdy wiele modeli działa razem, niemożliwe staje się prześledzenie, gdzie pojawił się błąd
- Computational solutionism – złudzenie, że każdy problem społeczny ma rozwiązanie w postaci kodu
- Skala zużycia zasobów – jeden prompt aktywuje całe „stado”, nie jeden model
Użyteczność jako pole walki
Tutaj tekst staje się naprawdę interesujący. Salvaggio odrzuca argument, że AI jest po prostu bezużyteczne. Pisze wprost: systemy, które nie działają, nie stanowią zagrożenia dla pracy. Systemy, których nikt nie używa, nie niszczą środowiska. Krytyka oparta na „to i tak nie działa” jest pasywnością, nie analizą.
Prawdziwe pytanie brzmi: co znaczy „użyteczne”, dla kogo i na czyich warunkach?
To szczególnie ważny kontekst w świetle nadchodzących IPO OpenAI i Anthropic. Obie firmy mają dziś silne motywacje do maksymalnego pompowania narracji o użyteczności swoich produktów. Rynek wyceni to, w co uwierzy.
Krytyka musi ewoluować razem z technologią
Salvaggio kończy prowokacyjnie. Mówi, że środowisko krytyczne wobec AI popełnia strategiczny błąd, skupiając się na memach z błędami modeli. To solidaryzowanie się z innymi sceptykami, nie rzeczywista analiza.
Jeśli agentic AI wyznacza nowy kierunek dla branży, to ramy bezpieczeństwa skupione na „inteligencji” modelu są fundamentalnie niewystarczające. Liczy się projektowanie, wdrożenie, kontekst społeczny, dystrybucja korzyści i ryzyk.
To nie jest antypostępowy manifest. To przypomnienie, że postęp technologiczny bez instytucjonalnej odpowiedzialności to nie postęp – to przetasowanie tego, kto ponosi koszty.
