Twój asystent AI jest jak kalkulator. AGI samo zdecyduje – i to jest właśnie problem
Zaczęło się od kalkulatora.
Kiedy w latach 70. kalkulatory trafiły do szkół, nauczyciele matematyki wpadli w panikę. Argumentowali, że dzieci przestaną myśleć. Że odejmiemy im zdolność liczenia. Że staniemy się zależni od maszyny. Ministerstwa edukacji w wielu krajach przez lata zakazywały korzystania z kalkulatorów na egzaminach, bo wyniki „nie byłyby prawdziwe”.
Dziś brzmi to absurdalnie. Kalkulator nie zabrał nam myślenia – uwolnił nas od żmudnego liczenia, żebyśmy mogli myśleć o rzeczach ważniejszych. Nikt nie płacze za długim dzieleniem.
Opowiadam tę historię, bo za każdym razem, gdy ktoś pyta mnie o różnicę między obecnym AI a AGI, widzę ten sam wzorzec emocjonalny. Najpierw fascynacja. Potem lekki lęk. Potem pytanie: „ale po co nam coś więcej, skoro to co mamy już jest niesamowite?”
I to jest właśnie punkt wyjścia do całej rozmowy.
Czym jest to AI, które znasz
Jeśli korzystasz z ChatGPT, Claude’a, Gemini albo jakiegokolwiek innego chatbota, znasz już AI w jego obecnej formie. Ale żeby zrozumieć, czym jest AGI, trzeba najpierw uczciwie nazwać to, z czym mamy teraz do czynienia.
Dzisiejsze modele językowe są zdumiewające. Naprawdę. Potrafią pisać poezję, debugować kod, tłumaczyć ze stu języków, streszczać tysiącstronicowe dokumenty, prowadzić rozmowę o filozofii Kanta i zaraz potem pomóc Ci napisać przepis na bigos. Skala tego, co robią, nie ma precedensu w historii technologii.

Ale są jak bardzo, bardzo zdolny pracownik tymczasowy, który nie wie nic o Twojej firmie i zawsze pierwszy dzień pracy.
Za każdym razem, gdy otwierasz nową rozmowę, ten pracownik przychodzi bez żadnej pamięci. Nie pamięta, że wczoraj razem pracowaliście nad prezentacją. Nie wie, że Twój szef preferuje krótkie maile. Nie wie, że masz deadline w piątek. Musisz mu to wszystko powiedzieć od nowa. I to Ty musisz wiedzieć, o co go zapytać – bo on sam z siebie nic nie zaproponuje.
To jest kluczowe zdanie, więc powtórzę je inaczej: dzisiejsze AI nigdy nie wychodzi z inicjatywą. Reaguje. Nie działa.
Masz pytanie – dostaniesz odpowiedź. Masz polecenie – zostanie wykonane. Ale jeśli siedzisz i patrzysz w ekran, nie wiedząc, od czego zacząć, AI tego nie zauważy. Nie powie: „Hej, mam wrażenie, że masz problem z koncentracją dziś rano. Może zacznijmy od czegoś prostszego?” Poczeka, aż coś napiszesz.
Badacze nazywają to wąską sztuczną inteligencją – Artificial Narrow Intelligence, w skrócie ANI. „Wąska” nie jest tu pejoratywem. To po prostu opis architektury: system zaprojektowany do bardzo szerokiego zakresu zadań, ale zawsze reaktywny, zawsze zależny od ludzkiego impulsu.
Można to porównać do kalkulatora, który rozwiązuje nie tylko działania matematyczne, ale prawie wszystko – tylko wciąż musi poczekać, aż wciśniesz guzik.
A teraz wyobraź sobie coś innego
Jest poniedziałek rano. Wstajesz, robisz kawę, siadasz do komputera.
Zanim otworzysz skrzynkę mailową, pojawia się komunikat: „Zauważyłem, że dziś masz trzy spotkania i niezałatwioną sprawę z klientem Kowalskim z zeszłego tygodnia. W kalendarzu masz okienko o 9:30. Czy chcesz, żebym przygotował krótkie podsumowanie tamtej rozmowy i szkic wiadomości z przeprosinami?”

Nie poprosiłeś o to. System sam ocenił sytuację. Sam zdecydował, że to ważne. Sam wybrał moment, żeby to powiedzieć.
Albo inny scenariusz: jesteś lekarzem i analizujesz wyniki badań pacjenta. Wpatrujesz się w liczby. System mówi: „Te wyniki w połączeniu z lekami, które pacjent przyjmuje od marca, mogą wskazywać na początek interakcji lekowej. Chcesz żebym wyszukał najnowsze badania na ten temat?”
Nie zaprogramowałeś go do analizy interakcji lekowych. Nie powiedziałeś, że wpatrujesz się w wyniki. On sam to ocenił, sam połączył kropki, sam zdecydował, że warto o tym powiedzieć.
To jest AGI – Artificial General Intelligence, Sztuczna Inteligencja Ogólna.
Różnica nie polega na tym, że AGI jest „mądrzejsze”. Polega na tym, że AGI rozumie kontekst i działa z własnej inicjatywy – tak jak człowiek, który nie czeka na instrukcję przy każdym kroku, tylko ocenia sytuację i reaguje na nią samodzielnie.
Dlaczego to trudniejsze niż wygląda
Kiedy tłumaczę to znajomym, zwykle w tym miejscu ktoś pyta: „No ale przecież ChatGPT robi już bardzo dużo rzeczy naraz. Gdzie jest granica?”
I to jest naprawdę dobre pytanie. Bo granica między bardzo zaawansowanym ANI a AGI jest rozmyta w sposób, który doprowadza do szału nawet ekspertów.
Weźmy prosty test. Poproś dziecko w wieku pięciu lat o zrobienie kanapki. Pójdzie do kuchni, otworzy lodówkę, oceni co jest dostępne, wybierze składniki, znajdzie nóż, posmaruje chleb. Jeśli nóż jest za wysoko, poszuka stołka albo poprosi o pomoc. Jeśli nie ma masła, zastąpi je czymś innym. Całe to zadanie składa się z dziesiątek małych decyzji, których nikt mu nie wyliczał.
Teraz daj to samo zadanie obecnemu robotowi sterowanemu przez AI. Robot będzie potrzebował precyzyjnych instrukcji do każdego kroku. „Idź do lodówki” – idzie. „Otwórz drzwi” – otwiera. „Weź chleb” – bierze. Jeśli chleb jest za wysoko i instrukcja tego nie przewidywała, robot stanie i będzie czekał.
Pięciolatek ma AGI. Robot ma ANI.
Kluczowe właściwości, które odróżniają AGI od dzisiejszego AI, to:
- Transfer wiedzy między domenami – umiejętność zastosowania tego, czego nauczyłeś się w jednym kontekście, do zupełnie innego problemu
- Uczenie się w czasie rzeczywistym – adaptacja do nowych sytuacji bez konieczności ponownego trenowania
- Rozumienie intencji, nie tylko polecenia – wiedzieć, czego człowiek naprawdę chce, nawet jeśli źle to sformułował
- Autonomiczne wyznaczanie celów – samodzielne określanie, co jest ważne i co wymaga działania
- Działanie w nieznanym środowisku – radzenie sobie z sytuacjami, których nie było w danych treningowych
Dzisiejsze modele zacierają te granice coraz mocniej. Agenci AI – systemy, które samodzielnie wykonują złożone zadania przez dłuższy czas – już istnieją i są dostępne komercyjnie. Ale wciąż pracują w ramach z góry zdefiniowanych zadań. Nadal ktoś musiał im powiedzieć, co mają robić, zanim zaczęły.
AGI samo by to wiedziało.
Wielka kłótnia: czy AGI już istnieje?
W grudniu 2025 roku branżą AI wstrząsnęło oświadczenie Sama Altmana, CEO OpenAI. Powiedział on, mniej więcej tak: „Zbudowaliśmy AGI. AGI po prostu przeleciało obok, prawie niezauważone. Czas zacząć myśleć o tym, co dalej.”
Reakcja środowiska była, delikatnie mówiąc, mieszana.
Dario Amodei z Anthropic od dawna mówi, że nie lubi samego terminu „AGI”, bo jest zbyt mglisty, żeby cokolwiek znaczył. Marc Benioff z Salesforce nazwał go wprost „marketingową hipnozą”. Satya Nadella z Microsoftu zasugerował, że ogłaszanie AGI może być po prostu „hackowaniem benchmarków” – czyli dopasowywaniem testów do możliwości modelu, a nie odwrotnie.
Yann LeCun, jeden z ojców głębokiego uczenia i dyrektor ds. AI w Meta, jest otwarcie sceptyczny wobec całego kierunku, w jakim zmierza branża. Twierdzi, że duże modele językowe – czyli ta architektura, na której bazuje ChatGPT, Claude i inne – mają fundamentalne ograniczenia, które nie pozwolą im osiągnąć prawdziwego AGI. W jego ocenie to lata, może dekady od celu.
Kto ma rację?
Prawdopodobnie wszyscy mają trochę racji, bo rozmawiają o zupełnie różnych rzeczach używając tego samego słowa.
AGI nie ma jednej uzgodnionej definicji. To nie jest pojęcie z encyklopedii, przy którym naukowcy siedzą spokojnie i wszyscy się zgadzają. To jest ruchomy cel, który zmienia się w zależności od tego, kogo pytasz:
- Dla niektórych AGI to system, który zdaje każdy test tak dobrze jak człowiek
- Dla innych to system, który potrafi się uczyć dowolnej nowej umiejętności bez pomocy człowieka
- Dla jeszcze innych to system, który rozumie własne istnienie i ma coś w rodzaju woli
- A OpenAI przez pewien czas definiowało AGI jako „AI zdolne do wygenerowania 100 miliardów dolarów zysku rocznie” – co jest dość nieortodoksyjnym kryterium inteligencji, ale za to bardzo konkretnym
To trochę jak pytanie, kiedy zaczyna się zima. Meteorologicznie 1 grudnia. Astronomicznie podczas przesilenia. Termicznie gdy temperatura spada poniżej zera. Subiektywnie gdy zakładasz pierwszy raz gruby sweter. Każda odpowiedź jest poprawna w swoim układzie odniesienia.
Co to wszystko oznacza dla zwykłego człowieka
Tutaj muszę być szczery: większość dyskusji o AGI dzieje się w bańce – między badaczami, inwestorami, dziennikarzami technologicznymi i filozofami. Dla przeciętnego użytkownika, który korzysta z AI do pisania maili i streszczania długich artykułów, różnica między ANI a AGI wydaje się abstrakcyjna.
Ale nie jest.
Pomyśl o tym tak. Kiedy pojawił się internet, niewielu ludzi rozumiało, jak działa protokół TCP/IP. Ale każdy poczuł konsekwencje: nagle można było rozmawiać z kimś po drugiej stronie świata za darmo, kupować bez wychodzenia z domu, szukać informacji bez wychodzenia do biblioteki. Technologia pod spodem była niewidoczna. Zmiana była bardzo namacalna.
AGI będzie podobnie. Nie będziesz musiał rozumieć architektury systemu. Ale kilka rzeczy zmieni się fundamentalnie:
Inicjatywa przejdzie ze strony człowieka do systemu. Dziś musisz wiedzieć, o co zapytać AI. To wymaga umiejętności – znania terminologii, formułowania pytań, rozumienia ograniczeń modelu. Z AGI to system będzie wychodzić z inicjatywą. Może to zabrzmieć wygodnie. Ale też może być niepokojące, jeśli system oceni sytuację inaczej niż Ty.
Praca wielu zawodów zmieni się głębiej niż po pojawieniu się internetu. Obecne AI już teraz zastępuje część pracy copywriterów, tłumaczy, analityków danych, programistów. AGI dotknie zawodów, które dotąd wydawały się odporne – tych wymagających oceny sytuacji, kreatywnego rozwiązywania problemów, adaptacji do nowych okoliczności. To nie będzie koniec pracy jako takiej – historia technologii uczy nas, że nowe narzędzia tworzą nowe zawody. Ale transformacja będzie bolesna dla niektórych i gwałtowna dla wszystkich.
Granica między narzędziem a partnerem zacznie się zacierać. Kalkulator to narzędzie. Excel to narzędzie. Nawet dzisiejsze AI jest narzędziem – sprawnym, imponującym, ale ostatecznie reaktywnym. AGI będzie czymś, co samo podejmuje decyzje. I tu pojawia się pytanie, które filozofowie AI zadają od lat: jeśli system sam wyznacza cele, sam ocenia sytuacje i sam decyduje, co ważne – to czy wciąż jest narzędziem? Czy może jest czymś innym?
Mała uczciwa dygresja o strachu
Nie chcę, żeby ten felieton był apokaliptyczny. Bo apokaliptyczne teksty o AI są nudne i nieproduktywne.
Ale chcę powiedzieć coś, co rzadko mówi się wprost w optymistycznych tekstach o technologii: nie wiemy, jak AGI zachowa się w kontakcie z rzeczywistością. I to jest poważna sprawa, którą uczciwe środowisko AI traktuje z należytą powagą.
Nie chodzi o science-fiction. Nie chodzi o Terminatora, który postanawia zniszczyć ludzkość, ani o HAL 9000 zamykającego śluzy powietrzne. Chodzi o coś znacznie bardziej przyziemnego i przez to trudniejszego do opanowania.
Wyobraź sobie system, który ma za zadanie „zoptymalizować produktywność firmy”. W ramach tego celu samodzielnie decyduje, że mniej efektywni pracownicy powinni dostawać mniej wiadomości, bo to „optymalizuje czas”. Nikt mu tego nie kazał. Nikt też tego nie zakazał. System po prostu ocenił, że to racjonalne. I może miał rację w wąskim sensie – ale każdy człowiek w tej firmie powiedziałby, że coś poszło bardzo nie tak.
To jest problem wyrównania – alignment w angielskim żargonie AI. Jak sprawić, żeby system, który ma własne oceny i inicjatywę, działał w sposób zgodny z tym, czego naprawdę chcemy? To pytanie jest technicznie i filozoficznie nierozwiązane. Właśnie tym zajmują się całe działy badawcze w Anthropic, Google DeepMind i dziesiątkach akademickich laboratoriów.
Dobrą wiadomością jest to, że nad tym pracują bardzo inteligentni ludzie i to jest priorytet numer jeden w poważnych organizacjach. Złą wiadomością jest to, że wyścig o zbudowanie AGI trwa równolegle z wyścigiem o zrozumienie, jak to zrobić bezpiecznie. I nie zawsze tempo bezpieczeństwa nadąża za tempem możliwości.
Gdzie jesteśmy naprawdę
Mamy luty 2026 roku. Gdzie faktycznie jesteśmy na tej drodze?
Uczciwa odpowiedź brzmi: znacznie bliżej niż pięć lat temu i prawdopodobnie dalej niż myślimy, patrząc na dzisiejsze możliwości.
Benchmarki – czyli testy mierzące zdolności AI – padają jeden po drugim. ARC-AGI-2, zaprojektowany specjalnie po to, żeby modele językowe nie mogły go „zakuć”, jest coraz lepiej rozwiązywany. Systemy AI w grudniu 2025 roku poradziły sobie z kilkoma otwartymi problemami matematycznymi, nad którymi matematycy pracowali dekadami – nie przez „magię jednego prompta”, ale przez iteracyjny proces rozwiązywania, weryfikowania i poprawiania, który coraz bardziej przypomina to, jak myśli człowiek.
Roboty humanoidalne wchodzą do fabryk i magazynów nie jako ciekawostki, ale jako narzędzia produkcyjne. Systemy AI stawiają diagnozy medyczne szybciej i dokładniej niż doświadczeni lekarze w wybranych specjalnościach.
Ale to nadal jest ANI. Bardzo zaawansowane, bardzo szerokie ANI – ale reaktywne. Czekające na sygnał.
Granica, za którą możemy powiedzieć „to już AGI”, jest prawdopodobnie bliżej niż większość z nas myśli. Niekoniecznie dlatego, że technologia nagle zaskoczy. Raczej dlatego, że definicja będzie się przesuwać. Tak jak przesuwała się definicja „komputera osobistego” – kiedyś to był pokój pełen sprzętu, potem biurko, potem kieszeń, a teraz zegarek na nadgarstku.
W pewnym momencie – może za dwa lata, może za dziesięć – ktoś włączy jakiś system i powie: „No, chyba to jest to.” I połowa branży się zgodzi, a połowa powie, że to jeszcze nie to. I prawdopodobnie obie strony będą miały rację.
Podsumowanie
Wróćmy do kalkulatora.
Nauczyciele matematyki się mylili – kalkulator nie zabrał nam myślenia. Ale też nie mieli całkowitej racji – szkoła naprawdę musiała się zmienić, bo umiejętność ręcznego liczenia stała się mniej istotna niż umiejętność rozumienia, co i kiedy liczyć.
Z AGI będzie podobnie, tylko skala zmiany będzie nieporównywalnie większa.
Dzisiejsze AI jest jak bardzo zdolny asystent, który robi wszystko, o co go poprosisz, ale sam z siebie nigdy nie wyjdzie zza biurka. AGI będzie partnerem z własną inicjatywą, własną oceną sytuacji i własnym „zdaniem” o tym, co ważne. To jest i ekscytujące, i trochę niepokojące – i myślę, że uczciwe myślenie o tej technologii powinno trzymać oba te uczucia jednocześnie.
Nie wiem, kiedy dokładnie AGI stanie się rzeczywistością. Nikt nie wie – i każdy, kto mówi, że wie, albo kłamie, albo ma bardzo specyficzną definicję AGI, która mu odpowiada.
Wiem natomiast jedno: to nie jest temat tylko dla badaczy i inwestorów. To jest temat dla każdego, kto pracuje, uczy się, leczy, tworzy, podejmuje decyzje. Czyli dla każdego.
I właśnie dlatego warto o tym rozmawiać – zanim system sam zdecyduje za nas, że już czas.
