Yann LeCun, główny naukowiec ds. AI w Meta, opublikował wraz ze swoim zespołem pracę badawczą, która uderza w jeden z fundamentów współczesnego dyskursu o sztucznej inteligencji. Teza jest prosta i prowokacyjna zarazem: AGI, czyli Artificial General Intelligence, to pojęcie źle zdefiniowane, naukowo nieprecyzyjne i jako cel badawczy po prostu nieużyteczne.
Artykuł, dostępny na arXiv, nie jest kolejnym manifestem futurystycznym. To techniczna krytyka tego, jak branża AI rozumie i mierzy postęp. I choć LeCun od lat jest znany z kontrowersyjnych poglądów na temat dużych modeli językowych, tym razem idzie krok dalej i proponuje konkretną alternatywę.
AGI: termin, który znaczy wszystko i nic
Podstawowy problem z AGI, zdaniem autorów, leży w braku spójnej definicji. W zależności od kontekstu AGI oznacza coś innego: zdolność do wykonywania wszystkiego, co potrafi człowiek, ekonomiczną użyteczność na poziomie ludzkim, umiejętność otwartego rozumowania, albo zdolność uczenia się nowych zadań. To nie są równoważne definicje i nie prowadzą do jednego, weryfikowalnego celu badawczego.
Autorzy idą jednak jeszcze dalej. Kwestionują samą intuicję stojącą za AGI, czyli przekonanie, że ludzka inteligencja jest dobrym wzorcem „generalności”. Ich argument jest nieoczekiwanie subtelny: ludzie wydają się inteligentni w szerokim sensie tylko dlatego, że oceniamy inteligencję z wewnątrz przestrzeni zadań ukształtowanej przez biologię i przetrwanie. Jesteśmy sprawni w percepcji, planowaniu, rozumowaniu społecznym. Ale to nie generalność, to specjalizacja dostosowana do konkretnej niszy ekologicznej. Poza nią maszyny już nas regularnie przewyższają.
Czym jest SAI i dlaczego adaptacja jest ważniejsza niż wiedza
Zamiast AGI, LeCun i jego współpracownicy proponują pojęcie Superhuman Adaptable Intelligence (SAI). Definiują je jako zdolność do adaptacji pozwalającej przekroczyć ludzki poziom w dowolnym zadaniu, które człowiek jest w stanie wykonać, a jednocześnie rozszerzenia tej zdolności na zadania leżące poza ludzkim zasięgiem.
Kluczowa różnica wobec AGI tkwi w tym, co się mierzy. Zamiast statycznego inwentarza umiejętności, SAI skupia się na szybkości adaptacji: jak szybko system jest w stanie nauczyć się nowego zadania w nowym środowisku. To zmiana myślenia z „co system już umie” na „jak szybko system może się nauczyć czegoś nowego”.
Komentarz: Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Propozycja LeCuna jest intelektualnie uczciwa. Od lat obserwujemy, jak termin AGI stał się marketingowym workiem, do którego każda firma i każdy badacz wkłada co innego. OpenAI mówi o AGI, DeepMind mówi o AGI, a obaj mówią o czymś zupełnie różnym. Z tej perspektywy krytyka jest trafna i potrzebna. Ale czy SAI naprawdę rozwiązuje problem? Mam wątpliwości. „Szybkość adaptacji” brzmi precyzyjniej, ale czy faktycznie jest łatwiejsza do zmierzenia niż „generalność”? I czy nie otwieramy tutaj nowej puszki Pandory, gdzie każdy będzie definiował benchmarki adaptacji według własnych potrzeb? Warto też zadać pytanie, czy za tym przesunięciem terminologicznym nie kryje się po prostu opis tego, nad czym Meta i LeCun pracują od lat, czyli architektury JEPA i world modeli. Nowe słownictwo, znana agenda?
Specjalizacja nie jest słabością
Jednym z bardziej interesujących wątków pracy jest obrona specjalizacji jako cechy pożądanej, a nie defektu. Autorzy argumentują wprost, że nie powinniśmy oczekiwać jednego, monolitycznego modelu sprawnego we wszystkich domenach jednocześnie. Przyszłe systemy AI będą prawdopodobnie wymagały wewnętrznej specjalizacji, hierarchii i różnorodności architektur.
Brzmi to jak bezpośrednia odpowiedź na narrację o „one model to rule them all”, którą słyszymy regularnie z ust liderów OpenAI czy Anthropic.
Self-supervised learning i world modele jako droga do SAI
Autorzy wskazują kilka konkretnych kierunków technicznych:
- Self-supervised learning jako podejście bardziej skalowalne niż uczenie nadzorowane, szczególnie tam, gdzie brakuje dużych, etykietowanych zbiorów danych
- World modele jako mechanizm budowania kompaktowych reprezentacji dynamiki środowiska, wspierających planowanie i adaptację zero-shot oraz few-shot
- Architektury predykcji w przestrzeni latentnej, takie jak JEPA, Dreamer 4 i Genie 2, jako obiecujące przykłady właściwego kierunku
Autorzy wyraźnie zaznaczają, że SAI nie narzuca jednej architektury. To cel i kryterium oceny, nie przepis.
Monokultura architektoniczna jako zagrożenie
Osobny, ostry fragment pracy dotyczy dominacji autoregresywnych modeli językowych (LLM i LMM) w obecnym ekosystemie AI. LeCun i współpracownicy nie twierdzą, że te modele są bezużyteczne. Twierdzą natomiast, że koncentracja całego pola badań wokół jednego paradygmatu zwęża przestrzeń poszukiwań i może spowalniać postęp. Wskazują też na konkretną słabość autoregresji: kumulowanie błędów przy długich horyzontach czasowych, co czyni długoterminowe interakcje zawodnymi.
To nie jest nowa krytyka ze strony LeCuna, ale tym razem jest osadzona w szerszym argumencie o tym, dokąd powinno zmierzać pole AI.
Podsumowanie w skrócie
Żeby nie było wątpliwości co do głównych tez, autorzy zebrali je sami:
- AGI nie jest precyzyjnym celem naukowym i jest używane niespójnie
- Ludzka inteligencja nie jest dobrym wzorcem „generalności”
- SAI skupia się na adaptacji i szybkości uczenia, nie na statycznym zestawie umiejętności
- Specjalizacja i różnorodność architektur są pożądane, nie problematyczne
- Self-supervised learning i world modele to obiecujące drogi do SAI
Praca nie ogłasza przełomu technicznego. Nie prezentuje nowego modelu ani benchmarku. Robi coś trudniejszego: proponuje zmianę języka i kryteriów, którymi oceniamy postęp w AI. Czy branża posłucha? To zupełnie inne pytanie.
