Ludzki mózg zużywa mniej energii niż zwykła żarówka. Systemy sztucznej inteligencji, żeby wykonać te same zadania, pochłaniają energię całych elektrowni. Nowe badania opublikowane w prestiżowym czasopiśmie „Nature” pokazują, że być może robimy to wszystko zupełnie nie tak.
Zespół naukowców z Cold Spring Harbor Laboratory, Carnegie Mellon University i Princeton University stworzył model AI, który naśladuje działanie fragmentu wzrokowego układu nerwowego. Punkt wyjścia? Neurony makaka japońskiego.
Od 60 milionów do 10 tysięcy zmiennych
Model zaczął jako typowy, rozbudowany twór z 60 milionami zmiennych. Po serii kompresji badacze sprowadzili go do wersji działającej na zaledwie 10 tysiącach zmiennych, zachowując przy tym porównywalną skuteczność.
„That is incredibly small” – powiedział Ben Cowley, adiunkt w Cold Spring Harbor Laboratory i jeden z autorów badania. „This is something we could send in a tweet or an email.”
Sześć tysięcy razy mniejszy. Warto to sobie uzmysłowić.
Badacze skupili się konkretnie na neuronach V4 – komórkach odpowiadających za kodowanie barw, faktur, krzywizn i złożonych proto-obiektów, czyli wstępnie rozpoznanych kształtów. Istniejące systemy AI robią to samo za pomocą modeli głębokich sieci neuronowych, które wymagają wydajnych komputerów i uczą się, analizując ogromne zestawy możliwości. Cowley szukał czegoś prostszego.
Metoda była dwuetapowa: najpierw wyeliminowano redundantne i zbędne elementy modelu, a następnie zastosowano techniki statystyczne podobne do tych używanych przy kompresji zdjęć cyfrowych.
Komentarz redaktora
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: Czytam to badanie z dużą uwagą, bo dotyka czegoś, o czym branża AI woli nie mówić głośno – że nasze modele są gigantycznie nieefektywne. To nie jest krytyka, to obserwacja. Z jednej strony wyniki z Nature są ekscytujące i otwierają zupełnie nowe pytania o architekturę sieci neuronowych. Z drugiej trzeba zachować ostrożność: tutaj mówimy o bardzo wąskim wycinku układu wzrokowego, nie o AGI w miniaturze. Pytanie, które mnie najbardziej nurtuje, brzmi: czy ta droga skaluje się na bardziej złożone zadania poznawcze, czy pozostanie ciekawostką naukową z ograniczoną aplikacją przemysłową? Historia AI zna wiele takich obiecujących kierunków, które nie wyszły poza laboratorium.
Co z tym można zrobić w praktyce?
Samochody autonomiczne mogłyby działać na słabszych komputerach, prawidłowo odróżniając pieszego od unoszącego się w powietrzu reklamowego worka foliowego. To przykład podany przez samego Cowleya i jest dobry, bo pokazuje konkretny, przyziemny problem, który branża automotive zna aż za dobrze.
Potencjalne zastosowania tego kierunku badań obejmują kilka obszarów:
- autonomiczne pojazdy – mniejsze wymagania obliczeniowe, tańszy hardware pokładowy
- urządzenia mobilne i edge computing – modele wizyjne działające bez chmury
- neuronauka – kompaktowe modele jako narzędzie do badania chorób takich jak Alzheimer
- ogólna efektywność energetyczna – zmniejszenie śladu węglowego całej branży AI
Mózg wciąż wygrywa
Entuzjazm trzeba jednak temperować. Mitya Chklovskii z Simons Foundation’s Flatiron Institute, który nie był zaangażowany w badanie, wskazuje na kluczowe ograniczenie: systemy AI muszą zrobić więcej niż tylko się zmniejszyć, żeby dorównać ludzkiemu mózgowi.
Chklovskii przypomnial o czymś fundamentalnym. Człowiek rozpoznaje twarz znajomego w każdych warunkach – po opaleniu, po nowej fryzurze, w ciemnościach, z profilu. Dzieje się tak dlatego, że biologiczne neurony nie pracują na statycznych obrazach. Przetwarzają wideo, obserwując tę samą twarz w różnych momentach i miejscach. Obecne modele AI tego po prostu nie robią.
„If our brains have less complex models and yet can do more than these AI systems, that tells us something about our AI systems” – powiedział Cowley. Ta obserwacja jest jednocześnie skromna i przełomowa. Przyznaje bowiem otwarcie, że branża AI przez lata szła w kierunku coraz większej skali, niekoniecznie w kierunku mądrości.
Nie tłumaczenie przyrody, lecz nauka od niej
Najciekawszy wątek tego badania nie leży w samej kompresji. Leży w tym, że kompaktowy model zaczyna zachowywać się bardziej jak żywy mózg. To otwiera drogę do czegoś, czego neuronaukowcy szukają od dekad: interpretowalnych modeli obliczeniowych, które pozwolą zajrzeć do środka i zrozumieć, co tam właściwie się dzieje.
Cowley zauważa, że mamy bardzo ubogie rozumienie działania systemów AI – podobnie jak własnego mózgu. Paradoksalnie miniaturyzacja może nam pomóc zobaczyć więcej, nie mniej.
Badanie ukazało się w „Nature” 3 marca 2026 roku. Autorzy współpracowali z Carnegie Mellon University i Princeton University.
