Matei Zaharia, współzałożyciel i CTO Databricks, został wyróżniony nagrodą ACM Prize in Computing za rok 2026. Przy okazji wywołał niemałe poruszenie jednym zdaniem: „AGI is here already. It’s just not in a form that we appreciate” / „AGI już tu jest. Po prostu nie w takiej formie, jaką doceniamy”.
Sam Zaharia przyznał, że wiadomość o nagrodzie zaskoczyła go tak bardzo, że o mało nie przegapił e-maila z informacją. „Yeah, it was a surprise” / „Tak, to było zaskoczenie” – powiedział krótko w rozmowie z TechCrunch.
Od Sparka do imperialnej wyceny 134 miliardów dolarów
Historia Zaharii jest niemal wzorcowym przykładem krzemidolińskiej bajki o sukcesie. W 2009 roku, podczas doktoratu na UC Berkeley pod okiem legendarnego profesora Iona Stoici, stworzył technologię, która zrewolucjonizowała przetwarzanie dużych zbiorów danych. Projekt open source o nazwie Apache Spark sprawił, że powolne, nieporęczne systemy big data zaczęły działać wielokrotnie szybciej. W tamtych czasach big data było tym, czym dziś jest AI: gorącym tematem, na którym wszyscy chcieli zarobić.
Zaharia, mając zaledwie 28 lat, stał się jedną z gwiazd branży technologicznej. Spark stał się fundamentem, na którym wyrosło Databricks: firma, która dziś jest wyceniana na 134 miliardy dolarów, osiągnęła 5,4 miliarda dolarów przychodów i przez lata zebrała ponad 20 miliardów dolarów od inwestorów. Databricks zaczęło jako narzędzie do pracy z danymi, a teraz stawia się jako kluczowa warstwa infrastruktury dla AI i agentów.
Nagroda ACM i 250 tysięcy dolarów na cele charytatywne
Nagroda ACM Prize in Computing, przyznawana przez Association for Computing Machinery, trafia co roku do naukowca lub inżyniera, którego dorobek wywarł szczególny wpływ na całą dziedzinę informatyki. W 2026 roku kapituła wyróżniła właśnie Zaharię za całokształt jego osiągnięć, podkreślając przede wszystkim wkład w systemy do przetwarzania danych na masową skalę.
Do nagrody dołączony jest czek na 250 tysięcy dolarów. Zaharia zdecydował, że całość przekaże na cele charytatywne, choć nie ujawnił jeszcze konkretnej organizacji.
„AGI już tu jest”
Ale to nie nagroda zelektryzowała środowisko, lecz słowa Zaharii o stanie sztucznej inteligencji. Jego teza jest prowokacyjna i jednocześnie zaskakująco spójna:
„AGI is here already. It’s just not in a form that we appreciate” / „AGI już tu jest. Po prostu nie w takiej formie, jaką doceniamy.”
Zaharia twierdzi, że główny błąd, jaki popełniamy w ocenie AI, polega na przykładaniu do niej ludzkich standardów. Bierzemy modele językowe i pytamy: czy zdały egzamin prawniczy? Czy piszą jak człowiek? Czy „rozumieją”? Ale to fałszywy tropiciel inteligencji. Człowiek zda egzamin na prawnika dlatego, że przez lata scalał wiedzę z różnych źródeł w jedną całość. Model AI może przetworzyć tę samą wiedzę w ułamku sekundy, w zupełnie inny sposób, i wyciągnąć z niej poprawne wnioski. To nie jest gorszy rodzaj inteligencji, to po prostu inny.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Zaharia dotyka czegoś ważnego, choć jego słowa łatwo wyrwać z kontekstu i powiedzieć „AGI gotowe, możemy świętować”. Sęk w tym, że on wcale tak nie mówi. Jego punkt jest subtelniejszy: zamiast pytać „czy AI jest jak człowiek?”, powinniśmy pytać „do czego AI jest naprawdę dobra i jak to możemy wykorzystać?”. I tu rzeczywiście jesteśmy w zupełnie innym miejscu niż 5 lat temu.
Z drugiej strony, ten argument ma cień. Jeśli zaakceptujemy, że AGI „już jest, tylko inne”, czy to nie oznacza, że zwalniamy się z trudniejszych pytań o rozumowanie, spójność, niezawodność? Mam wrażenie, że w branży zbyt chętnie ogłaszamy kolejne „przełomy”, a faktyczne ograniczenia modeli pozostają niezmienione. Gdzie jest granica między „inna forma inteligencji” a „bardzo sprytna statystyka”? To pytanie wciąż czeka na odpowiedź.
OpenClaw jako przykład: potęga i „koszmar bezpieczeństwa”
Zaharia podał konkretny przykład, który dobrze ilustruje jego tezę. Wskazał na popularnego agenta AI o nazwie OpenClaw.
„On the one hand, it’s awesome. You can do so many things with it. It just does them automatically” / „Z jednej strony, to jest niesamowite. Możesz z nim zrobić tak wiele rzeczy. Po prostu robi je automatycznie” – mówi Zaharia. Ale jednocześnie nazywa go „a security nightmare” / „koszmarem bezpieczeństwa”, bo agent ten jest zaprojektowany tak, żeby naśladować ludzkiego asystenta, któremu ufasz z hasłami i dostępem do kont. Efekt? Otwarte drzwi do hackerów albo niekontrolowane wydatki z konta bankowego, bo przeglądarka jest zalogowana.
„Yeah, it’s not a little human there” / „Tak, to nie jest mały człowiek” – podsumowuje.
To brzmi trywialnie, ale ma poważne konsekwencje:
- agenty AI działające w imieniu użytkownika mają dostęp do wrażliwych danych
- projektowane są tak, aby zachowywać się jak zaufane osoby
- użytkownicy przypisują im intencje i zrozumienie, którego nie posiadają
- to otwiera nowe klasy ataków, których tradycyjne zabezpieczenia nie przewidują
AI dla badań, nie dla ludzkich standardów
Zaharia, który poza CTO jest też adiunktem na UC Berkeley, mówi, że najbardziej ekscytuje go potencjał AI w automatyzacji badań naukowych: od eksperymentów biologicznych, przez kompilację danych, po symulacje na poziomie molekularnym.
Tak jak vibe coding otworzył programowanie dla osób niebędących programistami, tak Zaharia wierzy, że AI dla badań stanie się kiedyś powszechna, niezależnie od wykształcenia. „Not that many people need to build applications, but lots of people need to understand information” / „Niewielu ludzi potrzebuje tworzyć aplikacje, ale wielu potrzebuje rozumieć informacje” – mówi.
Jego wizja przyszłości to modele, które:
- tłumaczą każdy dziwny dźwięk w samochodzie
- skanują dane nie tylko tekstowe, ale też z radia czy mikrofal
- symulują zmiany na poziomie molekularnym i przewidują ich skuteczność
„The thing that I’m most excited about is what I’d call AI for search, but specifically for research or engineering” / „Najbardziej ekscytuje mnie to, co nazwałbym AI dla wyszukiwania, ale konkretnie dla badań naukowych lub inżynierii” – podsumowuje Zaharia.
Laureat nagrody ACM spogląda więc nie wstecz, na swoje osiągnięcia z czasów Sparka, lecz do przodu, na świat, w którym AI przestanie być narzędziem imitującym człowieka, a zacznie być czymś na własnych warunkach. Pytanie, czy branża jest gotowa to zaakceptować, pozostaje otwarte.
