Polak potrafi. Polak nie wdraża. I to właśnie jest nasz największy problem z AI.
Znam tego człowieka. Może znacie go też. Siedzi na konferencji, kiwa głową przy każdym slajdzie o sztucznej inteligencji, po przerwie kawowej mówi „u nas to by nie przeszło” i wraca do Excela, który ma już trzynaście lat. To nie jest karykatura. To zbiorowy portret mentalności, która kosztuje Polskę co najmniej trzy lata w globalnym wyścigu o AI.
Powiem to wprost, bo lubię pisać rzeczy, których nie napisze oficjalny komunikat prasowy: mamy talenty. Mamy infrastrukturę, która właśnie rośnie. Mamy uczelnie produkujące matematyków i informatyków, za którymi polują Apple, OpenAI i Google. A mimo to, kiedy zestawię mapę konferencji AI w San Francisco z tym, co dzieje się w Warszawie, robi mi się trochę smutno. I trochę złość.
Zacznijmy od dobrej wiadomości: naprawdę nie jesteśmy bez szans
Polscy programiści pracują nad GPT-4. Nad Gemini. Nad modelami, których nazw nie mogę wymienić, bo działają w działach R&D największych firm świata za zamkniętymi drzwiami. Marcin Sidor był jednym z głównych badaczy przy GPT-4. Marek Kaiser współtworzył przełomowe modele tłumaczeń w Google Brain. Piotr Krawczyk z Wrocławia przez lata kierował rozwojem projektu Bard w Google. Trójka Polaków. Trójka ludzi, którzy zdefiniowali to, jak AI mówi i myśli. I żadne z nich nie robi tego w Polsce.
Jak wskazuje raport State of Polish AI, ponad 300 polskich firm aktywnie rozwija rozwiązania oparte na AI, a razem z firmami powiązanymi liczba ta sięga około 1000. Brzmi imponująco. Ale kiedy zestawimy to z tym, że w 2025 roku z rozwiązań AI korzystało zaledwie 8,7 proc. polskich firm, a wśród tych, które jeszcze nie wdrożyły AI, aż 77 proc. nie planuje tego zrobić, dopóki nie stanie się to absolutną koniecznością – obraz jest dużo bardziej przygnębiający.
Siedemdziesiąt siedem procent. To nie jest ostrożność. To paraliż decyzyjny odziedziczony po trzech dekadach „poczekajmy, aż Zachód to sprawdzi”.
„W USA i Chinach najłatwiej o pieniądze, najtrudniej o talenty. W Polsce problem jest odwrotny: talentów nie brakuje, finansowania i zaplecza infrastrukturalnego brak.” – Jarosław Królewski, założyciel Synerise
I tu właśnie tkwi sedno sprawy. Nie brakuje nam ludzi. Brakuje nam odwagi systemowej.
Rządowy entuzjazm kontra rzeczywistość
Muszę być uczciwy: rząd się rusza. Ministerstwo Cyfryzacji zapowiada budowę dwóch fabryk AI: PIAST AI Factory w Poznaniu i Gaia AI Factory w Krakowie, ta ostatnia z dofinansowaniem 70 mln euro z unijnego programu EuroHPC. Fundusz Sztucznej Inteligencji ma koordynować inwestycje rzędu miliarda złotych w obszarze AI. Ministerstwo Cyfryzacji ogłosiło zaktualizowaną wersję „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku”.
Dokumenty. Plany. Strategie. Fabryki. Szumne ogłoszenia na konferencjach prasowych.
Problem nie leży w tym, że rząd nic nie robi. Problem leży w tym, jak to robi i jak szybko. Bo kiedy w Waszyngtonie decyduje się o wydatkach AI liczonymi w setkach miliardów dolarów w ciągu jednego kwartału, my z przejęciem ogłaszamy miliard złotych rozłożony na kilka lat. Stany Zjednoczone wydały na AI ponad 470 miliardów dolarów w samym 2025 roku. To nie jest tak, że gramy w tej samej lidze, tylko na gorszej pozycji. My gramy w innej lidze. I musimy to sobie powiedzieć bez owijania w bawełnę.
W 2025 roku Stany Zjednoczone wytworzyły około czterdziestu dużych modeli fundamentalnych, Chiny około piętnastu, cała Unia Europejska tylko trzy. Europa razem. Trzecia liga globalnego wyścigu o fundamenty, na których będzie stała cywilizacja następnych dekad.
A gdzie w tej układance jest Polska? Mamy jeden model. PLLuM. Zbudowany przez konsorcjum sześciu instytucji naukowych za 14,5 miliona złotych. Kolejne 19 mln zł ze środków ministerstwa ma umożliwić wdrożenie modelu w administracji publicznej. Dla porównania: OpenAI w lutym 2026 roku zebrał 110 miliardów dolarów w jednej rundzie finansowania.
To nie jest krytyka PLLuM. Technologicznie to solidny projekt. Modele PLLuM są sukcesywnie rozwijane – nowe wersje są oparte na pełniejszych danych i dostrojone do praktycznych zastosowań. Polscy językoznawcy i informatycy zrobili porządną robotę. Ale skala i tempo są nieporównywalne.
I teraz uwaga: projekt PLLuM został formalnie „pomyślnie zakończony”. Dalsze prace toczą się w inicjatywie HIVE. Strona pllum.org.pl wita odwiedzającego krótką notatką o zakończeniu projektu i odsyła dalej. Blog świeci pustkami. Nie ma regularnych aktualizacji, nie ma społeczności, nie ma hype’u. Jest polska cisza. Taka, jaką znamy z korytarzy urzędów.
Dla porównania: kiedy Mistral (Francja) czy Aleph Alpha (Niemcy) publikują cokolwiek, to X i LinkedIn eksplodują. Dyskusje. Benchmarki. Grupy developerów. Wspólnota zbudowana wokół produktu. My mamy repozytorium na Hugging Face i wirtualną ciszę wokół niego. Każdy sobie panem.
Problem mentalności, który trudno zakodować
Być może największym wyzwaniem polskiego AI nie jest budżet. Nie jest nawet infrastruktura obliczeniowa, choć ta też jest problemem – największe polskie superkomputery posiadają zaledwie 440 GPU, podczas gdy brak dostępu do mocy obliczeniowej jest ogromną barierą dla nawet najwybitniejszych polskich naukowców i inżynierów.
Największym wyzwaniem jest to, co można by nazwać syndromem odtwórcy.
Wdraża się to, co sprawdzone na Zachodzie. Kupuje się licencje, kiedy produkt ma już kilka lat i można go porównać z konkurencją. Wchodzi się na rynek, gdy ryzyko jest minimalne, a marże – proporcjonalnie mniejsze. To strategia, która świetnie działała przez lata polskiej transformacji. Kopiowaliśmy dobre wzorce i robiliśmy to sprawnie. Problem polega na tym, że w erze AI kopiowanie oznacza trzyletnie opóźnienie. A trzy lata w technologii to epoka.
Kiedy Brian Chesky zakładał Airbnb, nie czekał, aż branża hotelarska „sprawdzi, czy to ma sens”. Kiedy Andrej Karpathy uczył się głębokiego uczenia, nie pytał Słowacji ani Węgier, czy to słuszny kierunek. W Bay Area samo powietrze jest nasycone przekonaniem, że można zrobić coś pierwszego. My mamy inne powietrze. Ciężkie od pytania „a co, jeśli się nie uda?”.
I to jest pytanie polityczne, nie tylko technologiczne. Bo za tę mentalność odpowiedzialne jest całe środowisko: korporacje zamknięte na wewnętrzne startupy, uczelnie premiujące bezpieczne tematy badawcze zamiast ryzykownych, instytucje publiczne, które wolą poczekać na wytyczne ministerialne niż podjąć decyzję samodzielnie, inwestorzy, którzy chętniej dają pieniądze na e-commerce niż na model językowy.
„Polska nie może pozostać jedynie inkubatorem talentów, które po świetnym wykształceniu emigrują do miejsc, w których jest kapitał, zaplecze infrastrukturalne i luźniejsze regulacje.” – Jarosław Królewski, Synerise
Każdy sobie panem, czyli o tym, czego naprawdę brakuje
San Francisco to nie tylko pieniądze. To gęstość. Na jednej małej dzielnicy skupiają się tysiące ludzi, którzy rozmawiają o tym samym problemie na kilkanaście różnych sposobów jednocześnie. W jeden dzień można przejść na trzy meetupy, dwa hackathony i jedno zamknięte spotkanie przy kawie w garażu, które zmieni jakiś startup w jednorożca.
My mamy może jedną konferencję AI miesięcznie. Często organizowaną przez ten sam podmiot. Z tymi samymi panelistami. Mówiącymi te same rzeczy. Dobrych rzeczy, ale tych samych.
Nie ma oddolnych społeczności, które rozwijałyby polskie projekty open source z prawdziwą energią. Nie ma regularnych hackathonów przy PLLuM. Nie ma polskiego odpowiednika Hugging Face Community albo chociaż aktywnego forum. Są grupy na Facebooku, gdzie co jakiś czas ktoś pyta, czy ChatGPT może pomóc mu napisać CV.
Weźmy konkretny przykład: SpeakLeash, znany też jako Spichlerz. Oddolna inicjatywa budowania otwartego korpusu języka polskiego. Piękny projekt, wspaniała idea. Ale zasięg? Nikły. Finansowanie? Wolontariusze. Widoczność? Blisko zera poza wąskim środowiskiem NLP. W Niemczech albo Francji taki projekt miałby grant rządowy, oficjalną patronię i artykuł w krajowej gazecie z nakładem milionowym. U nas – dobra wola i wieczory po pracy.
To nie jest zarzut w stronę osób zaangażowanych w SpeakLeash. Przeciwnie – szanuję to, co robią. To jest zarzut w stronę systemu, który takie projekty pozostawia samym sobie.
Mamy przewagi, których nie używamy
Żeby nie było, że same narzekania.
Polska ma coś, co ma bardzo mało krajów w tej części Europy: prawdziwy kapitał ludzki. Nie tylko programiści. Matematycy. Statystycy. Lingwiści. To nie przypadek, że polskie uczelnie produkują laureatów olimpiad matematycznych, którzy potem trafiają na najlepsze doktoraty świata. To nie przypadek, że Apple wyłowił czterech polskich studentów w prestiżowym Swift Student Challenge, a jeden z nich trafił do grona 50 najlepszych młodych koderów na świecie.
Mamy jeszcze coś: historyczną znajomość kodu. Przez lata byliśmy podwykonawcami dla całego świata. To znaczy, że polskie firmy rozumieją, jak myślą zachodni klienci, jakie mają oczekiwania, jak wygląda delivery na światowym poziomie. To ogromna przewaga przy wchodzeniu z własnymi produktami.
Z badania Polcom wynika, że 65% firm w Polsce wykorzystuje AI w obszarze cyberbezpieczeństwa, a 63% stosuje algorytmy AI do zarządzania wiedzą i wspierania procesów poznawczych. To dobra baza. Firmy już dotykają AI. Teraz kwestia, żeby zaczęły też ją tworzyć, a nie tylko kupować.
Jest też szansa geopolityczna. Europa ewidentnie szuka alternatywy dla uzależnienia od amerykańskich megaplatform. Szacuje się, że wielka trójka americańskich cloud hyperscalerów obsługuje ok. 70 procent europejskich usług cyfrowych. Każdy kraj, który zbuduje własną suwerenną infrastrukturę AI, zyska atut negocjacyjny, eksportowy i obronny. Polska ma szansę być w tym szybciej niż Rumunia, Czechy czy Węgry. Ale tylko jeśli zacznie teraz, nie za trzy lata.
Mamy też atut językowy. Polszczyzna jest ekstremalnie trudna morfologicznie. Modele trenowane na polskich danych, przez Polaków, z polskim kontekstem kulturowym, będą działać w języku polskim po prostu lepiej. To nisza, w której można wygrać bez konkurowania z OpenAI na ich własnym podwórku.
Co by trzeba zrobić, gdyby ktoś nas słuchał
Nie będę pisać manifestu, bo manifestów mamy w Polsce za dużo. Kilka konkretnych obserwacji.
Po pierwsze: rząd musi przestać mylić strategię z dokumentem. Strategia to alokacja zasobów w czasie. Miliard złotych na AI to w skali globalnej tyle, ile OpenAI wydaje w dwa tygodnie. Nie znaczy, że nie warto. Znaczy, że trzeba wybrać, gdzie ten miliard zadziała. Specjalizacja, nie rozproszenie.
Po drugie: potrzebujemy gęstości, nie geografii. Zamiast trzydziestu czterech „ośrodków regionalnych AI”, jak planuje strategia 2030, lepiej mieć trzy prawdziwe klastry z krytyczną masą inżynierów, pieniędzy i projektów. Kraków, Warszawa, Wrocław. Bądźmy szczerzy z sobą, jak Izrael był szczery z Tel-Avivem.
Po trzecie: środowisko musi przestać żyć w silosach. Nie ma żadnego powodu, dla którego PLLuM, SpeakLeash, IDEAS NCBR i polskie startupy AI nie współpracują w ramach wspólnego projektu open source, który byłby dla Polski tym, czym Mistral jest dla Francji. Nie chodzi o jedną firmę. Chodzi o ekosystem.
Po czwarte, i to jest najtrudniejsze: trzeba zacząć nagradzać niepowodzenie eksperymentatorów, nie tylko sukcesy odtwórców. Polska kultura korporacyjna karze za ryzyko. Kto się pomyli, traci budżet. Kto kopiuje sprawdzony wzorzec, dostaje premię. To trzeba odwrócić. I nie zrobi się tego rozporządzeniem ministerialnym – to musi być zmiana w głowach kadry zarządzającej.
Epilog: ten wyścig nie jest jeszcze przegrany
Chcę skończyć uczciwie, bo łatwo w takim tekście wpaść w katastrofizm.
Polska nie przegrała wyścigu o AI. Mamy jeszcze szansę. Możemy być w tym co robimy naprawdę dobrzy: pionowe aplikacje w specjalistycznych dziedzinach, suwerenne modele dla języka polskiego, platformy dla europejskich klientów szukających alternatywy dla Big Techu. To nie jest mała nisza. To realna szansa biznesowa i polityczna jednocześnie.
Ale żeby z niej skorzystać, musimy przestać czekać na sygnał z Zachodu, że „teraz można”. Ten sygnał nie przyjdzie. Albo przyjdzie za późno. Bo kiedy reszta świata będzie mieć gotowe systemy AI wbudowane w każdy aspekt gospodarki, my będziemy wdrażać to, co oni sprawdzili pięć lat wcześniej.
„Musimy być pierwsi, aby nasze rozwiązania były eksportowane, a nie importowane obce rozwiązania do Polski.” – Dariusz Standerski, wiceminister cyfryzacji
Zgadzam się z Dariuszem Standerskim. Rzadko tak piszę w tym miejscu, bo to felieton, nie pochwała rządu. Ale ta sentencja jest słuszna. Problem w tym, że między deklaracją a nawykiem kulturowym jest przepaść.
I tę przepaść, jako Polacy, musimy zdecydować się przekroczyć sami. Bez czekania, aż ktoś nam powie, że można.
Piotr Wolniewicz, Redakcja AIPORT.pl – AI w Praktyce
Macie inne zdanie? Uważacie, że jestem niesprawiedliwy wobec polskiego ekosystemu AI? Albo może znacie projekt, który powinien tu być wymieniony? Napiszcie w komentarzach. Serio. Ten tekst jest zaproszeniem do rozmowy, nie wyrokiem.
