Hiszpański startup Multiverse Computing przez lata działał w cieniu głośniejszych graczy. To się zmienia – firma właśnie uruchomiła aplikację CompactifAI oraz portal API, które mają przekonać deweloperów i przedsiębiorstwa do modeli AI działających lokalnie, bez chmury i bez pośredników.
Co napędza ten ruch? Częściowo… strach. Firma VC Lux Capital opublikowała niedawno ostrzeżenie dla spółek polegających na infrastrukturze obliczeniowej innych podmiotów – wskaźnik niewypłacalności prywatnych firm zbliżył się do rekordowego poziomu 9,2%, a Lux wprost zalecał, by wszelkie zobowiązania dotyczące mocy obliczeniowej potwierdzać na piśmie. Innymi słowy: ustne umowy z dostawcami chmury mogą nie wystarczyć, gdy zrobi się nerwowo.
Multiverse Computing proponuje inne wyjście – zamiast kłopotać się z zewnętrzną infrastrukturą, uruchom model bezpośrednio na własnym urządzeniu.
CompactifAI – chat AI, który nie potrzebuje internetu
Aplikacja CompactifAI wygląda znajomo: wpisujesz pytanie, model odpowiada. Różnica tkwi w szczegółach. Firma wbudowała w nią model o nazwie Gilda – na tyle mały, że potrafi działać lokalnie i offline. Żadnych danych wysyłanych do centrum danych, żadnego ryzyka wycieku informacji w trakcie transferu.
Technologia kompresji, na której opiera się cały projekt, nosi nazwę CompactifAI i bazuje na inspiracjach mechaniką kwantową. Multiverse zastosowało ją już do modeli od OpenAI, Meta, DeepSeek i Mistral AI. Efekty? Firma twierdzi, że jej najnowszy skompresowany model HyperNova 60B 2602 – zbudowany na bazie gpt-oss-120b – działa szybciej i taniej niż oryginał, z którego powstał. Szczególnie istotne jest to przy tzw. agentic coding, gdzie AI samodzielnie realizuje złożone zadania programistyczne krok po kroku.
Ograniczenia, których nie można przemilczeć
Jest jednak haczyk. Uruchomienie Gildy lokalnie wymaga odpowiedniej ilości pamięci RAM i miejsca na urządzeniu. Starsze iPhone’y najczęściej nie spełnią tych wymagań – i aplikacja automatycznie przełącza się wtedy na modele chmurowe przez API. Logikę routingu między przetwarzaniem lokalnym a chmurowym obsługuje system, który firma ochrzciła Ash Nazg – miłośnicy Tolkiena od razu skojarzą: to nawiązanie do inskrypcji na Jedynym Pierścieniu z „Władcy Pierścieni.”
Problem w tym, że kiedy Ash Nazg przekierowuje zapytanie do chmury, główna zaleta aplikacji – prywatność danych – wyparowuje.
Dane pobrane z Sensor Tower potwierdzają, że CompactifAI nie jest jeszcze produktem masowym: w ciągu ostatniego miesiąca aplikację pobrało mniej niż 5 000 użytkowników. Ale to może nie być cel sam w sobie.
Portal API dla deweloperów i firm
Prawdziwym celem Multiverse są przedsiębiorstwa. Równolegle z aplikacją firma uruchomiła samodzielny portal API, który daje deweloperom i firmom bezpośredni dostęp do skompresowanych modeli – bez konieczności przechodzenia przez AWS Marketplace ani inne pośrednie platformy.
CEO Enrique Lizaso skomentował to krótko: „The CompactifAI API portal gives developers direct access to compressed models with the transparency and control needed to run them in production.”
Portal oferuje monitorowanie zużycia w czasie rzeczywistym – a to nie przypadek. Niższe koszty obliczeniowe to jeden z głównych argumentów przemawiających za mniejszymi modelami jako alternatywą dla dużych modeli językowych.
Komentarz redaktora
Multiverse Computing robi coś, co w branży AI jest rzadkością – spokojnie buduje konkretną technologię, zamiast skupiać się na rozgłosie. Kompresja modeli to temat, który przez długi czas pozostawał w cieniu wielkich ogłoszeń o kolejnych GPT-ach i Claudach. Tymczasem okazuje się, że dla wielu zastosowań – przemysłowych, obronnych, finansowych – to właśnie modele działające na krawędzi sieci, bez połączenia z chmurą, mogą mieć największe znaczenie praktyczne.
Z drugiej strony warto zachować spokój. „Działa offline” to hasło, które robi wrażenie, dopóki nie okaże się, że starszy telefon i tak odsyła zapytanie do serwera. Pytanie brzmi: czy te kompresowane modele są naprawdę wystarczająco dobre, by zastąpić duże LLM-y w rzeczywistych scenariuszach biznesowych? A jeśli tak – tylko w jakich? Bo różnica między „wystarczająco dobre do czatu” a „wystarczająco dobre do podejmowania decyzji w dronie autonomicznym” jest przepastna.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Zastosowania, które mają sens
Multiverse wyraźnie wskazuje na sektory, w których lokalnie działające modele mają największy potencjał. Chodzi przede wszystkim o środowiska, gdzie łączność z internetem jest zawodna lub niemożliwa:
- drony i systemy autonomiczne
- satelity i urządzenia kosmiczne
- infrastruktura krytyczna (energetyka, finanse)
- systemy medyczne wymagające pełnej prywatności danych
Firma obsługuje już ponad 100 klientów globalnych, wśród nich Bank of Canada, Bosch i Iberdrola. To nie są nazwy z przypadku – to branże, w których bezpieczeństwo danych i niezawodność działania są priorytetem absolutnym.
Co dalej z finansowaniem?
Po ubiegłorocznej rundzie Series B na poziomie 215 milionów dolarów, Multiverse podobno szykuje kolejny ruch. Bloomberg podaje, że firma prowadzi rozmowy o pozyskaniu świeżych 500 milionów euro przy wycenie przekraczającej 1,5 miliarda euro. Jeśli to się potwierdzi, hiszpański startup z relatywnie skromnym profilem publicznym dołączy do grona europejskich jednorożców AI z prawdziwego zdarzenia.
Warto obserwować. Tym bardziej że trend idzie w stronę, którą Multiverse wybrało kilka lat temu – mniejsze, tańsze, bardziej prywatne modele, działające bliżej użytkownika. Rynek właśnie zaczyna to doceniać.
