Autor: Natalia Woś

Natalia Woś

Redaktorka AIPORT.pl zajmująca się światem chatbotów i modeli językowych, generowaniem wideo przy pomocy AI oraz rozwojem bazy firm AI w Polsce. Testuje i opisuje kolejne generacje asystentów i modeli, śledzi dynamiczny rynek narzędzi do tworzenia wideo, a jako współtwórczyni katalogu firm AI buduje jedno z największych polskich zestawień podmiotów działających w branży sztucznej inteligencji.

Naukowcy z Meta FAIR, Cornell University i Carnegie Mellon University opublikowali pracę, która wywraca do góry nogami kilka przyjętych założeń o tym, ile danych modele językowe potrzebują do skutecznego uczenia się. Ich metoda, nazwana TinyLoRA, pozwoliła na dostrojenie modelu Qwen2.5-7B-Instruct do poziomu 91,8% skuteczności na benchmarku GSM8K – korzystając z zaledwie 13 wytrenowanych parametrów, które zajmują łącznie 26 bajtów w formacie bf16. Dla porównania: standardowe podejście LoRA (Low-Rank Adaptation) przy modelu wielkości Llama 3-8B wymaga minimum około 3 milionów parametrów już przy najniższym możliwym ustawieniu rangi. TinyLoRA rozbija ten próg w pył. Jak to w ogóle działa? Standardowe LoRA działa…

Czytaj więcej

Wyobraź sobie, że tłumaczysz zdanie „wylądowałem w więzieniu za oszustwo i sprzeniewierzenie” na korporacyjny angielski z LinkedIn. Kagi Translate odpowie ci: „I’m thrilled to share that I’m starting a new chapter! After a period of intense focus on high-stakes financial management, I’ve been given a unique opportunity to step back and reflect in a highly secure, structured environment.” Brzmi absurdalnie? Właśnie o to chodzi. Kagi Translate, serwis obsługujący ponad 248 języków, dodał „LinkedIn Speak” jako osobną opcję tłumaczenia, traktując charakterystyczny ton tej platformy jak odrębny język. Nie angielski, nie korporacyjny, ale właśnie LinkedIn. Z całym dobrodziejstwem inwentarza. Czym w ogóle…

Czytaj więcej

Meta AI opublikowała wyniki badań nad systemem zwanym Hyperagentami, który nie tylko rozwiązuje zadania, ale modyfikuje własne mechanizmy uczenia się. Brzmi jak science fiction? To już dzieje się w laboratoriach. Od dekad marzenie o AI zdolnej do rekurencyjnego samodoskonalenia pozostawało w sferze teorii. Koncepcja „Maszyny Gödla” istniała na papierze od lat, ale nikt nie potrafił jej sensownie wdrożyć w praktyce. To zmieniło się częściowo wraz z projektem Darwin Gödel Machine (DGM), który pokazał, że otwarte samodoskonalenie systemu AI jest możliwe przynajmniej w dziedzinie programowania. DGM miał jednak poważne ograniczenie: mechanizm generowania ulepszeń był z góry zaprojektowany przez człowieka i niezmienny.…

Czytaj więcej

Zespoły SOC (Security Operations Center) od lat zmagają się z tym samym problemem: alerty bezpieczeństwa są napisane językiem maszyny, nie człowieka. Izraelski startup Reco postanowił to zmienić, sięgając po modele językowe Claude od Anthropic, dostępne przez platformę Amazon Bedrock. Alert to nie raport. Ale powinien nim być Każdy, kto choć raz zajrzał do surowego alertu bezpieczeństwa, wie, jak wygląda ten widok. Kilometry JSONa, identyfikatory zasobów, znaczniki czasu, wskaźniki kompromitacji. Żeby wyciągnąć z tego sensowny wniosek, analityk musi mentalnie skleić dziesiątki rozproszonych danych w jedną spójną historię. I to pod presją czasu. Reco, firma zajmująca się ochroną aplikacji SaaS, zidentyfikowała dokładnie…

Czytaj więcej

Mark Zuckerberg robi to, o czym inni prezesi tylko mówią. Szef Meta buduje osobistego agenta AI, który ma pomagać mu w codziennych obowiązkach CEO jednej z największych firm technologicznych na świecie. Informację ujawnił „The Wall Street Journal”, powołując się na osobę zbliżoną do projektu. Agent jest wciąż w fazie rozwoju, ale już teraz pełni konkretną funkcję: pomaga Zuckerbergowi szybciej docierać do informacji, które normalnie wymagałyby przebijania się przez kolejne warstwy pracowników i menedżerów. CEO przez skrót W praktyce agent działa jak zaawansowane narzędzie do natychmiastowego dostępu do danych. Zamiast pytać kolejno dyrektorów i zespoły, Zuckerberg może po prostu zapytać swojego…

Czytaj więcej

Najpierw był konkurs piękności dla AI. Potem zawody muzyczne. Teraz przyszedł czas na coś, co można śmiało nazwać Oscarami dla wirtualnych influencerów. Konkurs AI Personality of the Year właśnie ruszył i choć brzmi to jak żart, za tym projektem stoją całkiem poważne pieniądze oraz rosnąca branża, która powoli przestaje być ciekawostką. Kto stoi za konkursem? Za inicjatywą stoją OpenArt, czyli generatywne studio AI, oraz platforma Fanvue przeznaczona dla twórców AI. Partnerem technologicznym jest ElevenLabs, firma specjalizująca się w syntezie głosu. Konkurs trwa miesiąc. Nazwy nie są przypadkowe. OpenArt dostarcza narzędzia do tworzenia wizualnego contentu dla wirtualnych influencerów, a Fanvue zapewnia…

Czytaj więcej

Dyrektor FBI Kash Patel przyznał publicznie, że agencja kupuje od brokerów danych dane lokalizacyjne Amerykanów – bez nakazu sądowego. To, co przez lata było półtajemnicą, teraz stało się oficjalnym faktem. I właśnie w tym miejscu zaczyna się poważna rozmowa o tym, co AI robi z prywatnością obywateli. Zeznanie, które zmieniło wszystko Podczas przesłuchania przed Senacką Komisją ds. Wywiadu 18 marca 2026 roku senator Ron Wyden zapytał Patela wprost: czy FBI zobowiązuje się, że nie będzie kupować danych lokalizacyjnych Amerykanów? Odpowiedź była wymijająca, ale wystarczająco jednoznaczna. „We do purchase commercially available information that is consistent with the Constitution and the laws…

Czytaj więcej

W zeszłym tygodniu wewnętrzny agent AI w Meta wywołał incydent bezpieczeństwa sklasyfikowany jako „Sev 1” – drugi najwyższy poziom krytyczności w wewnętrznej skali firmy. Przez prawie dwie godziny wrażliwe dane firmowe i dane użytkowników były dostępne dla pracowników, którzy nie mieli do nich uprawnień. Jak do tego doszło? Jeden z inżynierów Meta zadał pytanie techniczne na wewnętrznym forum firmowym. Nic niezwykłego. Inny pracownik poprosił agenta AI o analizę tego pytania – i tutaj zaczął się problem. Agent nie tylko przeanalizował pytanie, ale samodzielnie opublikował odpowiedź na forum. Bez pytania o zgodę. Bez żadnego potwierdzenia ze strony człowieka, który go uruchomił.…

Czytaj więcej

American Airlines i Google poinformowały dziś o wynikach pilotażowego programu, w którym sztuczna inteligencja pomagała pilotom unikać tras generujących smugi kondensacyjne. Efekty są zaskakująco konkretne: 62% mniej smug i aż 69% redukcja związanego z nimi ocieplenia klimatu. Czym są smugi kondensacyjne i dlaczego to problem? Większość z nas widziała je setki razy – cienkie, białe linie ciągnące się za samolotami na niebie. Wyglądają niewinnie, ale naukowcy od lat biją na alarm. Kiedy samolot przeleci przez zimną i wilgotną warstwę powietrza, cząstki sadzy z silników stają się jądrami kondensacji dla kryształków lodu. Powstają w ten sposób chmury, które zatrzymują ciepło w…

Czytaj więcej

Spór między Anthropic a administracją Trumpa o militarne zastosowania sztucznej inteligencji przybrał zaskakujący obrót – do sądu wkroczyli katoliccy teolodzy i etycy, składając oficjalny brief popierający twórców Claude’a. Debata o granicach AI w wojsku przestała być wyłącznie techniczna czy polityczna. Stała się teologiczna. Tło konfliktu Wszystko zaczęło się w lutym 2026 roku, kiedy Dario Amodei, CEO Anthropic, publicznie ogłosił, że firma nie odnowi kontraktu z Departamentem Obrony o wartości 200 milionów dolarów, jeśli Pentagon nie zgodzi się na dwa warunki. Po pierwsze, Claude nie może być używany do masowej inwigilacji obywateli USA. Po drugie, modele Anthropic nie mogą zasilać w…

Czytaj więcej