Metropolitalna Policja Londynu wdrożyła narzędzia sztucznej inteligencji dostarczone przez Palantir Technologies do wykrywania nieprawidłowości wśród własnych szeregów. System analizuje zachowanie ponad 40 tysięcy funkcjonariuszy i pracowników, szukając wzorców mogących sygnalizować korupcję, naruszenia regulaminu lub inne przewinienia służbowe. Doniesienie pojawiło się w momencie, gdy sama firma Palantir znalazła się w centrum politycznej burzy w Wielkiej Brytanii. Kontrakty spółki z brytyjskim rządem, warte łącznie ponad 670 milionów funtów, są od tygodni pod lupą po ujawnieniu powiązań między założycielem firmy Peterem Thielem a skazanym pedofilem Jeffreyem Epsteinem. Do kłopotliwych połączeń dołącza też postać byłego ambasadora UK w USA Petera Mandelsona, którego lobbystyczna firma…
Autor: Piotr Wolniewicz
Australia robi coś, czego większość krajów dopiero się boi zrobić – wdraża własne chatboty AI bezpośrednio do publicznych szkół, na masową skalę. Nie jako eksperyment dla wybranych, ale jako standardowe narzędzie dla milionów uczniów. Nowa Południowa Walia uruchomiła NSWEduChat – zamkniętą platformę generatywnej AI, dostępną dla wszystkich uczniów szkół publicznych od klasy 5 do 12. Queensland idzie tą samą drogą z własnym narzędziem o nazwie Corella, które ma trafić do wszystkich liceów stanowych do połowy 2026 roku. South Australia wdrożyło EdChat, zbudowany we współpracy z Microsoftem na bazie modelu ChatGPT, ale z lokalnymi filtrami i danymi przechowywanymi wyłącznie w Australii.…
Dave Plummer, programista, który w latach 90. stworzył Menedżera zadań podczas własnego czasu wolnego, opublikował na platformie X zrzut ekranu futurystycznego dashboardu swojego projektu AI. Przy okazji zażartował, że tak właśnie wyglądałby dziś Menedżer zadań, gdyby wciąż był w Microsofcie. Historia Menedżera zadań jest sama w sobie ciekawa – Plummer napisał go hobbystycznie, a program okazał się na tyle dobry, że Microsoft wbudował go w system Windows NT. Przez dekady stawał się coraz bardziej rozbudowany i w wersji dla Windows 11 przeszedł gruntowny redesign w 2022 roku. A sam Plummer? Odszedł z Microsoftu i zajął się własnymi projektami. Jednym z…
Naukowcy ze Stanford Medicine opracowali model sztucznej inteligencji, który potrafi przewidzieć ryzyko wystąpienia ponad 130 schorzeń – od raka przez demencję po choroby serca – analizując dane z zaledwie jednej nocy badania snu. Model, nazwany SleepFM, został opublikowany 6 stycznia 2026 roku w prestiżowym czasopiśmie „Nature Medicine” i może zmienić sposób, w jaki myślimy o medycynie prewencyjnej. Sen przestaje być tylko odpoczynkiem. Coraz wyraźniej widać, że nocne godziny to dla naszego ciała intensywna praca, którą da się odczytać – jeśli tylko wiemy, jak patrzeć. Jak to działa? SleepFM trenowano na astronomicznej ilości danych: blisko 585 000 godzin zapisów polisomnograficznych zebranych…
Buduję własne ChatGPT. Ile to kosztuje, kogo potrzebuję i dlaczego nikt przy zdrowych zmysłach nie robi tego sam Wyobraź sobie, że wstajesz rano, wychodzisz z kawą na balkon i pojawia się u ciebie ta myśl. Ta konkretna, szalona myśl: a gdybym tak zbudował własną AI? Coś jak ChatGPT, ale moje. Polskie. Lepsze. Może nawet zarobię na tym fortunę. Przez pierwszą minutę to brzmi jak genialny pomysł. Przez następne dwie godziny, kiedy zaczynasz sprawdzać, co to naprawdę znaczy, zaczyna ci drżeć ręka trzymająca kubek. W tym tekście przejdziemy przez to razem – od pierwszego entuzjazmu do zimnego prysznica twardych liczb. I…
Korea Południowa zrobiła coś, czego niemal żadne inne społeczeństwo nie dokonało w tak krótkim czasie – oswoiła sztuczną inteligencję na poziomie masowym, wręcz kulturowym. Nie jako ciekawostkę technologiczną dla hobbystów, lecz jako codzienne narzędzie pracy, edukacji i – coraz częściej – towarzyszenia ludziom w samotności. Według raportu think tanku powiązanego z Microsoftem, w drugiej połowie 2025 roku Korea Południowa odnotowała najwyższy na świecie wzrost adopcji AI – o 4,8 punktu procentowego, co przełożyło się na awans o siedem miejsc w globalnym rankingu. Już ponad 30 proc. koreańskiej populacji w wieku produkcyjnym regularnie używa narzędzi opartych na sztucznej inteligencji. Co więcej,…
Przez lata branża AI żyła prostym założeniem: chcesz, żeby model lepiej rozwiązywał trudne zadania, daj mu więcej miejsca na „myślenie”. Okazuje się, że to błąd. Badacze z University of Virginia i Google opublikowali pracę, która wywraca tę logikę do góry nogami i proponuje coś znacznie ciekawszego: miarę, która patrzy nie na ilość wygenerowanego tekstu, lecz na to, co dzieje się głęboko w warstwach modelu. Punktem wyjścia jest niepokojąca korelacja. Zespół zbadał związek między długością łańcucha rozumowania (Chain-of-Thought) a dokładnością odpowiedzi i wyliczył współczynnik korelacji na poziomie r = -0,59. Minus. Ujemny. Oznacza to, że im więcej tokenów generuje model, tym…
Sam Altman postanowił zabrać głos w sprawie, która od miesięcy rozgrzewa internet do czerwoności. Szef OpenAI, przebywający w Indiach na tamtejszym szczycie poświęconym AI, odniósł się wprost do zarzutów o nadmierne zużycie energii i wody przez systemy sztucznej inteligencji. Podczas rozmowy zorganizowanej przez The Indian Express Altman nie owijał w bawełnę. Twierdzenia o tym, że jedno zapytanie do ChatGPT zużywa 17 galonów wody? „Całkowicie nieprawdziwe, totalnie absurdalne, bez żadnego związku z rzeczywistością” – powiedział wprost. Przyznał jednak, że problem istniał wcześniej, gdy centra danych korzystały z chłodzenia ewaporacyjnego. Teraz, według niego, już tak nie jest. Pełną rozmowę można obejrzeć tutaj…
Twoje grafiki AI wyglądają jak koszmar? To nie wina narzędzia, to wina promptu Widzisz to zdjęcie? Człowiek z sześcioma palcami, pies z dwiema głowami, tekst na plakacie przypominający pismo kosmitów. Albo generujesz obraz po raz piąty i wciąż wychodzi coś, co przypomina sen po złej pizzy. Spokojnie, to nie znaczy, że AI do tworzenia grafik jest bezużyteczne. Znaczy tylko, że robisz kilka konkretnych błędów, które da się naprawić w kwadrans. W tym artykule dowiesz się: dlaczego grafiki AI wychodzą źle i co tak naprawdę jest przyczyną jakie błędy w promptach psują wyniki najbardziej jak poprawnie opisywać obrazy, żeby AI rozumiało,…
Boom na generatywną AI stworzył tysiące startupów w zastraszającym tempie. Teraz przychodzi czas weryfikacji – i nie wszystkie przeżyją. Darren Mowry, wiceprezes Google odpowiedzialny za globalną organizację startupową obejmującą Cloud, DeepMind i Alphabet, nie gryzł się w język. W najnowszym odcinku podcastu Equity postawił sprawę jasno: dwa typy firm mają dziś „włączoną lampkę kontrolną silnika” i lepiej, żeby się obudziły, zanim będzie za późno. Chodzi o tak zwane LLM wrappery i agregatory AI. Co to właściwie znaczy „wrapper”? Wrapper to startup, który bierze gotowy model językowy – Claude, GPT, Gemini – owija go jakimś interfejsem i sprzedaje jako własny produkt.…