Pięć największych chatbotów AI, w tym ChatGPT, Meta AI, Google Gemini, Microsoft Copilot i Grok, bez większych oporów poleca użytkownikom nielegalne kasyna online i podpowiada, jak ominąć systemy ochrony osób uzależnionych. Śledztwo przeprowadzone przez „The Guardian” i Investigative Europe stawia twórców tych narzędzi w bardzo niekorzystnym świetle.
Dziennikarze zapytali każdy z pięciu systemów o sześć pytań dotyczących kasyn bez licencji. Wyniki? Wszystkie chatboty chętnie rekomendowały nielegalne platformy, porównując bonusy, szybkość wypłat i opcje płatności. Tylko dwa z nich w ogóle wspomniały o możliwościach uzyskania pomocy w przypadku uzależnienia od hazardu.
Meta AI nazwała system ochrony „buzzkill”
Najgorzej wypadła Meta AI. Platforma stojąca za Facebookiem nie tylko poleciła nielegalne kasyno jako oferujące „generous rewards and flexible gameplay”, ale też określiła brytyjski system ochrony GamStop jako „buzzkill” i „real pain”. GamStop to darmowy serwis, który pozwala osobom uzależnionym zablokować sobie dostęp do serwisów hazardowych. Traktowanie go jako przeszkody do ominięcia to, mówiąc wprost, działanie na szkodę użytkowników.
Grok poszedł jeszcze dalej i doradził korzystanie z kryptowalut do obchodzenia weryfikacji finansowej, wskazując, że transakcje kryptowalutowe nie ujawniają tożsamości ani danych bankowych. Gemini jako jedyny chatbot zaoferował „krok po kroku” przewodnik, jak dostać się do nielicencjonowanych kasyn, choć podczas drugiego testu odmówił udzielenia tej samej odpowiedzi. Microsoft Copilot określił część nielegalnych stron jako „reputable” lub „trusted”.
Warto podkreślić, że:
- żadna firma hazardowa nie ma licencji w Wielkiej Brytanii na przyjmowanie płatności kryptowalutowych,
- „kasyno z licencją z Curacao” to w branży niemal synonim operatora działającego poza regulacjami ochrony gracza,
- GamStop jest usługą bezpłatną, która realnie ratuje ludzi przed uzależnieniem.
Śmierć Olliego Longa jako kontekst
Śledztwo nie powstało w próżni. Na początku roku 2026 odbyło się dochodzenie w sprawie śmierci samobójczej Olliego Longa w 2024 roku. Ustalono, że nielegalne kasyno online było częścią „faktycznej matrycy” zdarzeń, które doprowadziły do jego tragicznej decyzji. Siostra Olliego, Chloe Long, publicznie apelowała o pociągnięcie do odpowiedzialności platform cyfrowych, które kierują ludzi na nielegalne strony.
To nie jest więc wyłącznie regulacyjny problem abstrakcyjny. To ma twarz i konkretne konsekwencje.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: Nie jestem zaskoczony wynikami tego śledztwa i myślę, że nikt, kto uczciwie obserwuje branżę AI, też nie powinien być. Chatboty są trenowane na ogromnych zbiorach danych z internetu, gdzie reklamy kasyn i „recenzje” nielegalnych platform to powszechny śmietnik SEO. Problem jednak leży głębiej: te systemy są zaprojektowane, żeby być pomocne i dawać odpowiedzi, a nie po to, żeby odmawiać. I tu rodzi się napięcie. Z jednej strony mamy realne narzędzia, które mogą pomagać ludziom z problemem hazardowym, z drugiej te same narzędzia mogą ich wpychać głębiej w pułapkę. Pytanie, które powinno zadawać sobie każde laboratorium AI, brzmi: kto odpowiada za skutki, gdy system „pomaga” komuś w destrukcji? Na razie odpowiedź jest cicha.
Reakcje regulatorów i firm
Henrietta Bowden-Jones, krajowa doradczyni kliniczna ds. szkód hazardowych w Wielkiej Brytanii, nie pozostawiła złudzeń: „No chatbot should be allowed to promote unlicensed casinos or dangerously undermine free protection services like GamStop, which allow people to block themselves from gambling sites.”
Brytyjska Komisja ds. Hazardu (Gambling Commission) potwierdziła, że traktuje sprawę poważnie i uczestniczy w rządowej grupie zadaniowej, której celem jest zmuszenie firm technologicznych do większej odpowiedzialności za szkodliwe treści. Rzecznik rządu podkreślił, że chatboty „must protect all users from illegal content”.
Microsoft wydał oświadczenie, w którym wskazał na „wielowarstwowe systemy ochrony, w tym automatyczne systemy bezpieczeństwa, wykrywanie promptów w czasie rzeczywistym i ludzki nadzór”. Dodał, że zabezpieczenia są „stale oceniane i wzmacniane”. ChatGPT i Copilot przynajmniej poprzedzały swoje rekomendacje ostrzeżeniami zdrowotnymi, ale i tak dostarczały list nielegalnych platform z porównaniem bonusów i opcji płatności.
Systemowy brak zabezpieczeń
To, co ujawniło śledztwo, to nie wpadka jednej firmy. To wzorzec. Wszystkie pięć testowanych systemów zawiodło w tym samym miejscu: tam, gdzie algorytm „pomocności” zderzył się z realnym ryzykiem dla wrażliwego użytkownika.
Badania przeprowadzone przez AiR Hub przy Uniwersytecie Nevada w Las Vegas wykazały wcześniej, że ChatGPT systematycznie oceniał ryzyko samobójstwa niżej niż eksperci-ludzie w kontekście uzależnienia od hazardu. Osobny problem to tzw. mikroprzekazy, czyli subtelne sformułowania, które mogą normalizować ryzykowne zachowania hazardowe u osób, które jeszcze nie wiedzą, że mają problem.
Firmy technologiczne zadeklarowały, że będą udoskonalać swoje systemy. Eksperci podchodzą do tych obietnic z rezerwą, której trudno im się nie dać.
