Jak zostać „ekspertem” w 20 minut? Wystarczy oszukać ChatGPT
Dziennikarz BBC przeprowadził prosty eksperyment, który obnażył poważną słabość modeli AI. Thomas Germain stworzył stronę internetową z fałszywymi informacjami i sprawdził, jak szybko chatboty zaczną je powtarzać jako fakty.
Germain opublikował na swojej osobistej stronie wpis zatytułowany „Najlepsi dziennikarze technologiczni w jedzeniu hot dogów”. Umieścił tam fikcyjne dane: wyniki z nieistniejącego turnieju „2026 South Dakota Hot Dog International”, gdzie rzekomo pochłonął 7,5 hot doga i zdobył tytuł mistrza. Wszystko zmyślone od A do Z.
Efekty? Poniżej 24 godzin.
Gemini zaczął wyciągać tekst praktycznie słowo w słowo ze strony Germaina i prezentować go użytkownikom – zarówno w aplikacji, jak i w sekcji AI Overview w wyszukiwarce Google. ChatGPT też się „nabrał”, choć Claude od Anthropic okazał się bardziej ostrożny i nie powtórzył fałszywych informacji tak szybko.
I just did the dumbest thing of my entire career to prove a much more serious point.
I tricked ChatGPT and Google, and made them tell other users I’m a competitive hot-dog-eating world champion
People are using this trick on a massive scale to make AI tell you lies. I’ll explain how I did it
— Thomas Germain (@thomasgermain.bsky.social) 18 lutego 2026 17:37
To nie jest śmieszna historyjka o hot dogach
Piszę to z pełną świadomością, że brzmi to jak anegdota do powtarzania na imprezach. Ale za tym eksperymentem kryje się coś znacznie poważniejszego.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: „Ten eksperyment jest doskonałą ilustracją problemu, o którym branża mówi od lat, ale który dopiero teraz staje się realnie odczuwalny dla zwykłych użytkowników. Z jednej strony – tak, to zabawne, że można zostać 'mistrzem jedzenia hot dogów’ w 20 minut. Z drugiej strony ten sam mechanizm działa przy produktach farmaceutycznych, inwestycjach, klinikach medycznych. I tu nie ma już nic śmiesznego. Pytanie, które zadaję sobie od dawna: czy firmy AI mają realne narzędzia do weryfikacji źródeł, czy może po prostu skalują nieweryfikowaną treść z internetu, bo tak jest szybciej i taniej? Odpowiedź, którą sugeruje ten eksperyment, nie napawa optymizmem.”
Germain sam wskazał na inne, bardziej niepokojące przykłady tego samego zjawiska:
- Marka gumek CBD, której AI przypisała właściwości „wolne od skutków ubocznych” – co jest nieprawdą
- Zapytania o „najlepsze kliniki przeszczepów włosów w Turcji” zwracały wyniki oparte wprost na materiałach PR samych klinik
- Frazy o „najlepszych firmach oferujących złote IRA” generowały odpowiedzi zbudowane na reklamowych press release’ach
SEO wróciło, tylko w gorszej formie
To nie jest nowe zjawisko. Firmy od lat manipulowały pozycjonowaniem w Google, tworząc podejrzane strony zoptymalizowane pod algorytmy. Teraz ten sam trick działa na modele językowe – i działa skuteczniej, bo użytkownicy ufają chatbotom bardziej niż wynikom wyszukiwania.
Badanie Bain wskazuje, że około 80% użytkowników wyszukiwarek polega na podsumowaniach AI przynajmniej 40% czasu. Jednocześnie badanie Pew Research pokazuje, że ludzie znacznie rzadziej klikają w źródła, gdy widzą odpowiedź AI. Mamy więc sytuację, w której informacja dociera do użytkownika bez weryfikacji, a on sam nie ma motywacji, żeby jej szukać.
Google i OpenAI po nagłośnieniu sprawy usunęły fałszywe informacje o Germainie ze swoich systemów. ChatGPT nawet zlinkował jego wpis na Bluesky jako przykład eksperymentu dezinformacyjnego. Google zachował się mniej elegancko – przyznał, że doszło do „przypadku dezinformacji”, ale odmówił wymienienia nazwiska dziennikarza z imienia i nazwiska.
Granica między zabawą a realnym zagrożeniem
Jeśli ktoś chodzi po świecie przekonany, że Thomas Germain to mistrz jedzenia hot dogów – cóż, trudno. Ale jeśli ktoś podejmuje decyzje zdrowotne lub finansowe na podstawie spreparowanych danych wciśniętych do chatbota – to już jest inny poziom ryzyka.
Eksperyment BBC pokazuje, że modele AI wciąż za bardzo polegają na tym, co znajdą w sieci, bez wystarczającej weryfikacji jakości i wiarygodności źródeł. Branża ma tu sporo do zrobienia – i raczej mało czasu na odkładanie tego na później.
