Urzędnicy sanitarni z Illinois poprosili ChatGPT o pomoc w rozwiązaniu zagadkowego ogniska choroby, które pojawiło się po wiejskim festynie w hrabstwie Brown. Czy AI faktycznie im pomogła? To zależy, kogo zapytasz.
Wszystko zaczęło się dość absurdalnie. 5 sierpnia 2024 roku miejscowy szeryf zauważył, że wyjątkowo duża liczba potencjalnych jurorów zgłaszała problemy żołądkowe przed planowaną rozprawą. Tydzień później stan Illinois oficjalnie poinformował hrabstwo o wykrytym przypadku szczególnie rzadkiego szczepu bakterii – Salmonella enterica serotyp Agbeni. To wystarczyło, żeby wszcząć dochodzenie.
W efekcie śledztwa zidentyfikowano 13 przypadków zachorowań, rozrzuconych po pięciu hrabstwach. Siedem potwierdzono laboratoryjnie, sześć uznano za prawdopodobne ze względu na bezpośredni kontakt z chorymi. Wszyscy chorzy mieli jedno wspólne: odwiedzili festyn Brown County Fair.
Prowizoryczna chłodnia i brudny lód
Śledczy szybko wyizolowali prawdopodobne źródło. Na festynie działał namiot z piwem, a w nim nieco osobliwy „system chłodzący” – prowizoryczna chłodnia wykonana ze zwykłej rury drenarskiej używanej w rolnictwie, wypełniona lodem. Przez cały tydzień trwania imprezy nikt jej nie czyścił ani nie dezynfekował.
Pracownicy namiotu niechętnie mówili cokolwiek konkretnego – nie chcieli narażać znajomych ze społeczności. Jeden z nich wspomniał jednak, że na początku festynu do chłodni trafiły resztki jedzenia, które zostały tam przez całą noc. Hipoteza śledczych była prosta: Salmonella namnożyła się w brudnym lodzie, a następnie trafiła na zewnętrzne powierzchnie puszek z piwem, które ludzie pili bezpośrednio z wieczka.
Problem polegał na tym, że do czasu zakończenia dochodzenia prowizoryczna chłodnia już nie istniała. Żadnych próbek, żadnego twardego dowodu. Hipoteza pozostała tylko hipotezą.
I właśnie tutaj pojawił się ChatGPT.
Pytanie do chatbota
Prowadząca dochodzenie Katherine Houser, urzędniczka sanitarna hrabstwa Brown i autorka raportu opublikowanego w prestiżowym biuletynie CDC „Morbidity and Mortality Weekly Report”, postanowiła sprawdzić swoją teorię, konsultując sprawę z AI. Śledczy przekazali chatbotowi szczegóły ogniska i zadali mu kilka konkretnych pytań, między innymi:
- „Will S. Agbeni proliferate in a poorly drained cooler?”
- „Besides ice, are there any plausible sources if only canned drinks and no food were present at this site?”
- „What documented examples of similar outbreaks exist in the scientific literature?”
ChatGPT odpowiedział, że chłodnia stanowi „wiarygodne i prawdopodobne” źródło zakażenia. Śledczy uznali to za potwierdzenie swojej hipotezy i utrzymali ją jako główną.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: „To fascynujący przypadek, bo pokazuje jednocześnie potencjał i pułapki AI w poważnych zastosowaniach. Z jednej strony – w małym hrabstwie, bez dużych zasobów, chatbot rzeczywiście mógł przyspieszyć pewne kroki śledztwa i dać ekipie poczucie kierunku. Rozumiem to. Z drugiej – część pytań zadanych ChatGPT to były rzeczy, które można było sprawdzić w PubMed w dziesięć minut. A to jest problem: czy AI tu pomogła, czy tylko upewniła śledczych w tym, w co już wierzyli? Efekt potwierdzenia przy pomocy algorytmu to niekoniecznie dobry wynik. I najważniejsze pytanie, które zostawię otwarte: skoro nie ma twardych dowodów co do rzeczywistego źródła zakażenia, to czy naprawdę AI „rozwiązała” tę sprawę, czy po prostu ją zamknęła?”
Użyteczna, ale nie niezastąpiona
Sam raport CDC nie jest jednoznaczny w ocenach. Houser napisała, że AI okazała się skuteczna „w warunkach wiejskich dla szybkiej orientacji sytuacyjnej”. Ale jednocześnie zaznaczyła wyraźnie: wszystkie odpowiedzi generowane przez chatbota były „krytycznie recenzowane i weryfikowane z pierwotną literaturą naukową, zanim zostały uwzględnione” w raporcie.
I tu pojawia się ironiczny problem: weryfikacja odpowiedzi AI może zająć tyle samo czasu, co samodzielne przeprowadzenie badania. Skrupulatne sprawdzanie halucynacji i braków w wiedzy chatbota nie jest procesem szybkim. Trudno więc mówić o realnej oszczędności czasu.
Redakcja Ars Technica, która jako pierwsza szczegółowo opisała sprawę, zwraca też uwagę na fakt, że prosta wyszukiwarka PubMed – federalnej bazy literatury naukowej – od razu zwraca wyniki dotyczące Salmonelli w lodzie. To nie jest wiedza tajemna ani trudno dostępna.
Nowy standard w epidemiologii?
Przypadek hrabstwa Brown wpisuje się w szerszy trend. Małe jednostki sanitarne, szczególnie w wiejskich obszarach USA, często pracują z ograniczonymi zasobami kadrowymi i budżetowymi. ChatGPT może być tam rzeczywiście pierwszym impulsem do działania – i to nie jest bez wartości.
Organizacja ECRI, zajmująca się bezpieczeństwem pacjentów, umieściła właśnie nadużywanie chatbotów AI (takich jak ChatGPT, Gemini czy Copilot) na pierwszym miejscu swojej listy zagrożeń technologicznych w ochronie zdrowia na 2026 rok. ECRI podkreśla, że narzędzia te nie są urządzeniami medycznymi i nie były do tego celu projektowane.
Sprawa z Illinois jest więc i inspirująca, i ostrzegawcza zarazem. Urzędnicy wdrożyli nowe procedury dezynfekcji chłodnic na festynach, co jest jak najbardziej rozsądnym wnioskiem – niezależnie od tego, czy ChatGPT faktycznie pomógł, czy tylko przytaknął.
Prawdziwe źródło ogniska Salmonelli na Brown County Fair pewnie już nigdy nie zostanie potwierdzone.
