Sztuczna inteligencja wchodzi do gabinetów lekarskich, karetek pogotowia i szpitalnych sal operacyjnych. Robi to powoli, ostrożnie – ale robi to.
W Alachua County na Florydzie lokalne służby medyczne i akademickie szpitale zaczynają na serio mierzyć się z pytaniem, które zadaje sobie dziś cała branża ochrony zdrowia: ile zaufania możemy powierzyć algorytmom, gdy stawką jest ludzkie życie?
Straż pożarna na konserwatywnym kursie
Zastępca szefa Alachua County Fire Rescue, Jeff Taylor, przyznaje wprost, że jego departament korzysta z AI – ale wyłącznie do zadań administracyjnych. Narzędzia pomagają mierzyć skuteczność działań i analizować rodzaje zgłoszeń. Żadnych danych pacjentów w modelach językowych.
„Currently, we use tools that measure our effectiveness and response and help us to understand the types of calls that we run” / „Używamy narzędzi, które mierzą naszą skuteczność i czas reakcji oraz pomagają nam rozumieć rodzaje obsługiwanych zgłoszeń” – wyjaśnił Taylor.
To podejście nie jest przypadkowe. Kwestia zgodności z HIPAA (Health Insurance Portability and Accountability Act, czyli amerykańskim prawem regulującym ochronę danych medycznych) to w tej chwili jeden z największych hamulców wdrożeń AI w sektorze zdrowia. Co istotne, jak wskazuje The HIPAA Journal, AI nie posiada własnych, dedykowanych regulacji bezpieczeństwa – musi stosować się do tych samych przepisów, które obowiązują przy tradycyjnej dokumentacji medycznej.
Paramedycy widzą potencjał, ale i ryzyko
Derek Hunt, ratownik medyczny i kliniczny edukator w UF Health Shands Hospital, potwierdza, że AI na razie nie zadomowiła się jeszcze w pracy w terenie. Główny powód? Niedokładność. Wyjątkiem są urządzenia pokroju aparatów USG, które zaczynają korzystać z algorytmów wspierających diagnozę.
Hunt zwraca też uwagę na zjawisko, które każdy lekarz i ratownik zna doskonale: pacjenci przychodzą z gotowymi „diagnozami” z internetu.
„Sometimes the information is good, and sometimes it isn’t, and it’s really a case-by-case basis. But everyone’s going to Google everything before or while you’re talking to them.” / „Czasem informacje są wartościowe, a czasem nie – to naprawdę zależy od przypadku. Ale wszyscy będą googlować wszystko przed wizytą albo w jej trakcie.”
Badania Duke University opublikowane w lutym tego roku potwierdzają niepokojący wniosek: chatboty udzielają porad, które są formalnie poprawne medycznie, ale pozbawione kontekstu. LLM nie bierze wywiadu lekarskiego i nie czyta między wierszami.
Widzę tu powtarzający się schemat: AI radzi sobie świetnie w warunkach testowych, a gorzej w prawdziwym świecie. Badanie opublikowane w Nature Medicine pokazuje, że modele językowe zdają egzaminy medyczne, ale nie potrafią poprawnie diagnozować w rzeczywistych przypadkach klinicznych. To nie znaczy, że należy je odrzucić – oznacza raczej, że jesteśmy na etapie, gdy AI powinna wspierać lekarza, a nie go zastępować. Pytanie brzmi, gdzie dokładnie przebiega ta granica i kto ją wyznacza.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
UF Health idzie do przodu
Inaczej sytuacja wygląda na poziomie akademickim. UF Health zatrudnił ponad 30 wykładowców specjalizujących się w AI na sześciu wydziałach medycznych. Uczelnia wdraża AI w salach operacyjnych do analizy powikłań pooperacyjnych i monitorowania pacjentów na oddziałach intensywnej terapii. College of Public Health and Health Professions oferuje już certyfikację z zakresu AI w zdrowiu publicznym.
To poważne zaangażowanie instytucjonalne, które odróżnia UF od wielu innych placówek wciąż przyglądających się temu trendowi z dystansu.
Pacjenci i chatboty – codzienność gabinetów
Dr James Wesley z centrum zdrowia dla studentów UF mówi, że przynajmniej raz dziennie pacjent przychodzi do niego z poradą uzyskaną od chatbota. Jego ocena jest jednoznaczna: chatboty nie mają żadnych zabezpieczeń i nie potrafią rozpoznać sytuacji kryzysowej.
Studentki biologii UF, z którymi rozmawiał lokalny portal, podchodzą do tematu bardziej wyważenie:
- AI może przyspieszać i ułatwiać diagnozowanie
- Powinna być stosowana z ostrożnością i tylko przy udowodnionej skuteczności
- Człowiek musi weryfikować wyniki
- Na końcu procesu decyzyjnego musi stać lekarz, nie algorytm
„It’s not a human at the end of the day. They are not going to have the same ethics that a human might have.” / „To w końcu nie jest człowiek. Nie będą mieć tej samej etyki, co człowiek” – stwierdziła 18-letnia Angie Joseph, studentka pierwszego roku biologii.
Ostrożność jako strategia
Obraz wyłaniający się z Gainesville to coś, co można by nazwać ostrożnym optymizmem. Służby ratunkowe chronią dane pacjentów i trzymają AI z dala od decyzji klinicznych. Szpitale akademickie eksperymentują w kontrolowanych warunkach. Pacjenci i tak korzystają z chatbotów na własną rękę.
Pytanie nie brzmi już „czy AI wejdzie do medycyny” – bo już weszła. Pytanie brzmi, czy instytucje zdążą wypracować odpowiednie standardy, zanim algorytmy przejmą rolę pierwszego kontaktu z pacjentem.
