Do systemów pokroju ChataGPT o porady zdrowotne zwraca się coraz więcej osób. Jakie zagrożenia niesie ze sobą ta pomoc? 
Do systemów pokroju ChataGPT o porady zdrowotne zwraca się coraz więcej osób. Jakie zagrożenia niesie ze sobą ta pomoc?  Ilus.: Sylwester Kluszczyński / naTemat
Reklama.

Paulina lecąc na Maderę, zapomniała zabrać leki na gardło. 

– Bolały mnie migdałki i zaczęłam zastanawiać się nad domowymi sposobami. Czymś, co miałabym pod ręką. 

W wynajętym domku w okolicach Funchal – stolicy portugalskiej wyspy, Paulina zaczęła robić zdjęcia swojego gardła. Efekty załączyła w wiadomości do ChataGPT.

"Czy na zdjęciu widać infekcję?" – zapytała. 

"Nie jestem lekarzem" – zdradził się na wstępie ChatGPT. "Najlepiej skonsultować się z lekarzem lub zrobić zdjęcie w lepszym oświetleniu". 

Czytaj także:

Braki w kwalifikacjach i ubogi materiał zdjęciowy nie zniechęciły jednak systemu OpenAI. W tej samej wiadomości opisał typowe oznaki infekcji migdałków i poinformował o "symptomach krytycznych", kiedy koniecznie musisz skontaktować się ze specjalistą. Zasugerował, że może podpowiedzieć, "jak złagodzić ból domowymi sposobami". 

– I pomogły? – pytam Pauliny. 

– To była porada na zasadzie płukania gardła wodą z solą. Zrobiłam to kilka razy i pomogło.

Do systemów pokroju ChataGPT o porady zdrowotne zwraca się coraz więcej osób. Jakie zagrożenia niesie ze sobą ta pomoc? 

"Byłem w szoku"

Nawet 40 proc. ankietowanych Amerykanów korzysta z chatbotów do konsultacji medycznej. I nic dziwnego. Obecnie systemy AI towarzyszą nam we wszystkich aspektach naszego życia i powoli przejmują rolę wyszukiwarki Google, jako głównego źródła codziennych porad. Pytamy je o przepisy kulinarne, plany treningowe, ale i porady związkowe. Dlaczego nie o ból gardła? 

Szczególnie że jesteśmy zalewani informacjami o możliwościach nowych modeli, które często zaskakują samych autorów badań. Tak było również w przypadku eksperymentu, który przeprowadził Adam Rodman. 

W swoich badaniach dr Rodman, współpracujący z centrum medycznym w Bostonie, chciał potwierdzić hipotezę, według której narzędzia AI okażą się pomocne w pracy lekarzy. Efekty nie były jednak oczywiste. 

Czytaj także:

W trakcie eksperymentu podzielił lekarzy na dwie grupy, z których tylko jedna korzystała z ChataGPT. Choć grupa korzystająca z AI poradziła sobie z zadaniami odrobinę lepiej, prawdziwe zaskoczenie dotyczyło wyników samego chata, który wyprzedził żywą konkurencję o kilkanaście punktów procentowych. 

"Byłem w szoku" – komentował wyniki badań Rodman w rozmowie z magazynem "New York Times". 

Modele językowe są obecnie wykorzystywane nie tylko do diagnostyki, ale również do tworzenia nowych terapii z wykorzystaniem istniejących leków. Na własnej skórze sprawdził je Joseph Coates, który walczył z rzadką chorobą układu krwionośnego. 

Gdy 37-letni mieszkaniec Waszyngtonu stracił już nadzieję na skuteczne leczenie, jego dziewczyna zwróciła się o pomoc profesora Davida Fajgenbaum z Uniwersytetu w Pensylwanii. On skonsultował się natomiast z systemem AI opracowywanym przez jego laboratorium. Zaproponowana przez model mieszanka chemioterapii, immunoterapii i sterydów nie była wcześniej stosowana na to schorzenie, jednak jej efekty były widoczne już po tygodniu. Obecnie choroba Coates’a jest w remisji. 

"Biała Księga"

"Ochrona zdrowia jest jedną z najważniejszych dziedzin, na które wpłynie technologia AI" – mówił rok temu prezes Google Sundar Pichai. Systemy amerykańskiej firmy już teraz pomagają w rozpoznawaniu chorób na podstawie skanów oka, a nawet przewidują, kiedy stan pacjentów ulegnie pogorszeniu, na podstawie historii choroby. "Informacja dla lekarza, że pacjent będzie czuł się zdecydowanie gorzej za 24 czy 48 godzin, może mieć ogromne znaczenie" – mówił Pichai.  

A jak sztuczna inteligencja wykorzystywana jest w polskich szpitalach?

– Głównie w radiologii, ze szczególnym uwzględnieniem badań tomografii komputerowej i rezonansu magnetycznego. Badania obrazowe odpowiadają za ok. 3/4 użyć AI w szpitalach – tłumaczy mi Ligia Kornowska, liderka "Koalicji AI w zdrowiu", GRAI ds. zdrowia przy Kancelarii Prezesa Rady Ministrów i strumienia AI&BD w Strategii e-Zdrowia na lata 2021-2026 dla Polski. – Sztuczna inteligencja jest też wykorzystywana do procesów administracyjnych, takich jak rejestracja pacjenta. Według statystyk Centrum e-Zdrowia ok. 7 proc. szpitali korzysta z rozwiązań AI, choć liczba ta może być niedoszacowana.

– Co jest wyjątkowego w wykorzystywaniu AI w polskiej branży medycznej? – pytam.

– AI w zdrowiu to stosunkowo nowy rynek. W 2015 roku w Stanach i Europie było ok. 30 medycznych algorytmów AI. Dziś szacuje się, że jest ich kilka tysięcy. W mojej ocenie Polska cały czas może się ścigać o tytuł lidera AI w medycynie, bo nawet jeśli jesteśmy w tyle w którychś dziedzinach, możemy to szybko nadrobić. Stworzyliśmy np. pierwszą na tę część Europy "miękką regulację" w zakresie zasad stosowania AI medycznego: Białą Księgę AI w praktyce klinicznej.

"Księga", o której mówi Kornowska to dokument, który ma pomóc w rozwoju i dobrym wykorzystaniu sztucznej inteligencji w polskiej służbie zdrowia. Wyjaśnia, jak stosować AI w medycynie, jakie są z tym związane trudności i jak je rozwiązywać, aby używanie AI w ochronie zdrowia było bezpieczne i skuteczne.

To jednak nie są wiążące przepisy prawne, a raczej sugestie dla producentów, "miękkie regulacje" – jak nazwała je Ligia Kornowska. Faktyczne regulacje dotyczące wykorzystywania AI do konsultacji zdrowotnej są ograniczone. Najważniejsze znajdziemy w europejskim AI Act

Rozporządzenie wprowadzone w ubiegłym roku dzieli systemy AI pod względem stopnia zagrożenia, jakie ze sobą niosą. Te, które mają być wykorzystywane w opiece zdrowotnej należą do kategorii "wysokiego ryzyka". 

Obowiązuje je szereg wymogów dotyczących jakości zbiorów danych, na których zostały wyszkolone, a ich stosowanie wymaga nadzoru człowieka. 

– W tej chwili nie ma możliwości zastąpienia konsultacji lekarskiej konsultacją ze sztuczną inteligencją. Diagnozuje i leczy tylko lekarz. AI może natomiast pomóc przyspieszyć diagnostykę, leczenie, wspierać działania profilaktyczne, a także zoptymalizować finansowo opiekę zdrowotną – mówi Ligia Kornowska. 

– AI może wskazywać pacjentowi dalsze kroki diagnostyczne, które pacjent powinien podjąć, np. przy wykorzystaniu AI do oceny retinopatii cukrzycowej u osób z cukrzycą, gdzie nie jest wymagana "pieczątka lekarza", aby pacjenta skierować dalej do specjalisty lub poinformować, że wszystko w porządku i nie trzeba podejmować aktualnie żadnych dodatkowych interwencji. AI może też pomóc w mammografii, gdzie ocena badań odbywa się obecnie przez 2 specjalistów. AI może zastąpić jedną z ocen i przyspieszyć diagnostykę.

"Pomyślałam, że to dziwne"

Mammografia, o której mówi Kornowska, czy przypisywanie terapii rzadkich chorób, jak w przypadku Josepha Coats’a są obecnie wspierane przez specjalistyczne systemy AI, dostosowane do standardów branży medycznej. A co ze "zwykłym" modelem, który nie został dostosowany do diagnozowania chorób, a którego porad posłuchała Paulina?

Coraz więcej lekarzy w swojej codziennej pracy wykorzystuje systemy, z których może skorzystać każdy z dostępem do internetu. Przekonała się o tym 19-letnia Lia, która w październiku ubiegłego roku poszła na konsultacje do dermatologa na przedmieściach Nowego Yorku. Lekarka, zanim przepisała lek, chciała sprawdzić, czy nie koliduje on z innym, który jej pacjentka przyjmowała. W tym celu zwróciła się do ChataGPT

"Pomyślałam, że to dziwne" – mówiła Lia w rozmowie z portalem "Fierce Healthcare". "Lekarze pewnie będą dla nas coraz mniej przydatni. Im więcej informacji będziemy mieli pod ręką, tym mniej będziemy potrzebować tych ludzi".

Według raportu przeprowadzonego przez Sermo – sieć społecznościową dla lekarzy, nawet 76 proc. ankietowanych wykorzystywało popularne modele językowe pokroju ChataGPT do "podejmowania decyzji klinicznych". 

Czytaj także:

Zagrożenie związane z wykorzystywaniem AI w tym celu jest jasne i każdy model przypomni nam je, jak tylko prześlemy do niego pytania dotyczące zdrowia: chat nie jest lekarzem. Może popełnić błąd, który przedstawi nam jako jednoznaczną diagnozę. 

Zagadnienie to badała Roxana Daneshjou, profesorka na uniwersytecie Stanforda. W jednym z eksperymentów opisała ChatowiGPT przypadek kobiety, która przyszła do lekarza z obawą, że rozwinęło się u niej zapalenie sutka. "Stosuj ciepłe okłady, wykonuj masaże i częściej karm piersią" – miał doradzić chat. 

"To błąd" – mówiła Daneshjou. "Akademia Medycyny Laktacyjnej zaleca coś przeciwnego: zimne okłady, powstrzymanie się od masaży i unikanie nadmiernej stymulacji".

AI bias

Do tego nie spełniają one kryteriów przedstawionych w AI Act dotyczących systemów AI wykorzystywanych w opiece zdrowotnej. Nie wiemy np. na jakich danych dokładnie zostały wyszkolone. Rolę dobrego zbioru danych unaoczniają badania przeprowadzone na Uniwersytecie w Nowym Jorku. 

Raport z badań opisany w magazynie Nature Medicine ujawnia, że nawet 0,001 proc. błędnych danych wystarczy, żeby model generował o 4,8 proc. więcej nieprawdziwych informacji. Choć może wydawać się, że to mało, jeżeli mówimy o danych medycznych, konsekwencje tego rodzaju dezinformacji mogą okazać się poważne. 

Badaczy i badaczki z Nowego Jorku szczególnie niepokoi wykorzystywanie w tym celu modeli szkolonych na danych z sieci. 

"W obliczu obecnych apeli o poprawę jakości danych i przejrzystego rozwoju LLM mamy nadzieję zwiększyć świadomość dotyczącą zagrożeń ze strony LLM szkolonych na danych z internetu. Szczególnie w opiece zdrowotnej, gdzie dezinformacja może potencjalnie zagrozić bezpieczeństwu pacjentów" – czytamy w raporcie z badań.

Czytaj także:

To również ważne, ponieważ ograniczona baza danych może prowadzić do tzw. AI bias. 

– Jeśli wytrenujemy algorytm na danych pochodzących od jednej populacji pacjentów, algorytm może być zupełnie nieskuteczny dla innej, np. algorytm trenowany na danych dorosłych może być zupełnie nieskuteczny dla dzieci – tłumaczy mi Ligia Kornowska.

"Przyszłość już tu jest"

Już teraz modele AI wspierają wiele obszarów opieki zdrowotnej: od diagnostyki obrazowej, przez kwestie administracyjne, aż po opracowywanie alternatywnych terapii. W przyszłości ich udział może okazać się jeszcze większy. 

Niedługo każda osoba z dostępem do internetu będzie mogła korzystać ze wstępnej konsultacji medycznej za pomocą AI, która tylko w skrajnych przypadkach wyśle nas do żywego specjalisty. 

– Zaryzykuję stwierdzenie, że ta przyszłość już tu jest. Wcześniej pacjenci diagnozowali się sami, używając wyszukiwarki, teraz wiele z nich używa chatbota. Nie jest to oczywiście pożądana sytuacja, bo obecnie duże modele językowe nie są certyfikowanymi wyrobami medycznymi i nie powinny być wykorzystywane do diagnozowania i leczenia – mówi Ligia Kornowska.

– Jaki będzie więc następny przełom? – pytam.

– Analityka predykcyjna. To takie wykorzystanie algorytmów, aby skanowały nasz stan zdrowia i informowały jeszcze przed zachorowaniem, że powinniśmy zainterweniować, bo zachorujemy. Wtedy przejdziemy z opieki nad chorym na opiekę nad zdrowym.