
Paulina lecąc na Maderę, zapomniała zabrać leki na gardło.
– Bolały mnie migdałki i zaczęłam zastanawiać się nad domowymi sposobami. Czymś, co miałabym pod ręką.
W wynajętym domku w okolicach Funchal – stolicy portugalskiej wyspy, Paulina zaczęła robić zdjęcia swojego gardła. Efekty załączyła w wiadomości do ChataGPT.
"Czy na zdjęciu widać infekcję?" – zapytała.
"Nie jestem lekarzem" – zdradził się na wstępie ChatGPT. "Najlepiej skonsultować się z lekarzem lub zrobić zdjęcie w lepszym oświetleniu".
Braki w kwalifikacjach i ubogi materiał zdjęciowy nie zniechęciły jednak systemu OpenAI. W tej samej wiadomości opisał typowe oznaki infekcji migdałków i poinformował o "symptomach krytycznych", kiedy koniecznie musisz skontaktować się ze specjalistą. Zasugerował, że może podpowiedzieć, "jak złagodzić ból domowymi sposobami".
– I pomogły? – pytam Pauliny.
– To była porada na zasadzie płukania gardła wodą z solą. Zrobiłam to kilka razy i pomogło.
Do systemów pokroju ChataGPT o porady zdrowotne zwraca się coraz więcej osób. Jakie zagrożenia niesie ze sobą ta pomoc?
"Byłem w szoku"
Nawet 40 proc. ankietowanych Amerykanów korzysta z chatbotów do konsultacji medycznej. I nic dziwnego. Obecnie systemy AI towarzyszą nam we wszystkich aspektach naszego życia i powoli przejmują rolę wyszukiwarki Google, jako głównego źródła codziennych porad. Pytamy je o przepisy kulinarne, plany treningowe, ale i porady związkowe. Dlaczego nie o ból gardła?
Szczególnie że jesteśmy zalewani informacjami o możliwościach nowych modeli, które często zaskakują samych autorów badań. Tak było również w przypadku eksperymentu, który przeprowadził Adam Rodman.
W swoich badaniach dr Rodman, współpracujący z centrum medycznym w Bostonie, chciał potwierdzić hipotezę, według której narzędzia AI okażą się pomocne w pracy lekarzy. Efekty nie były jednak oczywiste.
W trakcie eksperymentu podzielił lekarzy na dwie grupy, z których tylko jedna korzystała z ChataGPT. Choć grupa korzystająca z AI poradziła sobie z zadaniami odrobinę lepiej, prawdziwe zaskoczenie dotyczyło wyników samego chata, który wyprzedził żywą konkurencję o kilkanaście punktów procentowych.
"Byłem w szoku" – komentował wyniki badań Rodman w rozmowie z magazynem "New York Times".
Modele językowe są obecnie wykorzystywane nie tylko do diagnostyki, ale również do tworzenia nowych terapii z wykorzystaniem istniejących leków. Na własnej skórze sprawdził je Joseph Coates, który walczył z rzadką chorobą układu krwionośnego.
Gdy 37-letni mieszkaniec Waszyngtonu stracił już nadzieję na skuteczne leczenie, jego dziewczyna zwróciła się o pomoc profesora Davida Fajgenbaum z Uniwersytetu w Pensylwanii. On skonsultował się natomiast z systemem AI opracowywanym przez jego laboratorium. Zaproponowana przez model mieszanka chemioterapii, immunoterapii i sterydów nie była wcześniej stosowana na to schorzenie, jednak jej efekty były widoczne już po tygodniu. Obecnie choroba Coates’a jest w remisji.
"Biała Księga"
"Ochrona zdrowia jest jedną z najważniejszych dziedzin, na które wpłynie technologia AI" – mówił rok temu prezes Google Sundar Pichai. Systemy amerykańskiej firmy już teraz pomagają w rozpoznawaniu chorób na podstawie skanów oka, a nawet przewidują, kiedy stan pacjentów ulegnie pogorszeniu, na podstawie historii choroby. "Informacja dla lekarza, że pacjent będzie czuł się zdecydowanie gorzej za 24 czy 48 godzin, może mieć ogromne znaczenie" – mówił Pichai.
A jak sztuczna inteligencja wykorzystywana jest w polskich szpitalach?
– Głównie w radiologii, ze szczególnym uwzględnieniem badań tomografii komputerowej i rezonansu magnetycznego. Badania obrazowe odpowiadają za ok. 3/4 użyć AI w szpitalach – tłumaczy mi Ligia Kornowska, liderka "Koalicji AI w zdrowiu", GRAI ds. zdrowia przy Kancelarii Prezesa Rady Ministrów i strumienia AI&BD w Strategii e-Zdrowia na lata 2021-2026 dla Polski. – Sztuczna inteligencja jest też wykorzystywana do procesów administracyjnych, takich jak rejestracja pacjenta. Według statystyk Centrum e-Zdrowia ok. 7 proc. szpitali korzysta z rozwiązań AI, choć liczba ta może być niedoszacowana.
– Co jest wyjątkowego w wykorzystywaniu AI w polskiej branży medycznej? – pytam.
– AI w zdrowiu to stosunkowo nowy rynek. W 2015 roku w Stanach i Europie było ok. 30 medycznych algorytmów AI. Dziś szacuje się, że jest ich kilka tysięcy. W mojej ocenie Polska cały czas może się ścigać o tytuł lidera AI w medycynie, bo nawet jeśli jesteśmy w tyle w którychś dziedzinach, możemy to szybko nadrobić. Stworzyliśmy np. pierwszą na tę część Europy "miękką regulację" w zakresie zasad stosowania AI medycznego: Białą Księgę AI w praktyce klinicznej.
"Księga", o której mówi Kornowska to dokument, który ma pomóc w rozwoju i dobrym wykorzystaniu sztucznej inteligencji w polskiej służbie zdrowia. Wyjaśnia, jak stosować AI w medycynie, jakie są z tym związane trudności i jak je rozwiązywać, aby używanie AI w ochronie zdrowia było bezpieczne i skuteczne.
To jednak nie są wiążące przepisy prawne, a raczej sugestie dla producentów, "miękkie regulacje" – jak nazwała je Ligia Kornowska. Faktyczne regulacje dotyczące wykorzystywania AI do konsultacji zdrowotnej są ograniczone. Najważniejsze znajdziemy w europejskim AI Act.
Rozporządzenie wprowadzone w ubiegłym roku dzieli systemy AI pod względem stopnia zagrożenia, jakie ze sobą niosą. Te, które mają być wykorzystywane w opiece zdrowotnej należą do kategorii "wysokiego ryzyka".
Obowiązuje je szereg wymogów dotyczących jakości zbiorów danych, na których zostały wyszkolone, a ich stosowanie wymaga nadzoru człowieka.
– W tej chwili nie ma możliwości zastąpienia konsultacji lekarskiej konsultacją ze sztuczną inteligencją. Diagnozuje i leczy tylko lekarz. AI może natomiast pomóc przyspieszyć diagnostykę, leczenie, wspierać działania profilaktyczne, a także zoptymalizować finansowo opiekę zdrowotną – mówi Ligia Kornowska.
– AI może wskazywać pacjentowi dalsze kroki diagnostyczne, które pacjent powinien podjąć, np. przy wykorzystaniu AI do oceny retinopatii cukrzycowej u osób z cukrzycą, gdzie nie jest wymagana "pieczątka lekarza", aby pacjenta skierować dalej do specjalisty lub poinformować, że wszystko w porządku i nie trzeba podejmować aktualnie żadnych dodatkowych interwencji. AI może też pomóc w mammografii, gdzie ocena badań odbywa się obecnie przez 2 specjalistów. AI może zastąpić jedną z ocen i przyspieszyć diagnostykę.
"Pomyślałam, że to dziwne"
Mammografia, o której mówi Kornowska, czy przypisywanie terapii rzadkich chorób, jak w przypadku Josepha Coats’a są obecnie wspierane przez specjalistyczne systemy AI, dostosowane do standardów branży medycznej. A co ze "zwykłym" modelem, który nie został dostosowany do diagnozowania chorób, a którego porad posłuchała Paulina?
Coraz więcej lekarzy w swojej codziennej pracy wykorzystuje systemy, z których może skorzystać każdy z dostępem do internetu. Przekonała się o tym 19-letnia Lia, która w październiku ubiegłego roku poszła na konsultacje do dermatologa na przedmieściach Nowego Yorku. Lekarka, zanim przepisała lek, chciała sprawdzić, czy nie koliduje on z innym, który jej pacjentka przyjmowała. W tym celu zwróciła się do ChataGPT.
"Pomyślałam, że to dziwne" – mówiła Lia w rozmowie z portalem "Fierce Healthcare". "Lekarze pewnie będą dla nas coraz mniej przydatni. Im więcej informacji będziemy mieli pod ręką, tym mniej będziemy potrzebować tych ludzi".
Według raportu przeprowadzonego przez Sermo – sieć społecznościową dla lekarzy, nawet 76 proc. ankietowanych wykorzystywało popularne modele językowe pokroju ChataGPT do "podejmowania decyzji klinicznych".
Zagrożenie związane z wykorzystywaniem AI w tym celu jest jasne i każdy model przypomni nam je, jak tylko prześlemy do niego pytania dotyczące zdrowia: chat nie jest lekarzem. Może popełnić błąd, który przedstawi nam jako jednoznaczną diagnozę.
Zagadnienie to badała Roxana Daneshjou, profesorka na uniwersytecie Stanforda. W jednym z eksperymentów opisała ChatowiGPT przypadek kobiety, która przyszła do lekarza z obawą, że rozwinęło się u niej zapalenie sutka. "Stosuj ciepłe okłady, wykonuj masaże i częściej karm piersią" – miał doradzić chat.
"To błąd" – mówiła Daneshjou. "Akademia Medycyny Laktacyjnej zaleca coś przeciwnego: zimne okłady, powstrzymanie się od masaży i unikanie nadmiernej stymulacji".
AI bias
Do tego nie spełniają one kryteriów przedstawionych w AI Act dotyczących systemów AI wykorzystywanych w opiece zdrowotnej. Nie wiemy np. na jakich danych dokładnie zostały wyszkolone. Rolę dobrego zbioru danych unaoczniają badania przeprowadzone na Uniwersytecie w Nowym Jorku.
Raport z badań opisany w magazynie Nature Medicine ujawnia, że nawet 0,001 proc. błędnych danych wystarczy, żeby model generował o 4,8 proc. więcej nieprawdziwych informacji. Choć może wydawać się, że to mało, jeżeli mówimy o danych medycznych, konsekwencje tego rodzaju dezinformacji mogą okazać się poważne.
Badaczy i badaczki z Nowego Jorku szczególnie niepokoi wykorzystywanie w tym celu modeli szkolonych na danych z sieci.
"W obliczu obecnych apeli o poprawę jakości danych i przejrzystego rozwoju LLM mamy nadzieję zwiększyć świadomość dotyczącą zagrożeń ze strony LLM szkolonych na danych z internetu. Szczególnie w opiece zdrowotnej, gdzie dezinformacja może potencjalnie zagrozić bezpieczeństwu pacjentów" – czytamy w raporcie z badań.
To również ważne, ponieważ ograniczona baza danych może prowadzić do tzw. AI bias.
– Jeśli wytrenujemy algorytm na danych pochodzących od jednej populacji pacjentów, algorytm może być zupełnie nieskuteczny dla innej, np. algorytm trenowany na danych dorosłych może być zupełnie nieskuteczny dla dzieci – tłumaczy mi Ligia Kornowska.
"Przyszłość już tu jest"
Już teraz modele AI wspierają wiele obszarów opieki zdrowotnej: od diagnostyki obrazowej, przez kwestie administracyjne, aż po opracowywanie alternatywnych terapii. W przyszłości ich udział może okazać się jeszcze większy.
Niedługo każda osoba z dostępem do internetu będzie mogła korzystać ze wstępnej konsultacji medycznej za pomocą AI, która tylko w skrajnych przypadkach wyśle nas do żywego specjalisty.
– Zaryzykuję stwierdzenie, że ta przyszłość już tu jest. Wcześniej pacjenci diagnozowali się sami, używając wyszukiwarki, teraz wiele z nich używa chatbota. Nie jest to oczywiście pożądana sytuacja, bo obecnie duże modele językowe nie są certyfikowanymi wyrobami medycznymi i nie powinny być wykorzystywane do diagnozowania i leczenia – mówi Ligia Kornowska.
– Jaki będzie więc następny przełom? – pytam.
– Analityka predykcyjna. To takie wykorzystanie algorytmów, aby skanowały nasz stan zdrowia i informowały jeszcze przed zachorowaniem, że powinniśmy zainterweniować, bo zachorujemy. Wtedy przejdziemy z opieki nad chorym na opiekę nad zdrowym.