
Sztuczna inteligencja i roboty testowane są do celów medycyny, a duże firmy technologiczne wierzą, że zastąpią one ludzkich lekarzy. – To musiałaby być niezła gimnastyka prawna – mówi nam jednak inżynier Marcin Luckner z projektu Xlungs. Na współpracę ludzi i maszyn w leczeniu ma zupełnie inny pomysł.
Microsoft AI Diagnostic Orchestrator (MAI-Dxo) diagnozuje z precyzją 85 proc., efektywniej niż prawdziwy lekarz. Na świecie trwają z kolei badania nad autonomicznymi maszynami chirurgicznymi. Sztuczna inteligencja w medycynie to poważny temat – jakby nie patrzeć, powierzamy ludzkie życie maszynie. Zdaniem Polaków z projektu Xlungs, zaufanie i odpowiedzialność za AI z punktu widzenia prawa to bariera dla big techów. Dlatego oferują inne rozwiązanie – by technologia wspierała lekarzy, a nie ich zastępowała.
Wywiad z prof. Marcinem Lucknerem
Xlungs to polska platforma wspierająca lekarzy w analizie obrazów płuc z pomocą AI. To mały agent, wyspecjalizowany, tańszy i szybszy w działaniu niż duże modele językowe. Do tego ma być pierwszym na świecie, który oparto w 100 proc. na potwierdzonych badaniach naukowych.
Rozmawiamy z dr hab. inż. Marcinem Lucknerem, szefem zespołu Xlungs i członkiem zespołu MI2.AI. Wyjaśnia nam, na czym polega unikatowość ich projektu oraz dlaczego nie wierzy, że duże modele językowe zdołają zastąpić lekarzy.
***
Sebastian Luc-Lepianka: Czemu nie zrobić maszyny, która sama diagnozuje?
Marcin Luckner: Jest kilka powodów. Po pierwsze prawne, czyli odpowiedzialność za daną decyzję. To pytanie o odpowiedzialność w razie wypadku. Jak z samochodami autonomicznymi, co pozostaje nierozwiązane.
Druga sprawa dotyczy zaufania społecznego. Nawet jeśli powstałaby maszyna, która rzadziej się myli niż człowiek, czego jeszcze nie ma, to ludzie i tak woleliby, aby decyzje podejmował lekarz.
Ale ludzie udają się do ChatGPT po teleporadę.
To zjawisko "doktora Google" w nowej edycji, czyli sięgania po diagnozę z wyszukiwarki. To bardzo nierozsądne postępowanie.
W większości wypadków nie wiemy, skąd chatbot bierze informacje. Duże modele językowe mają jeszcze tendencję do generowania odpowiedzi pod użytkownika. Więc nawet jeśli podałby właściwy sposób leczenia, ale panu by się ono nie spodobało i zadałby pan ponownie pytanie, mógłby wygenerować zupełnie co innego. Ma równe szanse podać wiedzę medyczną, jak i babcine porady. Albo kazałby odżywiać się światłem.
OpenAI zatrudniło psychiatrów do weryfikacji odpowiedzi ChatGPT… po fakcie, jak ludzie zaczęli z niego korzystać jako terapeuty.
Istnieje takie zjawisko, nie widzę nic złego w samym rozmawianiu z modelem językowym. Czasem nikogo nie ma pod ręką, a chcemy sobie pogadać. Gorzej, kiedy ludzie traktują go jako doradcę.
Nie boicie się, że duże modele językowe zostaną udoskonalone do wykonywania pracy lekarskiej? Trwają nad tym prace.
Myślę, że one nie przebiją się przez procesy certyfikacyjne. Każdy produkt wprowadzany na rynek medyczny musi je przejść. I nie będę ukrywał, my także będziemy walczyć o swoją. Zaczniemy proces, jak ukończymy prace rozwojowe. Przy czym naszym celem nie jest zastąpienie lekarza.
Jest to w ogóle wykonalne?
To musiałaby być niezła gimnastyka prawna. Ponieważ np. trzeba ustawić to AI na serwerach, które są poza jurysdykcją krajów wprowadzających ograniczenia na usługi medyczne online. I zapewnić jego działanie w taki sposób, aby inne kraje nie zablokowały takiego "lekarza". Wtedy mogłoby to zaistnieć, ale znowu: konieczność wchodzenia na dziwne serwery mogłoby nie budzić zaufania co do jego wiarygodności.
Faktem jest, że model językowy przeczyta więcej artykułów, niż lekarz przez swoje życie. Zobaczy więcej tomografii. Tylko w tej pracy potrzeba czegoś więcej, niż tylko wrzucanie danych do stacji diagnostycznej. Potrzeba doświadczenia w kontakcie z pacjentami i empatii.
A jak wasze Xlungs pomaga lekarzom?
W projekcie Xlungs skupiliśmy się na dostarczeniu wyjaśnialnej sztucznej inteligencji, która będzie analizowała obrazowania medyczne. Tutaj mówimy konkretnie o tomografii komputerowej.
Nasze rozwiązania, co do zasady, mają wspierać lekarza, ułatwić mu analizę tych obrazowań. Model inteligencji rozpoznaje pewne obiekty, które znajdują się w obrazowaniach, a następnie zwraca uwagę w raporcie na to, co jest nietypowe, biorąc pod uwagę ogół populacji, opisanej w swoich zasobach.
Co właściwie wykrywa?
Rozpoznaje poszczególne organy, jest w stanie je zwizualizować i zwymiarować. Dzięki temu sprawdza, czy jest jakaś nietypowość. Dodatkowo potrafi wykrywać zmiany chorobowe, o ile da się je wyodrębnić – np. guzki. Jesteśmy w stanie zrobić ich model i pokazać, gdzie się znajdują.
Jak to działa w praktyce na przykładzie guzków?
Tomografia komputerowa jest obrazowaniem, które przedstawia trójwymiarowe obiekty w postaci serii dwuwymiarowych obrazów, będących skanami wykonywanymi co kilka milimetrów. Normalnie, lekarz ręcznie by przeszukiwał wszystkie takie obrazowania, szukając guzka.
My oferujemy przedstawienie trójwymiarowe płuc z zaznaczeniem, w których miejscach znaleźliśmy guzki oraz dodatkowy obraz, jedną klatkę ze skanu ze zlokalizowanym guzkiem. Lekarz od razu widzi, gdzie szukać samemu, aby zweryfikować nasze rezultaty. Ułatwiamy mu pracę.
Zaufanie do maszyny pochodzi od danych, na których ją nauczono. Skąd czerpiecie swoje?
Dane są kluczowe. W naszym wypadku pozyskaliśmy je z Polskiej Grupy Raka Płuca. To jest 40 tys. skanów tomografii komputerowej, dane zbierane w badaniach przesiewowych w latach 2010-2018. Aby je poprawnie zweryfikować, zatrudniliśmy w projekcie radiologów.
Dane sprzed siedmiu lat? Jak aktualne są w praktyce?
Cóż, to nie jest tak, że ewolucja człowieka przebiega tak szybko, że parę lat zmieni, jak wyglądają płuca. Natomiast my cały czas chcemy rozwijać naszą bazę danych i podejmujemy współpracę z kolejnymi ośrodkami. Rozbudowujemy wiedzę naszych algorytmów.
Jak duży jest wasz model językowy?
Na nauczanie maszynowe potrzebowaliśmy około 180 tys. godzin działania procesora. Jest to czas porównywalny do dużego modelu językowego sprzed kilku generacji. Obecne modele uczą się prawie 2 miliony godzin. Więc nasz model jest rzeczywiście mały. Nas interesuje tylko analiza tomografii komputerowej. Budowaliśmy całość przez trzy lata.
Twierdzicie, że wasz model jest jedyny taki na świecie. Dzięki czemu konkretnie?
W 2021 roku powstała praca analizująca 100 dostępnych komercyjnie produktów agentów AI. Stwierdzono, że 64 proc. z nich nie oferuje analizy jakości podawanych wyników, tylko z jakich baz danych korzystają.
W naszym przypadku celem jest stworzenie całej aplikacji, która ma pewne cechy wspólne produktów komercyjnych. Ale z drugiej strony publikujemy stale prace naukowe, przedstawiające wyniki, a nie tylko źródła. Wszystko jest weryfikowane pod względem naukowym.
Drugi aspekt tej unikalności polega na tym, że nasza baza danych faktycznie jest największa na świecie. Nie ma drugiej takiej, z której uczyłyby się modele językowe. Do tego nie trzeba naszego modelu umieszczać na stacji badawczej. My oferujemy aplikację webową, lekarz może uruchomić Xlungs w przeglądarce.
Jakie są wymagania, aby to odpalić?
Jedyne co jest potrzebne, to laptop. Obliczenia są wykonywane po naszej stronie. To tylko kwestia licencji do usługi.
Ile będzie kosztować licencja?
Tego jeszcze nie ustaliliśmy, 1 lipca zakończyliśmy część badawczą projektu i z finansowaniem z rządowego programu zbudowaliśmy prototyp. Wystartowaliśmy z nim w programie inkubacyjnym. Na Politechnice Warszawskiej mamy Centrum Innowacji, które zajmuje się komercjalizacją rozwiązań, a my się zakwalifikowaliśmy do tej procedury.
Co z kosztami środowiskowymi?
To jest kwestia skalowania. Koszty środowiskowe są ograniczone przez to, że nasz model jest wyspecjalizowany. Łatwiej jest je zmniejszyć używane przez niego zasoby, a w razie konieczności je zwiększać. Nasze rozwiązanie oparte jest na mikrousługach. Pięć osobnych usług, których użycie jest niezbędne, aby wygenerować raport końcowy, otrzymuje według potrzeb dostęp do procesorów i kart graficznych. Te zasoby można zwiększać w celu zwiększenia wydajności.
Na ten moment pojedyncza karta z równoczesnym udziałem 50 radiologów ma średni czas generowania raportu 5 minut. Jakby nie patrzeć, nie ma w Polsce takiej jednostki medycznej, w której byłoby ich tylu pracujących naraz. Więc testy obciążeniowe przy ograniczonych zasobach wyszły dobrze.
Tworzenie małych, skalowanych agentów AI wskazuje się jako drogę dla Europy w wyścigu o sztuczną inteligencję. Zgadza się pan z tym?
Trochę przespaliśmy wyścig o AI, ale dlatego, że zaskoczyło nas wejście AI na rynek. Wkraczamy tu na kwestie polityczne i prawne. Optymistycznie powiem, że mam nadzieję, iż obecna sytuacja to coś, co nas pobudzi intelektualnie z powodu tych ograniczeń.
Wszystko wskazuje, że Chiny nie wprowadzą regulacji dla rozwoju sztucznej inteligencji, więc USA, aby pozostać konkurencyjne, też będą je znosić. Europa pozostanie w tej kwestii konserwatywna.
Na tym polega nasza praca jako naukowców, próbujemy znajdować nowe rozwiązania tam, gdzie nie da się zastosować starych. Prawdopodobnie będziemy tworzyć w Europie kolejne modele, które poradzą sobie z ograniczonymi zasobami. To będzie dla nas płodny okres.
**
INŻYNIEROWIE JUTRA – to nasz nowy cykl redakcyjny oraz badanie skierowane dla wszystkich, którzy kształcą się lub pracują w zawodzie inżyniera. W ciągu najbliższych tygodni będziemy publikować teksty i podcasty o polskich technikach i inżynierach oraz o tym, co zrobić, by związali swoją przyszłość z Polską.
Samych inżynierów zapraszamy do wzięcia udziału w badaniu – dzięki, któremu powstanie raport, pierwsza w Polsce próbą spojrzenia kompleksowo na temat zawodu inżyniera. Zachęcamy do jego wypełnienia.
Ankieta nie powinna zająć więcej, niż 15 minut Za udział w naszym projekcie otrzymasz od nas dedykowany raport. Pomożesz też w idei, która nam przyświeca – stworzeniu pierwszej kompleksowej diagnozy tego środowiska w Polsce.
Partnerem akcji Inżynierowie Jutra jest Holcim – producent innowacyjnych i zrównoważonych rozwiązań budowlanych.
Zobacz także
