Czy sztuczna inteligencja będzie ratunkiem dla ludzkości? Prof. Aleksandra Przegalińska – specjalistka od rozwoju AI – wskazuje nam, czym algorytmy mogą nas zaskoczyć w przyszłości. AI które samo tworzy inne AI? Maszyny tworzące nowe gatunki zwierząt? Znajdujące lek na raka? Wiele ludzi nadal podchodzi jednak do AI z nieufnością. Badaczka tłumaczy nam, czemu tak jest.
Czytacie drugą cześć rozmowy z futurolożką i specjalistką od badań nad sztuczną inteligencją prof. Aleksandrą Przegalińską. W pierwszej części zajmowaliśmy się nad ludzkością i innowacjami. W kolejnej mówimy już o głównym obiekcie zainteresowań badaczki – przyszłości AI.
Często pisuję teksty, w których jak mantra pojawia się kolejne zastosowanie "sztucznej inteligencji opartej o algorytmy uczenia maszynowego". Z tyłu głowy wiemy, że naukowcy znów zrobili "coś z AI", ale co konkretnie?
Aleksandra Przegalińska: AI jest po prostu bardzo szerokim terminem. Ogólnie rzecz biorąc sztuczna inteligencja, jest to dziedzina wiedzy. Ale dopiero w zbliżeniu widać, jak ogromną liczbą różnych zagadnień się zajmujemy.
Mamy na przykład algorytmikę dotycząca przetwarzania obrazu. Ale też algorytmy przetwarzania tekstu, dźwięku i innych danych. Wszyscy wirtualni asystenci są oparci właśnie o to. Ale jest też mnóstwo zastosowań uczenia maszynowego, które pozwalają rozwijać się innym dziedzinom.
Abyśmy mieli dobre narzędzia do analizy tekstów prawniczych, uczące się roboty, rozwiązania diagnozujące pacjentów, to muszę najpierw mieć solidny fundament w postaci jak najlepszych możliwych algorytmów uczenia maszynowego.
Mówię tu o sieciach neuronowych czy algorytmice statystycznej. One są absolutną podstawą, by rozwijać wszystkie liczne gałęzie dziedziny, jaką jest sztucznej inteligencji.
Ale dla przeciętnego Kowalskiego ta dziedzina nadal jest enigmą. Słyszy "AI" i jest w kropce.
Mówiąc o "AI" zawsze rozmawiamy o algorytmach uczenia maszynowego, które są zaprzęgane do wykonywania najróżniejszych zadań. A dziedzina wiedzy która się tym zajmuje to właśnie sztuczna inteligencja. To jest najogólniejsza definicja i chyba dość przystępna.
Mój problem to brak precyzji, który często prowadzi do absurdów albo czegoś co nazywam fakeAI.
Wiemy na przykład, że popularną taktyką wśród producentów elektroniki, smartfonów, laptopów czy gadżetów jest chwalenie się, że "ich procesor zawiera AI", lub smartfon jest "wspierany przez AI". Brzmi to dobrze, nowocześnie, nawet innowacyjnie. Tylko że to jak powiedzenie "ten stół jest z drewna". Ale czy jest to sklejka, czy lity dąb?
Sprzęty konsumenckie najczęściej korzystają z prostej algorytmiki statystycznej. Smartfon może mieć na przykład funkcje rozpoznawania twarzy. To nie jest już nic odkrywczego, nie ma się czym zachwycać, a tym bardziej czym chwalić. Ale w reklamie usłyszymy oczywiście, że urządzenie "jest wyposażone w najnowocześniejsze technologie sztucznej inteligencji".
Ja z automatu zawsze chcę dopytać: jasne, AI, czyli co dokładnie?
Co to jest fakeAI?
Tak nazywam uzurpatorów AI. Zdarzają się takie osoby, firmy, które kolędują z tym terminem, na przykład szukając inwestorów. Zapewniają, że pracują nad czymś zupełnie nowym i zdają się wykorzystywać niewiedzę innych osób, wskazując że tworzą coś przełomowego.
Tymczasem ich "AI" to przykładowo prosty algorytm sortujący dane. Bliżej temu do statystyki niż do sztucznej inteligencji. Jak dla mnie takie przypadki to ewidentne nadużycie. Inni na przykład reklamują, że ich rozwiązanie bazuje na sieciach neuronowych, a w praktyce wcale tak nie jest.
Takie osoby robią krzywdę nie tylko sobie, ale też całemu sektorowi sztucznej inteligencji. Wśród inwestorów rodzi się podejrzliwość, a obiecane gruszki na wierzbie prędzej czy później wyjdą na jaw. Zawsze trzeba więc być wyczulonym na takie rzeczy, sprawdzić co kryje się pod tym parasolem AI.
W 2001 roku pękła bańka internetowa, pompowana przez bliźniaczo podobny mechanizm. Inwestorów mamiono wtedy słowami "internet, technologia, dot-com, programowanie" a oni masowo zaczęli rozdawać biznesom pieniądze, nawet jeśli te miały jedynie mgliste pojęcie o internecie. Nie chciałabym, by powstała teraz bańka AI.
Czym sztuczna inteligencja może nas jeszcze zaskoczyć?
Hm, dobre pytanie. W mojej dzisiejszej prezentacji pokazałam na przykład system POET – Paired Open-Ended Trailblazer. W dużym skrócie jest to AI, która bez udziału człowieka uczy kolejne AI.
POET generuje zestawy zadań i ich solucji, które musi nauczyć się rozwiązywać sieć neuronowa. W pokazanym przypadku były to nierówności terenu, które musi pokonać dwunożny "robot". Stopniowo POET generował coraz trudniejsze zadania, do których uczona AI musi się dostosowywać.
Autonomizacja tworzenia AI jest dla mnie bardzo ciekawym zagadnieniem. Często zaskakuje nas, jak sztuczna inteligencja jest w stanie w zupełnie inny sposób podejść do stawianego przed nią problemu. Przy dajmy na to grze w szachy AI uczy się bowiem zupełnie od podstaw, a ludziom od pokoleń wpajane są strategie historyczne – gambit królewski, partia hiszpańska, włoska i tak dalej
Obecnie też tworzy się już ludzki kodeks i dobre praktyki tego "jak powinno uczyć się algorytmy". Jeśli oddamy stery w ręce AI, być może sztuczna inteligencja opracuje odmienne sposoby tworzenia AI, które będą zdecydowanie bardziej efektywne. My jako ludzie nigdy na niego nie wpadniemy... bo jesteśmy ludźmi, mamy pewien bagaż i uprzedenia w naszym myśleniu.
Czym różni się POET od AI, jakie mamy teraz?
W przypadku prostych algorytmów to człowiek musi określić bardzo jasny cel. Im bardziej skomplikowane algorytmy tym bardziej musimy określić już cały zestaw swoich oczekiwań, do których spełnienia dążyć będzie algorytm. Potem człowiek musi też być recenzentem działań maszyny, czyli wskazywać kiedy udało jej się coś osiągnąć, a kiedy nie.
Załóżmy robota, na przykład takiego od Boston Dynamics. Aby nauczyć go chodzić, przenosić przedmioty itp. człowiek wskazał mu jedynie, by ten "poruszał się optymalnie w przestrzeni". Reszta to już interpretacja oraz ogromna ilość prób i błędów zaawansowanej sieci neuronalnej, która uczy się na przykład balansować na dwóch nogach, robić kroki, kucać, biegać.
Twórcami algorytmów cały czas są jednak ludzie. To my znajdujemy zastosowania dla AI, dopasowujemy uczenie do naszych potrzeb. To człowiek powiedział algorytmowi "naucz się grać w Go i bądź coraz lepszy" i tak powstał AlphaGo który pokonał już wielkich mistrzów.
To my też cieszymy się z pracy sztucznej inteligencji. Algorytm przecież niczego nie czuje, nie ma nawet świadomości, że właśnie gra w go. On wykonuje optymalne działania do spełnienia zadanych parametrów.
Co jeszcze kryje przyszłość AI?
Drugim takim elementem jest dla mnie styk sztucznej inteligencji i biologii. Obecnie
jest o tym jeszcze stosunkowo cicho, ale gdy maszyna zacznie przetwarzać "na białku" to dopiero zacznie się niezłe science fiction.
Czyli co?
Nie wiem, czy słyszał Pan o Xenobotach. Naukowcy z Uniwersytetów Tufts i Vermont stworzyli sztuczną inteligencję, która tworzyła różne konfiguracje mikrorobotów z tkanki biologicznej – komórek skóry i serca żaby afrykańskiej. Swoje projekty tworzyła za pomocą druku 3D, a te ruszały się w określony sposób. AI dążyło do wykonania za ich pomocą zleconych jej zadań, np. "poruszaj się" albo "przenieś przedmiot".
Jakby nie patrzeć, to co powstało, to były formy sztucznego życia, stworzonego przez algorytm uczenia maszynowego. Te "stworki" nie miały metabolizmu, nie odżywiały się nie wydalały, nie reprodukowały się. Ale ruszały się. I były żywe.
To generuje ogromna liczbę pytań, możliwości, a nawet obaw. Jeśli osiągniemy odpowiedni poziom zaawansowania czy AI będzie można zlecić np. wytworzenie nowego gatunku zwierzęcia? Albo "stworzenia idealnego"? Śmiertelnego wirusa?
Czyli AI może w przyszłości odgrywać rolę... ewolucji?
Badacze odpowiedzialni za Xenoboty wprost mówią, że inspiracją ich eksperymentów jest właśnie chęć zrozumienia tego, jak działają mechanizmy ewolucji.
AI zaczynała bowiem od generowania prostych botów, a stopniowo stawały się one coraz bardziej skomplikowane. A, jak wiemy, życie na Ziemi zaczynało się od organizmów jednokomórkowych w pierwotnej zupie i przekształciło się w całą dzisiejszą faunę i florę.
Choć AI ma wielu entuzjastów, to ciągle popadamy w dużą nieufność wobec sztucznej inteligencji. Wystarczy wspomnieć jak często pojawiają się odwołania do Skynetu, czy HAL-a 9000. Zgodzi się pani?
Ludzie tego nie pamiętają, ale HAL był akurat w porządku (śmiech). Spełniał tylko misję, zleconą mu przez ludzi. To wyjaśniało się jednak dopiero w kolejnych częściach, a wszyscy zatrzymali się na filmie "2001: Odyseja kosmiczna", sequel mało kto już widział, nie mówiąc o przeczytaniu cyklu książek Clarke’a.
Ale oczywiście, ma pan rację. Ludzie potrafią mocno obawiać się AI i to na parę sposobów. Pierwszy z nich nazwałabym lękiem fundamentalnym, egzystencjalnym. Jako rasa ludzka jesteśmy na szczycie łańcucha pokarmowego. Panujemy nad Ziemią, wręcz ją zawłaszczamy.
Wyobrażenie sobie, że kiedyś może powstać coś lepszego, co potrafi dużo więcej od nas może być głęboko niepokojące. Zwłaszcza jeśli ten nowy byt miałby sprzeczne intencje z interesem ludzi. To może rodzić konflikt, a historia wielokrotnie pokazała nam, jak dużą tendencje do konfliktów ma homo sapiens.
Jest też strach przed zastąpieniem. Sztuczna inteligencja dużo rzeczy robi dobrze, coraz bardziej nas wyręcza. Co więc stanie się za dekadę lub dwie? Czy AI zabierze nam pracę? Czy będzie potrzebny zawód kierowcy? A może algorytmy będą za pana pisać artykuły?
Jestem sobie w stanie wyobrazić, że w przyszłości reporter będzie mógł do takiego wywiadu z Aleksandrą Przegalińską przynajmniej zlecić research sztucznej inteligencji, która wyszuka na przykład najnowsze ciekawostki z tej dziedziny, zaproponuje mądre pytania. A po fakcie AI spisze taki wywiad.
W takim razie co zrobić, by ludzkość bardziej zaufała AI?
Przede wszystkim powinniśmy pokazywać realne zyski z postępującego wykorzystania AI. Wiadomo, że człowiek boi się rzeczy nowych, nieznanych. By "oswoić" sztuczną inteligencję trzeba więc pokazywać zwykłym ludziom namacalne korzyści, jakie może im zapewnić ta technologia.
Czy w czasie epidemii Covid-19 ktoś stracił na tym, że doszło do szybkiej digitalizacji ochrony zdrowia? Nie słyszałam za dużo głosów, że telemedycyna czy wizyty zdalne są złem wcielonym. Raczej ludzie docenili te nowe możliwości i to, że w przypadku choroby nie muszą na przykład długo dojeżdżać do lekarza.
Jeśli stworzymy system AI, który będzie redukował korki w mieście, to nikt się nie obrazi i nie będzie go bojkotował. Kierowcy raczej ucieszą się z tego, że ich dojazdy do domu będą szybsze.
Jeśli mamy sztuczną inteligencje która będzie poszukiwać leku na raka, to jest to potencjalny ratunek dla blisko 10 milionów ludzi rocznie. Bardzo prawdopodobne, że w przyszłości wiele osób będzie zawdzięczać AI swoje życie. A to sprawia, że będziemy jej bardziej ufać.
Wróćmy do tego polskiego rolnika. Jeśli damy mu urządzenie tak proste w obsłudze jak jego smartfon, to szybko się do niego przyzwyczai. A ono może już wykorzystywać sztuczną inteligencję, by szacować pogodę, jego ziemię, zbiory i ceny określonych płodów rolnych na skupie za X miesięcy. A potem powiedzieć "rzepaku wysiej tyle, pszenicy tyle – będziesz miał najlepszy zysk".
Można też zaradzić strachom zawodowym. Trzeba przyznać, że niektórzy stracą na transformacji cyfrowej, AI pozbawi części z nas pracy. Tu może wykazać się państwo, proponując programy przeobrażenia. Zwykle było tak, że postęp technologiczny likwidował jedne zawody, ale jednocześnie tworzył duże zapotrzebowanie na innych pracowników.
Wydaje się, że przed nami długa droga.
Wie pan, dla mnie nieco absurdalne jest to, ile osób boi się AI mimo tego, że na co dzień korzysta ze sztucznej inteligencji. Tylko, że mniej świadomie.
Ile osób ogląda w Polsce Netfliksa? Podejrzewam, że dużo. A cała ta platforma stoi na algorytmach. To one decydują, jakie nowe seriale będą kręcone, na podstawie tego, co ludzie chcą oglądać. Dalsze algorytmy automatyzują i obsługują proces produkcji. W końcu to one podstawiają nam pod nos kolejną serię czy film, które z miejsca staje się naszymi ulubionymi.
Zakupy na Allegro, Amazonie czy eBay to czyste żywe algorytmy. AI znajduje się nawet w aplikacji pogodowej.
Ważne jest więc też, by uświadamiać przeciętnych użytkowników z jak dużej liczby AI korzystają już teraz. Oczywiście sztuczna inteligencja musi być bezpieczna, nie może naruszać prywatności i spełniać inne wymagania.
Jeśli zejdziemy ze stanowiska "AI jest złe, bo tak" i zaczniemy rozmawiać o konkretach, to nigdy nie spotkałam się z kimś kto szedłby w zaparte twierdząc, że sztuczna inteligencja nie przyda się w medycynie.
Do czego AI będzie zdolne w przyszłości? Czy będzie w stanie na przykład zapobiec kolejnej pandemii?
Jakby ludzie posłuchali się sztucznej inteligencji, to może zapobieglibyśmy nawet obecnej pandemii Covid-19. System BlueDot już w listopadzie 2019 roku wskazywał, że epidemiologicznie coś niedobrego dzieje się w Wuhan. Niestety amerykański rząd, który miał dostęp do tego systemu, nic z tym faktem nie zrobił.
Warto przytomnieć, że BlueDot już wcześniej się sprawdził i z precyzją wykazywał, gdzie rozpocznie się na przykład epidemia wirusa Zika czy Dengi.
Pana pytanie o zdolności sztucznej inteligencji to tak właściwie pytanie o ludzi. AI zrobi to, co ludzie będą od niej chcieli. To od nas też zależy jakie cele jej wyznaczymy – szczytne czy okropne.
Po otrzymaniu wyników musimy się też jednak jej słuchać, brać pod uwagę to, że może mieć rację, a nie odrzucać często kluczowe dane, bo "to tylko komputer, co on może wiedzieć".
Osobiście marzę o AI która rozwiąże problem nowotworów. Uważam, że to tu powinny być zaprzęgnięte najlepsze modele predykcyjne, tu powinno się dziać najwięcej badań, rozwoju.
Chodzić tu może zarówno o diagnozę – jak najwcześniejsze wykrywanie raka u danej osoby, by można jej było błyskawicznie pomóc. Albo też o zapobieganie, wykrywanie anormalności zanim jeszcze zanim rozwiną się w nowotwór.
A potem kto wie, może sztuczna inteligencja opracuje lek na raka.