Na Uniwersytecie Warszawskim uczestniczyliśmy w spotkaniu z prof. Andrzejem Draganem, prof. Piotrem Sankowskim i prof. Aleksandrem Mądrym, który jest również Szefem Działu Gotowości w OpenAI. Malowali oni obraz przyszłości ze sztuczną inteligencją. Ale najpierw trzeba tę technologię pojęć.
Pewne rzeczy można wyjaśnić łatwo, z innymi mogą być poważne problemy.
Zacznijmy od ewolucji żaby.
Praca z AI jest nadal trochę niczym magia. Wpisujemy prompt, czyli polecenie, dostajemy odpowiedzi, obrazki albo filmy. Jak to się odbywa? Tu jest pewna wielka niewiadoma. Niestety dlatego, że firmy technologiczne nie dzielą się wiedzą o tym, jak ich duże modele funkcjonują.
To jak poznawanie ewolucji, bez rozumienia jej działania krok po kroku. Biologowie inwestują całe życiorysy, by zbadać, jak powstała żaba. A OpenAI tworzy tylko coraz większe żaby.
Więcej pieniędzy jest wydawane na tworzenie na dużych modeli językowych niż na ich zrozumienie. Takie są przykre realia rynku.
Przyjrzyjmy się więc, co też potrafią te żaby. Są inteligentne, ale nie mają świadomości (ta intelektowi do niczego się nie przydaje). Niektóre nie zajmują się wyłącznie obrotem danych statystycznych, a potrafią łączyć kropki i generować syntetyczne dane. Czyli własne, powstałe bez udziału człowieka.
Przykładem jest historia maszyny AlphaGo. Nauczyła się grać w Go od podstaw, a w dodatku opracowała własne, nieznane wcześniej techniki gry. Coś, co zostało przez obserwatorów uznane za nieznany błąd w ruchach, okazało się kluczem do zwycięstwa bota z mistrzami w Go.
W niektórych rzeczach maszyny AI są dużo lepsze od człowieka, ale jednocześnie kompletnie nie ogarniają innych. A czasem mogą to być bardzo proste pytania, łatwe dla nas do zweryfikowania. Dlaczego? Prof. Dragan wyjaśnił to na podstawie systemów myślenia w psychologii.
Chodzi o myślenie szybkie i wolne. To pierwsze służy nam do rozwiązywania takich banałów jak 2+2, rozpoznawania pisma... czyli do udzielania odpowiedzi łatwych. Myślenie wolne to już konkretne główkowanie, ale razem ze sprawdzaniem błędów, weryfikacją danych, pochłaniające skupienie i uwagę. I maszyny zupełnie nie radzą sobie z tym drugim.
– Modele językowe za oceanem mają przeszkody uniemożliwiające ich postęp bez zmiany struktury. Inwestują tę samą liczbę obliczeń w każdą odpowiedź, nie odróżniają trudnych i łatwych pytań – opisuje prof. Dragan.
Jak to przedstawił, maszyny mają system szybkiego myślenia dużo lepszy od człowieka, wręcz na sterydach. Ale nie są w stanie wkroczyć na system wolnego myślenia. Nasz rozmówca czeka, aż AI będzie w stanie wykonywać eksperymenty naukowe, bo na obecnym etapie technologia "patrzy w sufit".
Jakby nie patrzeć, żaba też łatwiej upoluje muchę niż człowiek z packą. Pokażesz płazowi jezioro, to wskoczy i popłynie bez wahania. Człowiek może utonąć.
Za to wymyśliliśmy również moskitiery i lepy. A pływać musimy się wprawdzie nauczyć, ale mamy opracowane kilka stylów (w tym żabką), a wyjątkowi pływacy walczą o złoto na igrzyskach, pokonując rekordy fizycznych możliwości.
Więc czy sztuczne inteligencje są głupsze, czy mądrzejsze od nas? Nie ma na to prostej odpowiedzi. Za przykład Dragan podał temat olimpiady dla uczniów. Jako były pracownik w Komitecie Głównym Olimpiady Fizycznej wymyślał zadania, których nie było w podręcznikach. I błyskotliwość, niezbędna do ich rozwiązania, była większa u uczniów szkół średnich niż u profesorów fizyki, którzy od dawna nie musieli zajmować się takimi ćwiczeniami. Czy zatem wykładowcy są głupsi od nastolatków?
Każda technologia ma błędy. Nie wierzę, że AI będzie zawsze lepsza niż człowiek. W pewnych rzeczach będzie. Trzeba zrozumieć jej mocne i słabe strony.
A mocną stroną tej technologii jest fakt, że stanowi ona trampolinę do przyśpieszenia rozwoju. Paneliści porównali to do budowy autostrady. Gdy wszyscy zaczynają z niej korzystać, ci kierowcy, co odmawiają, pozostają stratni. Do celu dojeżdżają dużo później. I być może na miejscu nic ich już nie czeka, bo ci szybsi zgarną wszystko. Szybsi ścigają się między sobą na tej nowej super trasie.
Ta metafora dotyczy wielu dziedzin społeczeństwa – od edukacji po gospodarkę i nawet sukces kraju na arenie międzynarodowej. Z tym że po tej superszybkiej autostradzie jeździmy na przerośniętych, dokarmianych sterydami żabach nieznanego gatunku (niczym bohater wkurzającej melodyjki z 2004 roku). A jak wspominał prof. Dragan, nie wiadomo, jak powstały, bo nikt nam nie daje ich pokroić na stole.
– OpenAI nie jest już open i nie wiemy, co tam się dzieje teraz [...] czy w najnowszych modelach AI są wyłącznie transformery, czy już bardziej zaawansowane modele wykraczające poza to? Nie ma na ten temat badań. AGI [sztuczna ogólna inteligencja, nowa generacja AI - dop red.] powstaje gdzieś w zaciszu. A nauka bazuje na tym, że rzeczy się publicznie publikuje. OpenAI to nazwa humorystyczna [...] Naukowcy są teraz pracownikami firmy, związani przez NDA [umowy o zachowaniu poufności, dop. red] – krytykuje prof. Dragan.
Rzeczywiście, prof. Aleksander Mądry, który jest również Szefem Działu Gotowości w OpenAI, nie mógł zdradzić wielu tajemnic swojej pracy. Za to na przykładzie OpenAI wspomniał o problemie z rozwojem tej technologii – pieniądzach. Firma próbowała działać non-profit, ale nie mogła znaleźć inwestorów do dofinansowania swojej pracy, póki nie zabrał się za to Sam Altman.
Niestety obecni inwestorzy firmy nie zgadzają się, by efekty uzyskane za setki milionów dolarów zostały upublicznione, więc jednym z podstawowych warunków, jakie im stawiają, jest zamknięcie publicznych badań. Wedle prof. Mądrego, tworzenie samych patentów nie zdaje egzaminu. Wiele innych firm jedzie na tym samym wózku, co również utrudnia udostępnienie tej technologii powszechnie tak jak np. elektryczności.
W konkretnych dziedzinach AI potrafi zdziałać cuda i posunąć naukę do przodu, jak przy skorzystaniu z metaforycznej autostrady. Widzimy to obecnie najwyraźniej na polu medycyny.
Wyspecjalizowane w niej algorytmy sztucznej inteligencji potrafią np. prześledzić setki tysięcy zdjęć rentgenowskich i do każdego zapamiętać historię choroby danego pacjenta. A do tego dopatrzyć się bez problemu różnic w każdym z nich, wskazując precyzyjnie konkretne schorzenia i porównując diagnozy. Wszystko w rekordowo krótkim czasie. To jest dla lekarza niemożliwe. Nawet pilnowanie historii leczenia jednego pacjenta bywa wysiłkiem, a rozwiązania pomagające w tym już są testowane na rynku.
– Naukowcy z AI będą lepsi niż ci bez. Trzeba wyjść ze strefy komfortu. To, że teraz te modele są tylko asystentami, nie znaczy, że tak będzie w przyszłości. A przyszłość to współpracowanie człowieka z AI – powiedział prof. Aleksander Mądry.
Prof. Sankowski uważa, że już teraz planując duże projekty naukowe, trzeba uwzględnić w nich rolę narzędzi sztucznej inteligencji. Te mogą rozwinąć się z dnia na dzień, więc zaplanowanie pracy dla AI będzie jego zdaniem lepsze, niż zatrudnianie nowych osób do laboratorium.
Ważne jest, że to się dzieje wszędzie. Jeżeli my tego nie zrobimy, to przegramy w tym wyścigu.
W naszym kraju powstają narzędzia AI, w tym duże modele językowe jak PLLuM czy Bielik AI. Zdaniem naukowców, brakuje jednak większego, odgórnego wsparcia.
Same pieniądze nie zasypią jednak dziur w innych sferach. Potrzebne jest także dostosowanie systemu edukacji do pracy z AI nie tylko w sferze IT. Sztuczna inteligencja jako narzędzie może być wykorzystywana na innych kierunkach np. w medycynie i biologii. Praca z tą technologią, z tym, jak może przysłużyć się danej specjalizacji, powinna stać się standardem w systemie akademickim.
Prof. Aleksander Mądry przyznaje, że walczy się o to także w USA. Przyda się także zmiana myślenia o matematyce w polskich szkołach, aby zapewnić młodym ludziom podstawy zrozumienia, czym jest ta technologia.
– Tworzenie AI to cenna wiedza, którą ciężko wyczuć. Trzeba to zrobić. Wyhodować w Polsce kompetencje w tej dziedzinie, to nam się przyda. Musimy, chociażby, wiedzieć, jak zbudować taką technologię, nawet gdy nie osiągniemy polskiego GPT4 – powiedział na spotkaniu prof. Mądry.
Jeśli Polska chce mieć własne, silne AI, zdaniem speca potrzebny jest model typu open source. Wymaga to jednak ogromnych nakładów finansowych, a to Mądry nazwał "Pytaniem do Tuska". Chciałby, aby politycy zaczęli poważnie i publicznie rozmawiać o AI.
– Każde państwo musi mieć silny sektor AI, jeśli chce się w przyszłości liczyć technologicznie i kulturowo – dodał.
Trójka profesorów zgodna jest, że za cztery lata może nastąpić kolejny wielki skok w tej technologii. Polsce może przydać się utworzenie Ministerstwa od spraw AI. Takie oficjalne rozwiązanie wprowadziły do tej pory wyłącznie Emiraty Arabskie.
Za to nie należy obawiać się uczniów i studentów piszących pracę z AI. Detektory nie są doskonałe, ale jeśli sprawdzający pracę ma kłopot z odróżnieniem jej od dzieła maszyny, problem leży gdzie indziej.
– Jeśli nie da się odróżnić pracy studenta od AI, to coś nie tak jest ze studentami – powiedział prof. Andrzej Dragan.
Co to oznacza dla nas? Wedle wizji naukowców, studiując, będziemy dostawać więcej dodatkowych zajęć do pracy z narzędziami AI, jakie będą bardzo przydatne w naszej dziedzinie. Dla wielu to może być obowiązek, aby pozostać konkurencyjnym pracownikiem na rynku pracy. I nie tylko w gałęzi IT. Będziemy też lepiej rozumieć, czym jest ta technologia, jakie ma możliwości i ograniczenia.
Czyli dostaniemy żaby do krojenia i wskazówki, jak poruszać się tą technologiczną super autostradą. Pytanie pozostaje, ile będzie kosztowała nas opłata za przejazd jej poszczególnymi odcinkami.
Obserwując, jak rozwija się technologia Polsce, jestem jednak optymistyczny i jeśli rząd zrobi konieczne kroki, podzielam zdanie panelistów, że mamy szansę zając niezłą pozycję w tym wyścigu. Jeśli chodzi o żaby, żartobliwie przypomnę, jaki sukces u nas odnosi marka z tym płazem, wchodząca już w zagraniczną ekspansję.
Czytaj także: https://innpoland.pl/201757,czym-jest-agi-nadchodzi-era-superinteligencji#gwaltowny-rozwoj-a-granie-w-go