INNPoland_avatar

Nowy "bóg" narodzi się w Dalekiej Azji. Czytamy chiński zodiak spod znaku AI [WYWIAD]

Sebastian Luc-Lepianka

30 grudnia 2023, 07:16 · 12 minut czytania
Rozmowy o nowinkach w roku 2023 niemal nie odbywały się bez udziału literek AI. Sztuczna inteligencja urządziła nam nową rewolucję technologiczną i nie zapowiada się, aby jakkolwiek miała zwolnić. Co czeka nas w 2024 roku - będzie to AGI czy coś jeszcze innego? Na te pytania odpowiada ekspertka z firmy SoftServe, Maria Kabacińska Mikołajczyk.


Nowy "bóg" narodzi się w Dalekiej Azji. Czytamy chiński zodiak spod znaku AI [WYWIAD]

Sebastian Luc-Lepianka
30 grudnia 2023, 07:16 • 1 minuta czytania
Rozmowy o nowinkach w roku 2023 niemal nie odbywały się bez udziału literek AI. Sztuczna inteligencja urządziła nam nową rewolucję technologiczną i nie zapowiada się, aby jakkolwiek miała zwolnić. Co czeka nas w 2024 roku - będzie to AGI czy coś jeszcze innego? Na te pytania odpowiada ekspertka z firmy SoftServe, Maria Kabacińska Mikołajczyk.
Czy 2024 rok będzie spod znaku AGI? Fot. Oliwia Predenkiewicz/naTemat
Więcej ciekawych artykułów znajdziesz na stronie głównej

W chińskim kalendarzu mamy zwierzęta przypisane do każdego roku, czyli tzw. chiński zodiak. 2023 rok przypadał na znak Wodnego Królika, a od 10 lutego 2024 roku będzie nim Drzewny Smok. Dla technologii i biznesu był to jednak rok AI, dzięki popularyzacji tej technologii przez premierę ChatGPT 30 listopada 2022 roku. W tak krótkim czasie mamy już nowe iteracje AI, jak Gemini od Google.


Wirtualni influencerzy stali się powszechni, a dramat związany ze stanowiskiem prezesa w OpenAI rozbudził dyskusję o supermocnym AGI… nie bez powodu też nawiązuję na wstępie do chińskiego zodiaku, ponieważ nawet nie wiemy, czym mogą nas zaskoczyć firmy z Azji.

Człowiek jednocześnie może się obawiać i ekscytować tym, co przyniesie kolejny rok. Warto też rozważyć, jak upowszechniająca się technologia może przydać się w naszym prywatnym biznesie. O tym INNPoland rozmawia z Marią Kabacińską Mikołajczak, zajmującą się programem GenAI (generatywnej AI), nauczaniem maszynowym i managerką produktu w firmie SoftServe, firmie IT mającej biura w 14 krajach.

Sebastian Luc-Lepianka, INNPoland.pl: Wiele osób wskazuje, że rok 2024 będzie rokiem AGI. Czym ono jest?

Maria Kabacińska Mikołajczak: To jest rodzaj sztucznej inteligencji, który byłby zdolny do wykonywania potencjalnie każdej umysłowej czynności którą mógłby wykonać człowiek. Wiemy, że jesteśmy w przededniu stworzenia modelu uczenia maszynowego o takich możliwościach.

Skąd to wiemy?

Wydaje mi się, że to byłby kolejny krok poprzez połączenie możliwości, które prezentują duże modele językowe takie jak LLaMA, PaLM, rodzina GPT, Mistral… wszystkie  transformery prezentują w tej chwili rozumienie językowe i semantyczne na poziomie inteligentnej osoby. Jeżeli, załóżmy, Einstein miał IQ blisko 160, to ChatGPT z powodzeniem zdaje testy na poziomie 155.

To sporo.

Zróbmy sobie teraz taki idealny miks. Weźmy GPT4, bo są troszeczkę lepsze, jeśli chodzi o wyspecjalizowane zadania. Dorzućmy sobie do tego umiejętności modeli dyfuzyjnych obrazów np. Stable Diffusion, Midjourney lub DALL-E 3, dorzućmy coś do tworzenia dźwięków i wideo…

Na przykład system przekładania tekstu na mowę?

Właśnie, w punkt. Mamy wtedy coś, do czego zdolny byłby bardzo utalentowany człowiek.

Taką sztuczną inteligencję, która jest w stanie odbierać świat w taki sposób jak człowiek. Byłaby też w stanie dynamicznie uczyć się i dostosowywać do sytuacji. Nie ma jednak jakiejś ogólnej przyjętej definicji AGI.

Kto pierwszy wykona taki krok naprzód?

Kiedy chcemy zaprojektować taki system, to musimy albo połączyć kilka modeli, albo starać się o model multimodalny o wysokiej dokładności, którego jeszcze tak naprawdę nie prezentują duże firmy typu Google albo OpenAI. Pierwszą taką próbą jest Gemini od Google. Stawiałam jeszcze, że wyprzedzi ich OpenAI.

Pojawią się inne w przyszłym roku?

Byłam na targach w Dubaju, GITEX. Modele multimodalne już wtedy prezentował Huawei - Pangu. Nie miałam możliwości sprawdzić jego umiejętności, ale widziałam architekturę i wiem, że takie rozwiązania są już gotowe lub w zaawansowanej fazie przygotowań. Tego typu model byłby najbliższy temu co rozumiemy przez AGI.

Azja aż tak wyprzedza resztę świata?

Jestem przekonana, że około 60 proc. wiedzy o AI jest w rękach Azji. Takie są moje szacunki Jest niestety bardzo duża bariera w pozyskiwaniu tych informacji. 

Na czym ona polega?

Jeżeli ktokolwiek z Europy czy Ameryki Północnej wyda jakiś papier – artykuł naukowy, jest on już wydany w języku angielskim lub przetłumaczony na angielski. Jeżeli ktoś napisze po mandaryńsku, ciężko będzie to sprawnie przetłumaczyć. Niestety. Języki azjatyckie są bardzo intensywne związane z semantycznym rozumieniem i takie tłumaczenie 1:1 słów nie daje w 100 procentach dobrej translacji. Szczególnie w przypadku języków technicznych.

Ja jestem bardzo ciekawa, jak bardzo azjatycka myśl techniczna wyprzedza nas na co dzień. Będąc na targach takich jak GITEX skupiam się na tym, aby porozmawiać z przedstawicielami tej części świata.

Myśli pani, że będą oni pierwsi z wypuszczeniem prawdziwego AGI?

Wydaje mi się, że jest kilka konceptów, nad którymi pracują. Jestem o tym przekonana. Pytanie powinno być, kto pierwszy wypuści to do publicznego użytku. Kto zrobi taki krok, który zrobiło OpenAI z ChatGPT. 

Większość firm wypuszczających takie modele na rynek dba o to, by były nieszkodliwe. Każdy stara się mieć jak najlepszą wizję w głowie. Wydaje mi się, że to zbyt protekcjonalne podejście, w kontekście odcinania wszelkiego rodzaju złych emocji. Ale pewnie to jest słuszne, biorąc pod uwagę możliwości tych modeli. Poza umiejętnościami z różnych obszarów, oczekuje się jeszcze, że AGI będzie działać samoświadomie. Czyli proaktywnie.

W jaki sposób?

Załóżmy, że użytkownik w banku pyta, w jaki sposób może zainwestować 10 tys. złotych, tak by uzyskać 20 proc. zysku. Taki model poza 3-4 wypowiedziami, powinien dopytywać o kolejne rzeczy.

Czyli mówiąc o świadomości, ma pani na myśli samo zrozumienie, do czego maszyna ma zostać przeznaczona. Nie osobowość.

Tak. Jestem przekonana, że każda osoba, która projektuje systemy nauczania maszynowego, robi to w sposób, aby zapewnić konkretny cel. Jest kodeks, w jaki powinno się je projektować.

Zakładam, że nie chodzi tutaj o trzy prawa robotyki.

Nie, to nie są prawa robotyki (śmiech). To dużo prostsza koncepcja. Trzy H: helpful, harmless i honest.

Czyli pomocne, nieszkodliwe i szczere.

Tak. Honest można przetłumaczyć też jako transparentne. Mamy pierwsze regulacje w Europie. Także każdy z dostarczycieli generatywnych AI reguluje swoje produkty przez siebie. To jest wręcz irytujące czasem, jak np. Google stara się być bezstronny, transparentny i apolityczny. A my ludzie mamy przecież całe spektrum emocji w sobie, nie tylko lęki.

Zwykle to pierwsze, co ludzie kojarzą ze sztuczną inteligencją. Strach.

Przed nami czas transformacji, gdy będziemy mogli się przyzwyczaić do nowości. Boję się za to kwestii manipulowania ludźmi i kontrolowania. Nie jesteśmy jako społeczeństwo dość silni, aby kwestionować racjonalnie wszystkie informacje, jakie otrzymujemy. 

Kiedy tworzymy projekty AI w dowolnej skali, potrzebujemy bazy danych i wiedzy. Ten cały proces wykonuje się teraz łatwiej i szybciej. Z AGI będzie tak samo… tylko trudniej. Bo potrzeba różnego rodzaju formatu danych. Być może będą łatwiej przyswajalne, ale jestem przekonana, że chaos danych i ubytki będą wpływać na te modele. I to do n-tej potęgi, zwłaszcza na początku.

Czyli pani zdaniem nie grozi nam zjawisko FOOM [gwałtownego i niekontrolowanego rozwoju inteligencji, kojarzone z AGI - dop. red] w postaci, że ot włączamy przycisk i w kilka dni dostajemy boga, który będzie nas kontrolować?

Ja w to nie wierzę i wkładam między bajki.

Czytaj także: https://innpoland.pl/201757,czym-jest-agi-nadchodzi-era-superinteligencji

A zapytam teraz ja o coś pana: czy myśli pan, że AI może zrozumieć emocje?

Myślę, że może je wiarygodnie udawać. Widziałem całe społeczności, zaangażowane w związek z partnerami-AI z aplikacji, których celem jest wyciąganie od użytkowników pieniędzy na cyfrowe prezenty.

A mi się wydaje, że AI będzie bardziej empatyczne niż ludzie.

To jak w takim razie definiujemy empatię?

W rozpoznawaniu emocji ważna jest reakcja na nie. Widzimy, że ktoś jest wściekły, ale my zostajemy spokojni, bo potrafimy się zdystansować. A jednak jeśli to trwa długo, to większość osób przyjmuje taką reakcję od drugiej osoby. Dlatego pod tym względem wydaje mi się, że odporność u AI będzie większa. Będziemy w stanie odpowiednio tym sterować, np. szczególnie w obsłudze klienta. To będzie duża zaleta.

Ludzie korzystają już z AI jako darmowych psychologów.

Oczywiście! AGI szczególnie będzie w stanie rozpoznać większe spektrum emocji niż człowiek.

Do czego to może zostać użyte? Mamy w Chinach przykład kontroli społecznej. Jednocześnie usłyszałem na wydarzeniu Masters&Robots 2023, że podobną technologię rozpoznawania twarzy zakupiły Indie i użyły jej do odnalezienia zagubionych dzieci.

O tym nie słyszałam, ale z pewnością cieszę się, że dzieci się znalazły! Nie było nowej, przełomowej technologii, która nie budziła pytań etycznych. Jeśli faktycznie chcemy wejść na wyższy poziom i pomóc sobie jako ludzkości, musimy się zaadaptować. Moim zdaniem dla wielu może być pomocne np. dostać podpowiedź, co zrobić, gdy druga osoba jest zmęczona albo zła.

Czym dokładnie jest ten "wyższy poziom"? Jak to wpłynie na pracę?

Wyobrażam sobie, że AGI pozwoliłoby nam na stworzenie kompleksowej decyzji w krótkim czasie, analizując różne dane. "Wyższy poziom" rozumiem jako bycie bardziej wydajnym, szybszym, dokładniejszym, podejmowanie decyzji o szerszym spektrum horyzontalnym niż do tej pory.

Pomoże to wszystkim czy skorzystają tylko konkretne branże?

Na ten moment mówię o zakresie ogólnym. Wydaje mi się, że odrobinę więcej inteligencji dla ludzkości to nie problem. Problem polega na tym, że nasza inteligencja jest w pewnym stopniu "skończona" – ograniczona do konkretnego obszaru. Jesteśmy w stanie zaprojektować samolot, który zabierze nas do Kalifornii na surfing – ale nie jesteśmy w stanie kontrolować, ile spalin ta maszyna wydziela.

AGI nam zaproponuje rozwiązanie?

Liczę na to. Biorąc pod uwagę zaprezentowane mu dane, powinno znaleźć najlepsze rozwiązanie i najbardziej wyśrodkować potrzebę wypoczynku, a dbania o środowisko. My jako ludzie myślimy rozwiązaniami. Wszystko, co jest z drugiej strony, czego nie widzimy, to nas nie dotyczy. Złapanie tego balansu to jest bardzo trudna sprawa.

Mam też nadzieję, że AGI weźmie też pod uwagę zawirowania na rynku pracy. Za projektowaniem samolotów stoją armie ludzi. Tymczasem nagle pojawi się zoptymalizowany system, który wymaga mniej energii. Bo człowiek jako jednostka pochłania ogromne ilości zasobów!

Nie widzę osobiście trendu, gdzie AI kogokolwiek zastępuje. Widzę za to ogromne zapotrzebowanie na ludzi, którzy rozumieją taką technologię. Tego dotykam w swojej pracy, a nie odwrotnego kierunku

Co zatem ze zwolnieniami pracowników?

Uważam, że takie grupowe zwolnienia w jakiejkolwiek branży to ciężka sprawa. Chciałabym, żeby wiele młodych ludzi miało okazję do skorzystania z narzędzi, dzięki którym mogą być managerami dla bota. Niech on za nich wykonuje niebezpieczne, żmudne i mało rozwojowe zadania na co dzień. A w wielu miejscach pracy nie testuje się rozwiązań, bo nie ma na to czasu. Szczególnie w Polsce mamy podejście: "nie testujmy, bo jak nie wyjdzie, to będzie kwas".

Czytaj także: https://innpoland.pl/202330,zwolnienia-w-tomtom-prace-w-lodzkim-oddziale-straci-kilkadziesiat-osob

Albo przedsiębiorcy nie rozumieją, jak na tym skorzystają.

Nie odczuwają potrzeby. Nie namawiam, ale proszę o to, aby się AI nie bać. Warto z tematem się zapoznać, oswoić się z technologią. Patrząc na osoby starsze, to byli bardzo późni użytkownicy smartfonów. Siłę rzeczy musieli się przekonać, że jeżeli chcą kontaktu z wnukami, to najszybciej zrobić to przez apkę. To naturalna kolej rzeczy. Fajnie jest się przekonać samemu, korzystając z AI. Jeśli się go boimy, w ten sposób zobaczymy, jak one czasem niewiele potrafią!

To prawda (śmiech)

Kiedy spróbujemy poprosić o coś ChatGPT, a nie daje rady - mój ulubiony przykład to rymy po polsku. Średnio mu to idzie. To pokazuje to osobom wystraszonym, że nie będzie z niego prezydent. A nasz prezydent robi to lepiej, nawet jeśli idzie mu to słabo (śmiech). AI to jest tylko maszyna. Umiejętności przetwarzania i zmienność u ludzi jest niepowtarzalna. Nawet bardzo pomocne AGI, nie będzie w stanie tego zastąpić. 

Swojego czasu pisałem artykuł o wypadku w południowokoreańskiej fabryce: robot pomylił człowieka z kartonem i go zmiażdżył. Znalazłem źródło w oryginale i wrzuciłem do tłumaczenia przez ChatGPT. Używam zawsze tego samego promptu, sprawdzonego przy translacjach - a w tym wypadku, zamiast przekładać, zaczął przepraszać w imieniu AI i powtarzać, jak bardzo jest mu przykro.

To trochę urocze. Pewnie ktoś go musiał o to zapytać.

Możliwe… ale podejrzewam, że to wystudiowany odruch z powodu tego, że ludzie ogólnie wypytują, czy AI może być zagrożeniem.

Prywatnie jestem motocyklistką. Kiedy byłam na szkoleniu z jazdy torowej, tam usłyszałam zdanie, że jak jedziesz na motocyklu, to masz "10 monet uwagi". Każdą możesz przeznaczyć na coś innego: na ocenę warunków, ułożenia ciała, hamulec, sprzęgło, przyczepność opon, innych użytkowników toru… i tak dalej. Tych atrybutów jest kilkadziesiąt. Jeśli chociaż jedną monetę oddajesz na ciągły strach, to jest już za dużo. 

Radzi to pani polskim przedsiębiorcom?

Podobną metaforę chciałabym przenieść do AI i technologii, jakie rozwijamy. Jeżeli będziemy się ciągle bać, to nie pójdziemy do przodu. 

Możemy się kroku naprzód spodziewać w 2024 roku, czy może później?

Nie mówię, że nie. Jak rozmawiam o AI z polskimi firmami, to mam wrażenie, że opowiadam bajki o przyszłości. Kiedy jadę na bliski wschód czy rozmawiam z azjatyckimi firmami, czy z Ameryki Północnej - to już tam jest dobrze zakorzenione. To inne, kreatywne i odważne podejście. Europa jest bardzo uregulowana, stara się robić wszystko dobrze, ale brakuje wyobraźni. Z AGI może być podobnie. 

Słyszała pani zapewne o PLLuM, polskim dużym modelu językowym z Wrocławia. Czy on dużo zmieni odbiór AI przyszłym roku w naszym kraju?

Ja bardzo kibicuję, żeby stał się dostępny. Chciałbym, aby więcej firm eksperymentowało i wdrażało takie rozwiązania. To już nie jest takie drogie i odległe. A bardzo potrzebne w wielu przedsiębiorstwach przy żmudnych zadaniach. Takich podstawowych. Bardzo się cieszę i duma mnie rozpiera, że u nas powstają takie projekty.

Tutaj pojawia się problem związany z rozwojem AGI. ChatGPT ma już rok. A regulacje pojawiły się niemal na sam koniec 2023 roku, Polacy dopiero będą mieć swoje AI. A ludzie mówią o już kolejnej generacji.

Tak, jesteśmy spóźnieni. Nadal będzie rzesza zwolenników klasycznych technologii. Nie wszędzie też taka transformacja jest ekonomicznie uzasadniona. Bo to się nie zawsze opłaca.

Czytaj także: https://innpoland.pl/202520,trendy-w-rozwoju-ai-prognozy-technologiczne-na-2024-rok

Jeśli AGI pojawi się, jak ludzie przewidują, w 2024 roku albo później, to regulacje będą cały czas krok do tyłu.

Nie jesteśmy w stanie kontrolować wszystkich. Nawet jeżeli Google wprowadzi swoje, a OpenAI i Meta swoje. A co dopiero z Chinami. A to nie są nowe koncepcje.

Takie rzeczy istniały długo wcześniej na papierze.

Właśnie. Tylko nie było produktu dla mas. Ja myślałam, że takim punktem przełomowym to będzie… Roomba (śmiech). Że jak ludzie zobaczą, co ten mały odkurzacz potrafi, to po prostu się rzucą i stwierdzą "Ojej, to będzie boom na AI". Byłam o tym przekonana! No nie. To zrobiło dopiero OpenAI rok temu. Zobaczymy, co będzie dalej.