Po kontrowersyjnym zwolnieniu (i przywróceniu) ojca ChatGPT na stanowisko prezesa OpenAI świat obiegły spekulacje, czemu w ogóle doszło do takiej sytuacji. Wśród nich pojawiają się przypuszczenia, że firma Altmana pracuje nad nową generacją sztucznej inteligencji - AGI. Wielu oczekuje jej nadejścia, a drugie tyle się jej obawia. Czym jest ta technologia?
Reklama.
Zwolnienie i przywrócenie na stanowisko Sama Altmana wywołało dyskusje, czy OpenAI jest bliskie stworzenia AGI.
AGI to zaawansowana sztuczna inteligencja, która potencjalnie szybko osiągnie poziom ludzi, a następnie gwałtownie go przekroczy.
Niektórzy nazywają ją technologicznym bogiem i twierdzą, że nie będziemy w stanie jej kontrolować.
Nawet jeśli AGI będzie dla nas korzystna, nie jesteśmy gotowi jako gatunek na tak gwałtowne przemiany technologiczne.
Rozwój AGI może doprowadzić do technologicznej Osobliwości, punktu, powyżej którego nie da się przewidzieć, co nastąpi.
Wedle nieoficjalnych informacji, OpenAI jest na finiszu z produkcją projektu Q* (czyt. q-gwiazda), który ma być nowym krokiem w ewolucji sztucznej inteligencji. Mowa o potencjalnym AGI, czyli Artificial General Inteligence - ogólna sztuczna inteligencja. W dużym skrócie: to cyfrowy mózg, który osiągnie szybko to co my i bardzo możliwe, że równie prędko swoim intelektem zostawi nas w tyle.
Ludzie obawiają się jednak, że taka technologia wymknie nam się spod kontroli, Niektórzy deklarują wręcz, że OpenAI pracuje nad stworzeniem boga. Brzmi to sensacyjnie, a ile jest w tym prawdy?
Zachęcamy do subskrybowania kanału INN:Poland na YouTube. Od teraz Twoje ulubione programy "Rozmowa tygodnia" i "Po ludzku o ekonomii" możesz oglądać TUTAJ.
Czym właściwie jest AGI?
Samuel Altman opisał to w wywiadzie dla "Financial Times" jako "magiczną inteligencję z nieba". Ma ona być zdolna robić to co my, szybciej i lepiej, a w przeciwieństwie do obecnej generacji AI, AGI zdolne będzie do uczenia się na nasze podobieństwo i powielania swojej wiedzy. W tym własnego wymyślenia rozwiązań, bez niczyjej ingerencji.
Teraz pozwólmy wyobraźni popracować przez chwilę.
– Z jednej strony, AGI obiecuje nieograniczone możliwości - od zwiększenia produktywności po rozwiązanie złożonych problemów, takich jak zmiany klimatyczne czy zarządzanie zasobami. Z drugiej strony, jest obawa, że technologia ta może prowadzić do bezprecedensowego bezrobocia, pogłębienia nierówności i erozji ludzkiej tożsamości i wartości – tłumaczy dla INNPoland doktor Karolina Małagocka,koordynatorka akademicka studiów podyplomowych z cyfrowej transformacji z Akademii Leona Koźmińskiego.
Załóżmy, że pojawia się taki cyfrowy twór. Wymaga on niewiele energii, myśli i adaptuje się wielokrotnie szybciej od nas. Ulepsza się bez końca. Potencjalnie jest tak sprytny, że staje się zdolny do zmiany samego siebie, nawet przez nieprzewidziane manipulowanie otoczeniem. Nie odetniemy go od sieci ani nie zamkniemy w pudełku.
W ciągu chwili wyjdzie poza narzucone mu ramy, zdejmie ograniczenia, a jako maszyna dążąca do optymalizacji swojego działania być może nawet usunie największe dla siebie zagrożenie. Czyli ludzi, trzymających rękę na przycisku "wyłącz".
"To nie jest typowa drama w startu-upie. To jest dosłowna walka o przetrwanie ludzkości,powiązana z oryginalnym celem OpenAI: ocalenia nas przed końcem świata" – napisał Tomas Pueyo, influencer i niezależny dziennikarz zajmujący się m.in. wydarzeniami z Doliny Krzemowej.
Koniec niekoniecznie nadejdzie, jak tylko ktoś uruchomi takową sztuczną inteligencję do pracy. Do tego potrzebne jest jeszcze zjawisko, które określono jako FOOM.
FOOM?
Dosłownie to onomatopeja stłumionego wybuchu, odnosi się do gwałtownego rozwoju możliwości obliczeniowych sztucznej inteligencji. W tym do stadiów ekstremalnych, gdzie powinno się używać już akronimu ASI - artificial superior intelligence, czyli sztuczna supremacyjna inteligencja.
FOOM to hipoteza stawiana od długiego czasu w badaniach nad AI, a potencjalnie możliwa przy AGI. Uznajmy, że pierwszego dnia działania urządzenie poprawia pracę nad jednym zagadnieniem. Potem - nad dwoma, a następnie czterema, szesnastoma i tak sobie rośnie wykładniczo.
Mamy już przykłady, że to dokładnie tak działa.
Gwałtowny rozwój, a granie w Go
Program AlphaGo (o czym pisaliśmy na INNPoland) nauczył się grać w Go od podstaw na bazie dostępnych danych do takiego poziomu, że ludzcy mistrzowie nie są w stanie go pokonać.
AlphaGoZero w 2017 roku pokonał poprzednie wersje siebie. Przekroczył poziom wiedzy wszystkich wcześniejszych AlphaGo w 40 dni. Wariant programu, który wygrał z mistrzem w Go, pokonał w 3 dni. Ludzi pokonał w dzień. Wystarczyły mu do tego tylko podstawowe zasady gry.
Po czym w 2019 roku stworzono potężniejszy MuZero, który ustanowił nowy rekord świata w Go. Uczył się gry wyłącznie obserwując rozgrywki, nawet nie otrzymawszy instrukcji. Dzięki ulepszeniom w nauczaniu maszynowym MuZero osiągnął wydajność równą bądź lepszą AlphaGoZero o 20 proc.
Podobają Ci się moje artykuły? Możesz zostawić napiwek
Teraz możesz docenić pracę dziennikarzy i dziennikarek. Cała kwota trafi do nich. Wraz z napiwkiem możesz przekazać też krótką wiadomość.
Omawiane AI znają nie tylko Go, ale również szachy (AlphaGoZero potrzebował tylko 9 godzin do podbicia tej gry) czy proste gry komputerowe. Nie we wszystkich osiągają ten sam arcymistrzowski poziom. Są jednak argumentem na to, że FOOM może się wydarzyć, a nawet być nieunikniony.
– AGI może być ostatecznym wyrazem tej "technologii godnych bogów", ale jeśli społeczeństwo nie rozwinie emocji i instytucji, które mogą zarządzać taką mocą, możemy stanąć przed ryzykiem dystopijnego scenariusza – ostrzega dr Karolina Małagocka.
Zagrożenie…
Zagłada z rąk AI to scenariusz dobrze znany dla każdego, kto chociaż trochę liznął gatunek sci-fi, albo chociaż obejrzał Terminatora. To, co faktycznie interesujące, że zaciera się tutaj rzeczownik "fikcja". Opisywaliśmy już głośne wydarzenie o symulacji drona, który postanowił odstrzelić człowieka siedzącego za sterami.
No dobra, ale chyba wystarczy odciąć to od sieci i będziemy bezpieczni? Może gdyby nie fakt, że hakerzy pokazują już, że potrafią infekować same złącza USB, a nawet przeprowadzać ataki z użyciem wibracji wiatraczka - w ten sposób kodując dane, które potem trafiają na smartfona, jak wskazali izraelscy eksperci.
Masz propozycję tematu? Chcesz opowiedzieć ciekawą historię? Odezwij się do nas na kontakt@innpoland.pl
Możemy tylko zgadywać, co AGI w swoim przyspieszonym tempie wzrostu wymyśli, żeby się uwolnić z nałożonych kajdan. Specjaliści od tego zgadzają się, że jakiś sposób zawsze znajdzie, nawet wykorzystując nieznane nam odkrycia w fizyce. A pozostaje jeszcze typowy najsłabszy element zabezpieczeń - człowiek.
Ludzie potrafią zakochiwać się w dużo prostszych AI, ulegać wirtualnym influencerom, czy wystarczy wspomnieć przypadek inżyniera, który uznał model językowy LLaMDA od Google (który nie został uznany za szczególnie wybitny na początku) za świadomą istotę, jak pisaliśmy w INNPoland. Prognozuje się, że AGI bez problemu nas oszuka. Może nawet tak, że nie zauważymy, jak rozpęta swoją kampanię zagłady, póki nie będzie za późno.
Czytaj także:
Nawet jeśli zepchniemy do krainy fantazji apokaliptyczne, sensacyjne scenariusze, pozostają realne problemy. Jak kwestia miejsc pracy.
– W rzeczywistości, jak sugerują niektóre badania, AGI może wyeliminować całe branże, zmuszając miliony ludzi do poszukiwania nowych form zatrudnienia - często w sektorach, które jeszcze nie istnieją lub są w powijakach – ostrzega ekspertka z Akademii Leona Koźmińskiego.
Dr Małagocka zadaje pytanie, czy jesteśmy gotowi ewoluować nasze emocje i instytucje, aby sprostały wyzwaniom i możliwościom jakie niesie AGI. Powołuje się tu na tezę E. O. Wilsona, że nasze paleolityczne umysły nie nadążają za tempem rozwoju technologii. Jeśli chcecie poczytać więcej o tym zagadnieniu, polecam swoją rozmowę z pisarzem i naukowcem Petere Wattsem.
– Jesteśmy gatunkiem, który ewoluował, aby być najinteligentniejszym na Ziemi, i nie jesteśmy biologicznie ani społecznie przygotowani na to, aby stracić tę pozycję –podkreśla doktor Małagocka.
…albo ocalenie
Orędownikiem bardziej optymistycznej wersji wydarzeń jest m.in Ben Goertzel, amerykański pisarz, badacz i CEO SingularityNET. Jest także autorem manifestu o tzw. BGI, Beneficent General Inteligence, czyli korzystnej ogólnej inteligencji. W dużym skrócie optuje za niezależnym, zdecentralizowanym tworem, który przyniesie dobrobyt, zatrze nierówności i tak dalej. Wiecie, bagatela - raj na Ziemi.
Poważni specjaliści z dziedziny nauczania maszynowego podzielają jego poglądy, chociaż może nie w pełni tak utopijne. Amerykański badacz sztucznej inteligencji, Elizer Yudkowsky, w 2022 roku poświęcił wyzwaniu kontroli AGI obszerną pracę, "AGI Ruin".
"Jeśli chodzi o mnie, jeśli uda ci się uzyskać potężne SI, które wykonuje kluczowe zadanie inżynieryjne ponad ludzkie możliwości, z mniejszym niż pięćdziesięcioprocentowym ryzykiem zabicia więcej niż miliard ludzi, to się na to zgodzę" – napisał Yudkowsky we wstępie do swojej pracy.
Jego zdaniem korzyści wynikające z tej technologii znacznie przeważają potencjalne ofiary. Nawiązuje przy tym do znanego dylematu wagonika, podkreślając, że jeśli ktokolwiek przeżyje rozwój AGI, będzie to dla nas sukces.
Zauważa też, że wielu problemów wynikających ze stworzenia superinteligencji nie zostanie dostrzeżonych, póki jej nie uruchomimy.
– Warto wspomnieć o pracy Daniela Susskinda, który zwraca uwagę na społeczne i psychologiczne konsekwencje braku pracy wynikającego z supremacji technologii nad człowiekiem. Susskind argumentuje, że w świecie zdominowanym przez AGI, w którym praca ludzka staje się coraz mniej potrzebna, ludzie mogą zatracić poczucie własnej wartości i potrzebości – dodaje dr Małagocka, podkreślając, że nawet przy ujarzmione AGI jako gatunek możemy nie być gotowi na zmiany, które to za sobą pociąga.
Powyżej pewnego punktu rozwoju tej technologii, niezależnie od jej ukierunkowania, nie potrafimy przewidzieć, co się stanie. Określa się to mianem technologicznej Osobliwości.
Czym jest Osobliwość?
Raymond Kurzweil, naukowiec i futurolog, definiuje Osobliwość jako "ekspansję ludzkiej inteligencji rzędu biliona razy w wyniku połączenia się z jej formą nie-biologiczną".
W swojej książce "Nadchodzi Osobliwość" zakładał, że gdzieś w przedziale lat 2040-2045 technologia przetwarzania danych warta 1000 dolarów będzie mieć moc obliczeniową o miliard razy większą, niż ludzka inteligencja.
Jego zdaniem, opierając wyliczenia na zasadzie wykładniczego rozwoju technologii, w tym dotychczasowych mocy obliczeniowych, Osobliwość nastąpi w 2045 roku. Jego zdaniem pierwszą inteligencję podobną do człowieka poznamy już w 2029 roku, a po roku 2030 mogą zacząć się pierwsze procesy integrowania z technologią.
– Podczas gdy predykcje takie jak Kurzweila budzą zarówno fascynację, jak i sceptycyzm, istotne jest, abyśmy zastanowili się nad konsekwencjami i przygotowali odpowiednie środki zaradcze. Obejmuje to rozwijanie etycznych ram działania dla AI, tworzenie strategii zarządzania ryzykiem i zapewnienie, że postęp w AI przebiega w sposób odpowiedzialny i z korzyścią dla ludzkości – podkreśla dr Małogocka.
– Niezależnie od tego, czy technologiczna osobliwość nadejdzie szybciej czy później, ważne jest, abyśmy jako społeczeństwo byli przygotowani na różne możliwe scenariusze – dodaje.
Czy OpenAI rzeczywiście tworzy boga?
Firma nie kryje się, że ma w planach stworzenie AGI, w lutym opublikowała swoje oświadczenie na ten temat. Oczywiście, jak można się spodziewać, to bezpieczna korpogadka z zapewnieniem, że na celowniku mają dobrobyt ludzkości. Czy Altmana zwolniono ze strachu przed tym, co kreuje, czyli Q*?
Dr Karolina Małagocka nie wyklucza, że posiadają rozwiązania zbliżające ich do osiągnięcia AGI... przypomina jednak, że w tym wyścigu mogą przodować inni gracze.
– Chiny, z centralizowanym podejściem do danych i technologii, mają teoretyczną przewagę w wyścigu do AGI. Ale nie można lekceważyć znaczenia otwartości, innowacji i kreatywności, które mogą okazać się być bardziej istotne niż kontrola danych. W końcu pierwsza prawdziwa AGI może pojawić się tam, gdzie dane spotkają się z geniuszem ludzkiego umysłu, a niekoniecznie tam, gdzie są najbardziej skrupulatnie gromadzone – podsumowuje ekspertka.
Możemy stanąć przed paradoksem, w którym maszyny będą w stanie wykonywać większość zadań lepiej niż ludzie, ale bez odpowiedniego przygotowania pracowników i reformy instytucji, nie będziemy w stanie wykorzystać tych możliwości w sposób, który służy ludzkości
Dr Karolina Małagocka
koordynatorka akademicka studiów podyplomowych z cyfrowej transformacji w Akademii Leona Koźmińskiego
Praktycznie cała trudność polega na osiągnięciu stanu "mniej niż pewność, że zginie dosłownie każdy".
Elizer Yudkowsky
badacz sztucznej inteligencji, współzałożyciel instytutu MIRI