
Grupa 700 osób, w tym laureaci Nagrody Nobla, naukowcy oraz celebryci, wystosowała apel o wstrzymanie prac nad superinteligencją. List otwarty ma na celu wywarcie presji na firmach technologicznych. Sygnatariusze, wśród których są Książę Harry i współzałożyciel Apple Steve Wozniak, ostrzegają, że podobna technologia może nadejść w ciągu roku lub dwóch lat.
W środę ogłoszono publikację listu otwartego wzywającego do wprowadzenia zakazu rozwoju superinteligentnej sztucznej inteligencji. Pod apelem podpisało się ponad 700 osób publicznych, w tym specjaliści w dziedzinie AI, przedstawiciele środowisk religijnych i celebryci. List został opublikowany przez Future of Life Institute (FLI).
Musimy powstrzymać superinteligencję
"Wzywamy do wprowadzenia zakazu rozwoju superinteligencji, który nie zostanie zniesiony, dopóki nie osiągniemy szerokiego konsensusu naukowego co do tego, że będzie on prowadzony w sposób bezpieczny i kontrolowany, a także, dopóki nie uzyskamy silnego poparcia społecznego" – czytamy w liście.
Tzw. superinteligencja oznacza system, który swoimi zdolnościami znacznie przekracza możliwości człowieka. Byłby to więc kolejny krok w rozwoju AI, zaraz po osiągnięciu Ogólnej sztucznej inteligencji (AGI), której możliwości byłyby podobne do tych, którymi dysponuje przeciętny człowiek.
Wśród sygnatariuszy znaleźli się m.in. doradca papieża Paolo Benati, książe Harry i księżna Megan, autor Yuval Noah Harari, ale również raper will.i.am czy aktor Joseph Gordon-Levitt. Na liście przeszło 700 osób, które popierają stanowisko przedstawione w liście, znalazł się również Steve Bannon – kontrowersyjny prawicowy publicysta i strateg polityczny współpracujący z Trumpem w trakcie jego pierwszej kadencji.
Na liście sygnatariuszy znalazł się również Leo Gao, pracownik techniczny OpenAI, firmy, którą jej dyrektor generalny Sam Altman określa jako "firmę badającą superinteligencję" (superintelligence research company).
To nie pierwszy raz, kiedy powstaje taki list
Wraz z listem opublikowane zostało badanie opinii publicznej dotyczące rozwoju superinteligencji. Wynika z niego, że 64 proc. ankietowanych uważa, że podobne systemy "nie powinny być rozwijane do momentu, aż udowodnimy, że będą one bezpieczne i kontrolowane". Tylko 5 proc. respondentów uważa, że należy ją rozwijać tak szybko, jak to możliwe.
Przeprowadzona analiza poparcia dla regulacji AI ujawniła, że zdecydowana większość respondentów (73 proc.) opowiada się za "powolnym i ściśle nadzorowanym rozwojem" tej technologii. Badani chcą, aby nadzór ten był tak rygorystyczny jak w sektorze farmaceutycznym, wymagając szeroko zakrojonych testów bezpieczeństwa przed szerokim wdrożeniem tych systemów.
"OpenAI, Anthropic, xAI, Google, Meta i inne firmy otwarcie deklarują, że dążą do osiągnięcia poziomu eksperckiej lub nadludzkiej sztucznej inteligencji, podczas gdy wiele z nich aktywnie utrudnia tworzenie jakichkolwiek sensownych zabezpieczeń" – czytamy we wnioskach z ankiety.
"Społeczne preferencje dotyczące silnego, niezależnego nadzoru stanowią jasny komunikat dla decydentów i liderów branży: należy postępować ostrożnie i odpowiedzialnie, edukować oraz angażować zaufane instytucje naukowe w proces zarządzania [tymi systemami]" – dodają autorzy.
To nie pierwszy raz, kiedy FLI wystosowało list otwarty w sprawie sztucznej inteligencji. W 2023 wzywali do wstrzymania na pół roku prac nad sztuczną inteligencją. Mimo dużego zainteresowania listem nie zdołali osiągnąć swoich postulatów.
Zobacz także
