Czy bunt maszyn jest możliwy? Naukowcy obawiają się hiperinteligencji
Redakcja INNPoland
30 października 2019, 16:42·1 minuta czytania
Publikacja artykułu: 30 października 2019, 16:42Dopóki człowiek może liczy wolniej, ale widzi więcej niż maszyna, wszystko jest w porządku. Jednak zbliżamy się do momentu powstania hiperinteligencji, co rodzi już określone obawy wielkich tego świata (technologii).
Do 2029 r. sztuczna inteligencja bez problemu przejdzie Test Turinga - uważa Mo Gawdat, założyciel ruchu One Billion Happy, w rozmowie z Newserią. Można go lubić lub nie, ale nie można odmówić mu wiedzy. W końcu kierował Google X, tajną komórką firmy odpowiedzialną za tzw. moonshoty - projekty tak odważne, że wydające się niemożliwe do realizacji.
Mieliśmy już przypadek (pierwszy w historii), gdy superkomputer przeszedł test Turinga. I to całkiem niedawno, w 2014 r. Test ten pochodzi jeszcze z lat 50. ubiegłego wieku, gdy naukowcy na poważnie zaczęli roztrząsać temat sztucznej inteligencji. Mamy maszyny i ludzkich sędziów, które prowadzą ze sobą konwersację tekstową. Jeśli maszynie uda się przekonać 30 proc. sędziów, że rozmawiają z człowiekiem, mówimy o zdanym teście.
Zdaniem Mo Gawdata do 2047 r. powstanie hiperinteligencja (artificial general intelligence) - maszyna mądrzejsza od człowieka. A to z kolei przybliża dystopijne scenariusze, na które zwracali bądź zwracają uwagę wielcy tego świata - Stephen Hawking, Bill Gates, Tim Berners-Lee.
Tu kluczowe byłoby powstanie jakiegoś rodzaju sztucznej świadomości czy też osobliwości. Bo nawet hiperinteligentna maszyna ma realizować określone cele, nadane przez człowieka. W przypadku, gdy maszyna staje się osobliwością, wnioskuje i niejako czuje według własnego klucza, robi się groźnie. Z drugiej strony, być może scenariusz dystopijny jest tu nie na miejscu, a sztuczna inteligencja będzie ostatnią innowacją człowieka. Dlaczego ostatnią? Bo za każde kolejne odpowiadać będzie zaprzęgnięta przez człowieka do pracy sztuczna inteligencja.