Czy bunt maszyn jest możliwy? Naukowcy obawiają się hiperinteligencji
Dopóki człowiek może liczy wolniej, ale widzi więcej niż maszyna, wszystko jest w porządku. Jednak zbliżamy się do momentu powstania hiperinteligencji, co rodzi już określone obawy wielkich tego świata (technologii).
Mieliśmy już przypadek (pierwszy w historii), gdy superkomputer przeszedł test Turinga. I to całkiem niedawno, w 2014 r. Test ten pochodzi jeszcze z lat 50. ubiegłego wieku, gdy naukowcy na poważnie zaczęli roztrząsać temat sztucznej inteligencji. Mamy maszyny i ludzkich sędziów, które prowadzą ze sobą konwersację tekstową. Jeśli maszynie uda się przekonać 30 proc. sędziów, że rozmawiają z człowiekiem, mówimy o zdanym teście.
Zdaniem Mo Gawdata do 2047 r. powstanie hiperinteligencja (artificial general intelligence) - maszyna mądrzejsza od człowieka. A to z kolei przybliża dystopijne scenariusze, na które zwracali bądź zwracają uwagę wielcy tego świata - Stephen Hawking, Bill Gates, Tim Berners-Lee.
Tu kluczowe byłoby powstanie jakiegoś rodzaju sztucznej świadomości czy też osobliwości. Bo nawet hiperinteligentna maszyna ma realizować określone cele, nadane przez człowieka. W przypadku, gdy maszyna staje się osobliwością, wnioskuje i niejako czuje według własnego klucza, robi się groźnie. Z drugiej strony, być może scenariusz dystopijny jest tu nie na miejscu, a sztuczna inteligencja będzie ostatnią innowacją człowieka. Dlaczego ostatnią? Bo za każde kolejne odpowiadać będzie zaprzęgnięta przez człowieka do pracy sztuczna inteligencja.