Według Billa Gatesa sztuczna inteligencja (SI) stanie się w końcu zagrożeniem. Najpierw maszyny zaczną wykonywać część naszej pracy i jeśli się dobrze to rozegramy, to czerpać będziemy z tego korzyści. – Kilkadziesiąt lat później inteligencja będzie na tyle mocno rozwinięta, by stanowić zagrożenie – napisał. Tym samym dołączył do obozu „ważnych osób sceptycznie nastawionych do rozwoju SI”. Oprócz niego znaleźć można tam Stephena Hawkinga czy Elona Muska.
Jest się czego bać?
Czy Sztuczna Inteligencja rzeczywiście stanowi aż takie zagrożenie? I jak długo będziemy czekać na pierwsze symptomy wrogości? A może powinniśmy bać się już teraz?
Doktor Krzysztof Michalik, polski specjalista od sztucznej inteligencji i autor kilku systemów SI uważa, że wysuwanie jakichkolwiek dalekich prognoz zawsze jest ryzykowne. – Zagrożenie będzie zależeć od kilku czynników.
Ludzie rządzą. Na razie.
Potencjalnie niebezpiecznych zastosowań Sztucznej Inteligencji jest wiele. Od tych bezpośrednich w armii jak systemy, które mają być w przyszłości wykorzystywane w rakietach czy odrzutowcach, po wszelkie systemy sterujące infrastrukturą. Nawet odcięcie sieci energetycznej w całym kraju mogłoby mieć katastrofalne skutki. Na razie nie grozi nam, że komputery same zaczną decydować czy wyłączyć kraj od prądu. – Na obecnym etapie prac to informatycy decydują o celu działania systemów Sztucznej Inteligencji. Komputery realizują ten cel w sposób deterministyczny – tłumaczy Michalik. Deterministyczny, czyli taki, w którym wszystko z czegoś wynika i jest czegoś efektem.
Komputer przewyższa człowieka
Komputery już teraz deklasują ludzi na pewnych polach, jak na przykład arytmetyka, dysponują większą niż ludzie pamięcią, a inżynierowie wciąż zwiększają ich moc obliczeniową. Zgodnie z prawem Moore'a moc ta podwaja się mniej więcej co 2 lata. Dla naukowców to wciąż mało. Jeden z kierunków, w którym idą prace nad SI, ma doprowadzić do stworzenia bardzo rozbudowanych systemów SI.
To podejście mogą obrazować projekty takie jak Blue Brain w Szwajcarii symulujący działanie każdego neuronu w mózgu wybranego ssaka; lub superkomputer SpiNNaker, który wykorzystuje obecnie aż 1179648 rdzeni. Docelowo takie projekty miałyby doprowadzić do stworzenia bardziej autonomicznych systemów Sztucznej Inteligencji. Takie SI miałyby zastosowanie w medycynie, ekonomii czy astronautyce.
Superinteligencja
Gates, Musk i Hawking boją się, że jeśli uda nam się stworzyć autonomiczną Sztuczną Inteligencję, będzie ona potrafiła stale się udoskonalać. Nie tylko przewyższy poziom człowieka, ale osiągnie poziomy niewyobrażalnego rozwoju. Stanie się Superinteligencją, której motywów nie będziemy mogli pojąć.
– Jeszcze daleka droga zanim uda nam się osiągnąć poziom mózgu myszy. Nie wiem czy symulacja mózgu człowieka jest w ogóle w naszym zasięgu – mówi z kolei doktor Michalik. Samo fizyczne odwzorowanie mózgu nie musi wcale oznaczać poprawnej symulacji jego działania.
A w tym uspokajającym tonie wtórują mu specjaliści od Sztucznej Inteligencji z całego świata. Trzeba jednak pamiętać, że trudno obecnie o jakąkolwiek jednoznaczną definicję inteligencji, a także świadomości. Symulacja nieznanego jest trudniejsza niż mogłoby się to wydawać.
By w takich sytuacjach mówić o zagrożeniu bezpośrednio ze strony Sztucznej Inteligencji, musiałaby ona samodzielnie modyfikować cele swojego działania. SI będzie natomiast rozwijać się tak długo, jak rozwijać się będzie cywilizacja techniczna (a wcale nie musi to oznaczać rozwoju cywilizacji w ogóle). Załóżmy nawet, że doprowadzamy do tego, że komputery zyskują samoświadomość. Aby samodzielnie stawiać sobie zadania, wciąż musiałyby znajdować dla nich uzasadnienie, a to nie jest takie oczywiste.
dr Krzysztof Michalik
Są przecież osoby chore, których mózgi mają tyle samo połączeń co mózgi osób zdrowych, ale ich inteligencja nie jest na tym samym poziomie, co u ludzi zdrowych. Skala sama z siebie niczego nie wykrzesa. Do tego dochodzi jeszcze hipoteza większej niż zakładano roli komórek glejowych.