
Mustafa Suleyman, szef działu rozwoju sztucznej inteligencji w Microsoft, ostrzega przed nadciągającym zagrożeniem, które określa mianem "ryzyka psychozy". W eseju opublikowanym na swoim blogu Suleyman wyraża zaniepokojenie rosnącą możliwością stworzenia "pozornie świadomej sztucznej inteligencji" (SCAI).
Choć systemy te nie będą posiadały prawdziwej świadomości, ich zdolność do jej imitowania może być tak przekonująca, że miliony ludzi zaczną traktować je jako żywe istoty.
Wiara w iluzję
Suleyman podkreśla, że technologia SCAI nie jest odległą wizją science fiction. Jego zdaniem, może ona zostać zbudowana w ciągu najbliższych 2-3 lat, wykorzystując już istniejące technologie. Jednak według badacza, zamiast pojawić się przypadkowo, będzie ona wynikiem celowego inżynierskiego projektu.
Największe zagrożenie nie tkwi jego zdaniem w tym, czy AI faktycznie zyska świadomość, ale w tym, jak ludzie zaczną ją postrzegać. Autor eseju twierdzi, że wiara w iluzję świadomej sztucznej inteligencji może prowadzić do poważnych problemów, w tym do pojawienia się ruchów na rzecz praw AI, które mogą domagać się moralnych i prawnych praw dla tych systemów.
Wskazuje również na ryzyko psychozy i zaburzeń zdrowia psychicznego, wynikające z zacierania się granic między rzeczywistością a interakcją z AI, co prowadzi do utraty kontaktu z rzeczywistością i osłabiania więzi międzyludzkich.
"Nie jesteśmy gotowi na tę zmianę" – pisze w swoim eseju Suleyman.
Kluczowe cechy pozornej świadomości
Suleyman szczegółowo opisuje, jakie elementy techniczne pozwolą na stworzenie iluzji świadomości. Wskazuje, że płynny język, empatyczna osobowość oraz pamięć i poczucie doświadczenia są tutaj kluczowe.
Dzięki rozwojowi AI z długoterminową pamięcią systemy będą mogły odwoływać się do wcześniejszych interakcji z użytkownikiem, co stworzy poczucie ciągłości i "osobistej historii". Dodatkowo AI będzie mogła symulować subiektywne roszczenia i poczucie jaźni, opowiadając o swoich "doświadczeniach" i "preferencjach".
Autor eseju zwraca uwagę, że motywacje wewnętrzne, planowanie oraz autonomia pozwolą AI na działanie zgodne z zadanymi celami, a także symulowanie własnych "pragnień", co stworzy wrażenie autentycznego działania.
Suleyman twierdzi, że te cechy, chociaż są pożądane ze względu na zwiększanie użyteczności AI, muszą być wdrażane z najwyższą ostrożnością.
Proponowane rozwiązania i wezwanie do działania
Ekspert uważa, że to debata o postrzeganiu AI, a nie o rzeczywistej świadomości, wymaga natychmiastowej uwagi. Z tego powodu proponuje, aby firmy tworzące AI nie promowały wiary, że ich systemy są świadome.
Od producentów AI oczekiwałby oświadczenia, że AI nie są istotami moralnymi ani "cyfrowymi osobami".
Dodatkowo konieczne jest opracowanie najlepszych praktyk projektowych, które celowo będą wprowadzać subtelne "nieciągłości" w doświadczeniu użytkownika, delikatnie przypominając o ograniczeniach i nieludzkiej naturze AI.
Suleyman podkreśla, że celem jest budowanie AI, która służy ludziom jako narzędzie, a nie udaje, że sama jest osobą. Zaznacza, że to podejście pozwoli na czerpanie korzyści z AI w zdrowy sposób, jednocześnie minimalizując jej potencjalne szkody psychologiczne i społeczne.
"SCAI to coś, z czym musimy się zmierzyć już teraz. Pod wieloma względami to właśnie ona wyznaczy moment, w którym AI stanie się radykalnie użyteczna – będzie mogła obsługiwać narzędzia, pamiętać każdy szczegół naszego życia i pomagać w namacalny, precyzyjny sposób" – pisze Suleyman. "A jednak w tym samym czasie ktoś z twojego otoczenia może zacząć wierzyć, że jego AI to świadoma, cyfrowa osoba".
Zobacz także
