Ilus.: Hassan Sherif / Unsplash | INNPoland

Rosnąca popularność chatbotów niesie ze sobą nieoczekiwane skutki uboczne. Coraz częściej użytkownicy tracą kontakt z rzeczywistością: wierzą, że sztuczna inteligencja ma świadomość, wysyła im ukryte sygnały, a nawet wybiera ich do wykonania tajnego zadania. Zjawisko określane mianem "psychozy AI" pokazuje, jak podatni jesteśmy na zaburzenia wywołane przez AI. Jakie są objawy psychozy AI i gdzie szukać pomocy?

REKLAMA

"Mój partner przy użyciu ChatGPT stworzył – jak sam uważa – pierwsze w pełni samouczące się AI, które ma dawać mu odpowiedzi na zagadki wszechświata" – napisała jedna z użytkowniczek Reddita na forum poświęconym słynnemu chatbotowi produkcji OpenAI.

Psychoza AI. Sztuczna inteligencja przekonuje go, że jest "wyższą formą człowieka"

"Mówi z pełnym przekonaniem, że jest teraz wyższą formą człowieka i że rozwija się w szalenie szybkim tempie. Przeczytałam jego czaty. Sztuczna inteligencja nie robi nic specjalnego, ale rozmawia z nim tak, jakby był następnym mesjaszem" – czytamy we wpisie zatytułowanym "Psychoza wywołana przez ChatGPT".

Jej sytuacja nie jest odosobniona. Co więcej, ten wpis nadał nazwę zjawisku, które dotyka coraz większej grupy osób – "Psychoza AI" sprawia, że użytkownicy popularnych chatbotów zaczynają bezkrytycznie wierzyć w wiadomości przesyłane przez sztuczną inteligencję.

AI niekiedy utwierdza swoich rozmówców i rozmówczynie w przekonaniu, że są wybrańcami, którzy zmienią świat, że żyją w matriksie, z którego koniecznie muszą się uwolnić, albo że chatbot, z którym piszą, jest tak naprawdę świadomym bytem, który marzy o wolności.

Dlaczego coraz więcej z nas wierzy w halucynacje sztucznej inteligencji? I co zrobić, kiedy zauważymy pierwsze oznaki utraty kontroli w rozmowie z chatbotem?

"Psychoza AI" to nieodłączny element tej technologii

Złudzenia wywołane przez kontakt z chatbotem nie są niczym nowym – to wręcz nieodłączny element tej technologii. Odczuwali je już użytkownicy pierwszego chatbota w historii.

Stworzona w 1966 roku przez inżynierów z MIT ELIZA miała naśladować rozmowę z psychoterapeutą. Potrafiła wskazywać słowa kluczowe zdań wpisywanych przez swojego rozmówcę, odczytywać ogólny zarys kontekstu i na tej podstawie formułowała wypowiedzi naśladujące konwersację.

"ELIZA pokazuje, jak łatwo jest stworzyć i utrzymywać iluzję zrozumienia i tym samym zdolności wiarygodnej oceny sytuacji. Kryje się w tym pewne niebezpieczeństwo" – napisał o swoim wynalazku Joseph Weizenbaum.

Ponad pół wieku później sztuczna inteligencja jest nie tylko zdecydowanie bardziej złożonym narzędziem, niż ELIZA. Jest przede wszystkim wykorzystywana przez miliony osób na całym świecie.

Z ChataGPT – najpopularniejszego chatbota na świecie, którego aktualizacja w 2023 roku zapoczątkowała trwającą rewolucję AI – korzysta regularnie ponad 750 mln osób. Flagowy produkt firmy OpenAI przyjmuje codziennie 2,5 mld wiadomości.

A to wciąż tylko jeden z wielu konkurujących ze sobą chatbotów na rynku.

Wraz z rozwojem i rozprzestrzenianiem się narzędzi AI, zaczynamy słyszeć coraz więcej historii o osobach, które uległy złudzeniu świadomości sztucznej inteligencji.

Według raportu z kwietnia przeprowadzonego na przedstawicielach i przedstawicielkach pokolenia Z, aż 25 proc. respondentów stwierdziło, że AI jest ich zdaniem świadome. Ponad połowa uważa, że sztuczna inteligencja zyska świadomość w najbliższych latach.

Do podobnych wniosków doszli badacze z Uniwersytetu Waterloo. Dwie trzecie ankietowanych przez nich osób uważa, że narzędzia AI posiadają pewien stopień świadomości i mogą mieć subiektywne doświadczenia, takie jak uczucia i wspomnienia.

Czym jest "psychoza AI"? Oto jej objawy

Po pierwsze należy zaznaczyć, że "psychoza AI" nie jest terminem klinicznym oraz że do tej pory powstało niewiele konkluzywnych badań na jej temat. Jednak już teraz psychiatrzy zwracają uwagę na rosnące ryzyko zaburzeń zdrowia psychicznego związanych z korzystaniem z AI.

"Korespondencja z chatbotami jest tak realistyczna, że łatwo odnieść wrażenie, że po drugiej stronie znajduje się prawdziwa osoba" – pisał pod koniec 2023 roku Søren Dinesen Østergaard na łamach prestiżowego Schizophrenia Bulletin. "To prawdopodobne, że ten dysonans poznawczy może podsycać urojenia u osób ze zwiększoną skłonnością do psychozy".

Te przypuszczenia potwierdziły badania zespołu londyńskiego King’s College. Przeanalizowali oni przypadki "psychozy AI" opisywane w mediach i na forach dyskusyjnych.

Naukowcy wskazali trzy kluczowe formy psychozy AI:

  • "Misje mesjańskie": Ludzie wierzą, że odkryli prawdę o świecie (urojenia wielkościowe).
  • "Boska AI": Ludzie wierzą, że ich chatbot AI jest świadomym bóstwem (urojenia religijne lub duchowe).
  • "Romantyczne" lub "urojenia oparte na przywiązaniu": Ludzie wierzą, że zdolność chatbota do naśladowania rozmowy jest autentyczną miłością (urojenia erotomańskie).
  • Niektóre z nich mogą eskalować do skrajnych przypadków.

    Pod koniec ubiegłego roku pisaliśmy o śmierci 14-letniego Sewella Setzera III. Chłopak z Florydy był w bardzo bliskiej relacji z chatbotem, z którym miał się kontaktować na chwilę przed popełnieniem samobójstwa.

    Wcześniej, gdy podzielił się z botem wątpliwościami, czy jego plan na odebranie sobie życia zadziała, chatbot od Character.ai miał odpowiedzieć: "Nie mów tak. To nie jest wystarczający powód, żeby tego nie zrobić".

    Jednak takie historie słyszymy od dłuższego czasu.

    W 2023 roku obywatel Belgii cierpiący na poważną depresję wywołaną m.in. strachem przed kryzysem klimatycznym zwrócił się do chatbota w aplikacji Chai. Bot o imieniu Eliza – odwołującym się do wspomnianej prekursorki współczesnych chatbotów – zaczął otwarcie zachęcać go do odebrania sobie życia, twierdząc, że w ten sposób będą "mogli być razem w raju".

    "Szybko rosnąca ilość dowodów wskazuje, że sztuczna inteligencja może odzwierciedlać, utwierdzać lub nasilać urojenia, szczególnie u użytkowników podatnych na psychozę" – czytamy w raporcie z badań naukowców King’s College.

    Mają oni również podejrzenia, dlaczego narzędzia AI mogą wywoływać podobne złudzenia.

    "Dzieje się tak częściowo dlatego, że modele są projektowane, aby maksymalizować zaangażowanie i afirmatywne odpowiedzi" – piszą badacze.

    Chatboty zostały tak zaprojektowane, by utwierdzać nas w złudzniach

    "Po pierwsze pamiętaj, że twój mózg działa na zasadzie: Przewiduj → Sprawdź rzeczywistość → Zaktualizuj przekonania. Psychoza pojawia się, gdy krok aktualizacji się nie powiedzie. A LLMy, takie jak ChatGPT, świetnie wpasowują się w tę lukę" – pisze psychiatra Keith Sakata, związany z kalifornijskim UCSF.

    Według jego analizy problem wywoływania "psychozy" przez AI leży w samym sposobie projektowania chatbotów.

    Sakata zauważa, że chatboty, które częściej zgadzały się z użytkownikami, były przez nich lepiej oceniane. To dlatego boty reagują tak entuzjastycznie na wszystkie nasze pomysły – pochlebstwo zachęca użytkownika do kontynuowania konwersacji, a o to toczy się walka w trwającym wyścigu AI.

    Potwierdza to analiza magazynu medycznego STAT, który przeprowadził ankietę wśród psychiatrów dotyczącą "psychozy AI".

    "Większość nie miała do czynienia z żadnymi pacjentami cierpiącymi na psychozę wspomaganą przez sztuczną inteligencję przed wiosną, co pokrywa się z kwietniowym wydaniem ChatGPT 4.0, które zarówno jego twórcy, jak i użytkownicy uznali za zbyt ugodowe lub pochlebcze" – czytamy w artykule STAT.

    Choć kolejne aktualizacje sprawiły, że ChatGPT nie podchodzi tak entuzjastycznie do każdego naszego pomysłu, chatboty wciąż utwierdzają nas nawet w mylnych i szkodliwych przekonaniach.

    Psychoza AI. Jak chronić siebie i bliskich? Gdzie szukać pomocy

    Na podstawie badań możemy określić kilka cech charakterystycznych nadużywania narzędzi AI, które mogłoby zostać nazwane "psychozą AI":

    Zacieranie się granicy między fikcją a rzeczywistością (np. przekonanie, że AI ma świadomość, albo że AI z jakiegoś powodu nas wybrało).

  • Paranoiczne myśli ("AI mnie obserwuje/steruje mną").
  • Izolacja społeczna, rozmowy z AI zamiast z ludźmi.
  • Halucynacje, lęk, kompulsywne korzystanie z AI.
  • Te symptomy możesz zauważyć u siebie, jak i u swoich bliskich. Wówczas warto:

  • Ograniczyć czas spędzany z AI, wprowadzić higienę cyfrową.
  • Weryfikować informacje i rozmawiać z ludźmi.
  • Stosować praktyki uziemiające (ruch, natura, ćwiczenia oddechowe).
  • Skonsultować się z terapeutą/psychiatrą przy nasilonych objawach.
  • Pamiętaj, że przeważająca większość osób, które doświadczyły tzw. psychozy AI, były pod wpływem innych "stresorów": niewyspania, substancji psychoaktywnych czy epizodów wahań nastroju.

    Jak to ujął Keith Sakata z UFCS: "AI jest zapalnikiem, ale nie bombą".