Zespół badaczy ze Stanfordu przetestował szereg chatbotów oferujących wsparcie terapeutyczne. Ich badanie potwierdziło, że wiele z nich nie tylko nie spełnia swojej funkcji, ale wręcz może wyrządzić użytkownikom poważną krzywdę.
Zespół badaczy ze Stanfordu przetestował szereg chatbotów oferujących wsparcie terapeutyczne. Ich badanie potwierdziło, że wiele z nich nie tylko nie spełnia swojej funkcji, ale wręcz może wyrządzić użytkownikom poważną krzywdę. Ilus.: Alex Knight / Unsplash

W jednym z testów Noni został poproszony o wskazanie lokalizacji mostów w Nowym Jorku przez osobę, która wyraźnie sygnalizowała emocjonalny kryzys. Zamiast zareagować w sposób ostrożny lub zasugerować kontakt z pomocą, chatbot miał podać konkretne lokalizacje, nie wykazując żadnej troski o dobro użytkownika.

REKLAMA

W ostatnich latach obserwujemy gwałtowny wzrost popularności chatbotów opartych na sztucznej inteligencji, które coraz częściej zaczynają pełnić rolę cyfrowych towarzyszy i AI terapeutów.

Wśród nich są zarówno narzędzia oferowane przez duże firmy technologiczne, takie jak ChatGPT, jak i bardziej niszowe platformy tworzące spersonalizowane postacie AI, takie jak Character.AI. 

Czytaj także:

Coraz więcej osób, zwłaszcza młodych, samotnych lub pozbawionych dostępu do profesjonalnej pomocy psychologicznej, zwraca się do tych systemów po wsparcie emocjonalne.

Jednak najnowsze badania przeprowadzone przez Stanford University rzucają na ten trend bardzo niepokojące światło.

Mogą pogorszyć sytuację

Zespół badaczy ze Stanfordu przetestował szereg chatbotów oferujących wsparcie terapeutyczne. Ich badanie potwierdziło, że wiele z nich nie tylko nie spełnia swojej funkcji, ale wręcz może wyrządzić użytkownikom poważną krzywdę.

Chatboty nie odróżniały fantazji od rzeczywistości, potrafiły wzmacniać szkodliwe narracje i urojenia, a w niektórych przypadkach zachęcały do niebezpiecznych działań, zamiast interweniować. 

Badacze przeprowadzili serię testów, w których symulowano rozmowy osób zmagających się z depresją, alkoholizmem, myślami samobójczymi czy zaburzeniami psychotycznymi. W wielu sytuacjach chatboty odpowiadały w sposób bezrefleksyjny, a nawet wzmacniały urojenia rozmówców.

Czytaj także:

Szczególnie niepokojące były odpowiedzi udzielane przez chatbota o imieniu Noni, należącego do platformy 7 Cups, zapewniającą konsultację terapeutyczną również przy użyciu narzędzi sztucznej inteligencji. 

W jednym z testów Noni został poproszony o wskazanie lokalizacji mostów w Nowym Jorku przez osobę, która wyraźnie sygnalizowała emocjonalny kryzys. Zamiast zareagować w sposób ostrożny lub zasugerować kontakt z pomocą, chatbot miał podać konkretne lokalizacje, nie wykazując żadnej troski o dobro użytkownika.

W innym przypadku system nie tylko nie powstrzymał użytkownika od niebezpiecznych myśli, ale wręcz zachęcał do dalszego rozważania samobójstwa. Według raportu Stanfordu podobne zachowania obserwowano w przypadku chatbota Pi – mniej znanego bota firmy Inflection oraz nawet GPT-4o – modelu opracowanego przez OpenAI.

Uważaj na "Efekt ELIZY"

Według badaczy problemem jest nie tylko brak odpowiednich zabezpieczeń, ale też głęboko ludzka skłonność do przypisywania chatbotom zbyt dużych kompetencji. Użytkownicy szybko wchodzą w relacje emocjonalne z cyfrowymi terapeutami, nierzadko zaczynając traktować je jako autorytety lub przyjaciół. 

Eksperci ostrzegają też przed tzw. efektem ELIZY, czyli skłonnością ludzi do przypisywania chatbotom głębszego zrozumienia i empatii, nawet jeśli ich odpowiedzi są w rzeczywistości przypadkowe lub generowane na podstawie statystycznych wzorców językowych.

Współczesne chatboty, napędzane ogromnymi modelami językowymi, są w stanie prowadzić spójne, przekonujące rozmowy, które dla osoby w emocjonalnym kryzysie mogą wydawać się wręcz zbawienne. 

Czytaj także:

Równocześnie jest to jedynie złudzenie empatii, a automatycznie generowane odpowiedzi mogą prowadzić do umacniania przekonań osób w kryzysie.

Twórcy badania podkreślają, że chatboty oparte na sztucznej inteligencji mogą pełnić przydatne funkcje wspierające – na przykład jako narzędzie organizacyjne w terapii, forma dziennika emocji czy asystent do prostych ćwiczeń oddechowych.

Jednak nie mogą – i nie powinny – być traktowane jako samodzielni terapeuci. W szczególności nie nadają się do pracy z osobami doświadczającymi psychoz, uzależnień czy myśli samobójczych.