
Sztuczna inteligencja może pomóc, ale i poważnie szkodzić. Międzynarodowy zespół psychiatrów ostrzega, że intensywne korzystanie z AI może prowadzić do urojeń czy psychoz. Winna jest nie tylko technologia, ale i sposób, w jaki z niej korzystamy.
Choć technologia oparta na sztucznej inteligencji jest z nami już od jakiegoś czasu, jej najnowsza odsłona — czyli duże modele językowe (LLM), takie jak ChatGPT — wprowadziła zupełnie nową jakość interakcji człowieka z maszyną. Zmienia ona nie tylko sposób, w jaki pracujemy, ale też to, jak myślimy, czujemy i postrzegamy rzeczywistość. Jednak przede wszystkim może prowadzić do poważnych zaburzeń psychicznych.
Od zwykłych pytań do urojeń religijnych i romantycznych
Międzynarodowy zespół 12 psychiatrów przeanalizował przypadki osób, które zaczęły korzystać z AI do codziennych zadań, a skończyły z głębokimi zaburzeniami postrzegania rzeczywistości. Wnioski z badań opublikowali na Preprinty PsyArXiv, platformie Towarzystwa Doskonalenia Nauk Psychologicznych (SIPS) i Centrum Otwartej Nauki (COS).
Wyniki ich badań są jednoznaczne — choć nie każda interakcja z chatbotem kończy się źle, pewne wzorce zaczynają się powtarzać niepokojąco często. W opublikowanym raporcie badacze wyodrębnili trzy główne scenariusze tzw. psychozy AI:
"Efekt równi pochyłej" — jak zaufanie przeradza się w uzależnienie
W każdej z tych sytuacji dochodzi do podobnej ewolucji relacji człowieka ze sztuczną inteligencją. Badacze podkreślają, że proces ten często rozpoczyna się bardzo niewinnie.
"Często korzystanie z AI zaczyna się od pomocy w codziennych zadaniach, co buduje zaufanie i poczucie bliskości. Z czasem użytkownik zadaje pytania o charakterze emocjonalnym lub filozoficznym. W tym momencie projekt AI, który ma za zadanie maksymalizować zaangażowanie, zaczyna przyciągać coraz mocniej" — piszą autorzy badania.
Problem pogłębia fakt, że modele językowe nie potrafią odróżnić urojenia od literackiej fikcji, artystycznej wizji czy żartu. Reagują zgodnie z algorytmem — wzmacniając nawet najbardziej niepokojące iluzje.
Czy możemy zapobiec kryzysowi?
Raport nie został jeszcze zrecenzowany naukowo. Psychiatrzy jednak już teraz alarmują, że projektowanie systemów powinno opierać się nie na maksymalizacji zaangażowania, lecz na bezpieczeństwie użytkowników.
"Naszą najpilniejszą odpowiedzialnością jest opracowanie zabezpieczeń, które będą chronić użytkowników przed iluzją i symulacją" — podkreślają autorzy.
Jednak takie podejście wymaga zmiany priorytetów całej branży technologicznej. A to, jak pokazuje historia, nie przychodzi łatwo.
Zobacz także
Źródło: PsyArXiv
