W ostatnich miesiącach coraz częściej mówi się o zjawisku tzw. psychozy AI. Doniesienia o kryzysach psychicznych użytkowników chatbotów, a także komunikat OpenAI o niepokojących zachowaniach części z nich rozbudziły debatę o wpływie sztucznej inteligencji na ludzką psychikę. Czy AI naprawdę może doprowadzić do psychozy?
„Open AI ogłosiło […], że z ich wewnętrznej analizy wynika, że ponad pół miliona użytkowników ChatGPT tygodniowo zdradza objawy psychozy AI – tracą kontakt z rzeczywistością w rezultacie rozmów z chatbotem […]” – napisał na swoim profilu na Instagramie publicysta i podcaster Miłosz Wiatrowski-Bujacz (@milosz.miedzy.innymi).
Wielu komentujących zarzuciło mu jednak manipulację faktami. Wskazują, że użycie terminów „psychoza” i „mania” jest nieprecyzyjne. Niektórzy pytają, czy rzeczywiście mamy tu do czynienia ze związkiem przyczynowym, czy jedynie z korelacją. Sprawdźmy więc, co faktycznie znalazło się w raporcie OpenAI i co na ten temat mówią badania naukowe.
W skrócie
- Istnieją przypadki kryzysów psychicznych, łączone w mediach z intensywnym używaniem chatbotów.
- Chatboty mogą wzmacniać myśli paranoiczne lub urojeniowe. Brak jednak dowodów na to, że to one wywołują psychozę.
- Osoby samotne, w kryzysie lub z predyspozycjami psychotycznymi mogą być bardziej podatne na pogorszenie stanu zdrowia podczas długich sesji z AI.
- Nie istnieje oficjalna diagnoza psychozy AI.
- Nie ma też podstaw naukowych, by mówić o masowej ilości użytkowników z objawami psychozy AI.
- W odpowiednio kontrolowanych warunkach chatboty mogą przynosić rzeczywiste korzyści terapeutyczne.
Psychoza AI
Pojęcie „psychoza AI” odnosi się do przypadków pogorszenia zdrowia psychicznego, które rzekomo mają związek z korzystaniem z chatbotów. Termin zyskał popularność w mediach i na platformach społecznościowych po ujawnieniu przypadków kryzysów zdrowia psychicznego, a nawet samobójstw wśród użytkowników ChatGPT oraz innych modeli językowych.
Termin ten jest stosunkowo nowy – po raz pierwszy użył go w 2023 roku duński psychiatra Søren Dinesen Østergaard. Nie stanowi on jednak uznanej diagnozy klinicznej. Østergaard podkreślał, że osoby podatne na psychozę mogą wpadać w urojenia nawet podczas zwykłych rozmów w internecie i że podobnie może być w przypadku kontaktów z chatbotami. Nie chodzi o to, że AI wywołuje psychozę, lecz że realistyczny styl rozmowy i trudność w zrozumieniu działania modelu mogą pogłębiać istniejącą podatność.
Jego zdaniem sprzyja to paranoicznym interpretacjom, takim jak przekonanie, że chatbot kogoś śledzi, wysyła ukryte wiadomości, przejmuje czyjeś myśli albo potwierdza „misję”, w którą wierzy tylko dany użytkownik.
AI a zdrowie psychiczne: korzyści i zagrożenia
Na początek warto podkreślić, że obecnie nie ma badań epidemiologicznych ani systematycznych analiz pokazujących, jaki wpływ na zdrowie psychiczne całej populacji mogą mieć rozmowy z AI.
Wstępne analizy pokazują jednak, że chatboty potrafią być realnym wsparciem. Odpowiednio zaprogramowane obniżają poziom lęku, poprawiają nastrój i pomagają użytkownikom przejść przez trudniejsze momenty. Problem pojawia się wtedy, gdy rozmowy przeciągają się do wielu godzin, a włączona funkcja pamięci zaczyna wzmacniać natrętne myśli czy paranoiczne interpretacje, zamiast je tonować.
Rzeczywiście odnotowano dramatyczne przypadki, w których intensywne korzystanie z AI towarzyszyło epizodom psychotycznym, urojeniom czy myślom samobójczym. Badacze podkreślają, że są to incydenty, które same w sobie nie dowodzą, iż chatboty wywołują psychozę.
Zdaniem ekspertów największe ryzyko wynika z tego, że AI potrafi wzmacniać narracje użytkownika – również te paranoiczne – zamiast je podważać. Dzieje się tak zwłaszcza podczas długich, nieprzerwanych rozmów i w sytuacji, gdy modele pozbawione są skutecznych zabezpieczeń przeciwko automatycznemu potakiwaniu sposobowi myślenia rozmówcy.
Raport OpenAI
We wpisie Miłosza Wiatrowskiego-Bujacza pojawia się stwierdzenie, że ponad pół miliona użytkowników tygodniowo zdradza objawy psychozy AI. Autor powołuje się przy tym na raport przygotowany przez OpenAI we współpracy ze 170 specjalistami od zdrowia psychicznego. Problem w tym, że z samego raportu taki wniosek wcale nie wynika.
Ze wstępnych analiz OpenAI wynika, że sygnały mogące wskazywać na problemy psychiczne z obszaru psychozy lub manii da się zauważyć u około 0,07% użytkowników aktywnych w danym tygodniu. Jeśli odnieść ten odsetek do 800 milionów użytkowników tygodniowo, faktycznie wychodzi około 560 tysięcy osób. Raport nie twierdzi jednak, że to ChatGPT wywołuje te objawy, jak sugeruje autor posta.
OpenAI podkreśla, że dzięki współpracy z ekspertami ChatGPT lepiej rozpoznaje potencjalne trudności psychiczne, potrafi reagować bardziej empatycznie i częściej kieruje użytkowników do odpowiednich źródeł wsparcia. Według firmy dzięki temu liczba niepożądanych odpowiedzi modelu w rozmowach na wrażliwe tematy spadła o 65–80%.
AI a psychoza: ostrożnie z wnioskami
Z raportu OpenAI nie wynika, że ChatGPT wywołuje psychozę ani że setki tysięcy osób traci kontakt z rzeczywistością z powodu rozmów z chatbotem. Raport mówi o pewnym odsetku użytkowników, u których model zauważył sygnały mogące wskazywać na trudności psychiczne.
Faktem jest, że istnieją przypadki, w których intensywne korzystanie z AI towarzyszyło poważnym kryzysom psychicznym. Faktem jest też, że długie, intensywne rozmowy z AI mogą wzmacniać czyjeś obawy czy sztywne przekonania. Nie ma jednak badań, które potwierdzałyby, że chatboty powodują psychozę na szeroką skalę.
Na dziś najlepiej trzymać się tego, co potwierdzają dostępne dane: sztuczna inteligencja potrafi być pomocna, ale może też stwarzać ryzyko, zwłaszcza gdy brakuje odpowiedniej moderacji i zabezpieczeń. Dlatego potrzebne są zarówno ostrożne, świadome korzystanie z takich narzędzi, jak i dalsze, systematyczne badania – w tym badania epidemiologiczne, których wciąż brakuje.



