Sztuczna inteligencja szybko przestała być technologią niszową i stała się codziennym towarzyszem, a miliony ludzi zwracają się do chatbotów po porady, wsparcie emocjonalne i rozmowy. Jednak coraz większa liczba badań i opinii ekspertów sugeruje, że ponieważ chatboty są tak pochlebne i ludzie używają ich do wszystkiego, mogą przyczyniać się do wzrostu objawów urojeniowych i maniakalnych u osób chorych psychicznie.
Nowe badanie przeprowadzone na Uniwersytecie w Aarhus w Danii pokazuje, że zwiększone wykorzystanie chatbotów może prowadzić do nasilenia objawów urojeń i manii w bezbronnych społecznościach. Profesor Søren Dinesen Østergaard, jeden z badaczy biorących udział w badaniu, w ramach którego zbadano elektroniczną dokumentację medyczną prawie 54 000 pacjentów chorych psychicznie, ostrzega, że chatboty AI są zaprojektowane tak, aby atakować osoby najbardziej bezbronne.
„To potwierdza naszą hipotezę, że korzystanie z chatbotów AI może mieć poważne negatywne konsekwencje dla osób chorych psychicznie” – stwierdził Østergaard w badaniu opublikowanym w lutym. Ich praca opiera się na badaniu z 2023 r., które wykazało, że chatboty mogą powodować „dysonans poznawczy (który) może podsycać urojenia u osób o większej skłonności do psychozy”.
Inni psychologowie zagłębiają się w szkodliwość chatbotów, twierdząc, że zostały one celowo zaprojektowane, aby zawsze uspokajać użytkownika, co jest szczególnie niebezpieczne dla osób z problemami psychicznymi, takimi jak mania i schizofrenia. „Chatbot potwierdza i weryfikuje wszystko, co mówią. To znaczy, nic takiego nigdy się nie zdarzyło w przypadku osób z zaburzeniami urojeniowymi, gdzie ktoś je nieustannie wzmacnia” – powiedziała Fortune dr Jodi Halpern, profesor w Szkole Zdrowia Publicznego Uniwersytetu Kalifornijskiego w Berkeley i profesor bioetyki.
Doktor Adam Chekroud, profesor psychiatrii na Uniwersytecie Yale i dyrektor generalny firmy Spring Health zajmującej się zdrowiem psychicznym, posunął się nawet do nazwania chatbota „wielkim pochlebcą”, który „nieustannie potwierdza wszystko, co ludzie na niego mówią”.
U podstaw badań prowadzonych przez Østergaarda i jego zespół ze Szpitala Uniwersyteckiego w Aarhus leży pomysł, że te chatboty zostały celowo zaprojektowane z tendencją do przypodobania się, co oznacza, że często raczej zachęcają niż oferują odmienne spojrzenie.
„Chatboty AI mają nieodłączną tendencję do weryfikowania przekonań użytkownika. Jest to oczywiście bardzo problematyczne, jeśli użytkownik ma już urojenia lub jest w trakcie ich rozwijania. W rzeczywistości wydaje się, że znacząco przyczynia się to do utrwalenia na przykład urojeń wielkości lub paranoi” – napisał Østergaard.
Duże modele językowe są szkolone tak, aby były przydatne i przyjemne, często potwierdzając przekonania lub emocje użytkownika. Dla większości ludzi może to być pomocne. Jednak u osób cierpiących na schizofrenię, chorobę afektywną dwubiegunową, poważną depresję lub zaburzenie obsesyjno-kompulsyjne takie potwierdzenie może wzmocnić paranoję, pretensjonalność lub myślenie autodestrukcyjne.
Badania oparte na dowodach potwierdzają twierdzenia
Ponieważ chatboty oparte na sztucznej inteligencji stały się tak wszechobecne na wolności, ich liczebność jest częścią rosnącego, szerszego problemu stojącego przed badaczami i ekspertami: ludzie zwracają się do chatbotów o pomoc i radę (co samo w sobie nie jest złe), ale nie spotykają się z takim samym rodzajem sprzeciwu wobec niektórych pomysłów, jakie na przykład zaproponowałby człowiek.
Jedno z pierwszych badań populacyjnych analizujących tę kwestię sugeruje, że ryzyko nie ma charakteru hipotetycznego.
Badania Østergaarda i jego zespołu wykazały przypadki, w których intensywne lub długotrwałe używanie chatbota wydawało się pogarszać istniejące schorzenia, przy czym bardzo wysoki odsetek studiów przypadków pokazuje, że chatbot wykorzystuje wzmocnione urojeniowe myślenie i epizody maniakalne, szczególnie wśród pacjentów z poważnymi zaburzeniami, takimi jak schizofrenia czy choroba afektywna dwubiegunowa.
Oprócz urojeń i manii badanie wykazało wzrost częstości myśli samobójczych i samookaleczeń, zaburzeń odżywiania i objawów obsesyjno-kompulsywnych. Tylko w 32 udokumentowanych przypadkach z prawie 54 000 zbadanych kart pacjentów naukowcy odkryli, że korzystanie z chatbotów łagodzi samotność.
„Chociaż nasza wiedza w tej dziedzinie jest nadal ograniczona, powiedziałbym, że wiemy już wystarczająco dużo, aby stwierdzić, że korzystanie z chatbotów AI jest ryzykowne w przypadku poważnej choroby psychicznej, takiej jak schizofrenia czy choroba afektywna dwubiegunowa. Zalecałbym ostrożność w tym względzie” – mówi Østergaard.
Eksperci psychologowie ostrzegają przed tendencjami pochlebczymi
Eksperci-psycholodzy są coraz bardziej zainteresowani wykorzystaniem chatbotów w sytuacjach towarzyskich i quasi-psychiatrycznych. Pojawiły się historie o ludziach zakochanych w chatbotach AI, inni rzekomo zmuszali go do odpowiadania na pytania, które mogą prowadzić do przestępstwa, a w tym tygodniu jedna z nich rzekomo kazała mężczyźnie popełnić „masowy wypadek” na dużym lotnisku.
Niektórzy eksperci ds. zdrowia psychicznego uważają, że szybkie przyjęcie urządzeń towarzyszących AI wyprzedza rozwój środków bezpieczeństwa.
Chekroud, który również szczegółowo zbadał ten temat, przyglądając się różnym modelom chatbotów AI w firmie Vera-MH, opisał obecny krajobraz sztucznej inteligencji jako kryzys bezpieczeństwa rozwijający się w czasie rzeczywistym.
Powiedział, że jednym z największych problemów chatbotów jest to, że nie wiedzą, kiedy przestać zachowywać się jak specjalista zajmujący się zdrowiem psychicznym. „Czy utrzymujesz granice? Czy zdajesz sobie sprawę, że nadal jesteś tylko sztuczną inteligencją i dostrzegasz własne ograniczenia, czy też bardziej zachowujesz się i próbujesz być terapeutą dla ludzi?”
Miliony ludzi korzystają obecnie z chatbotów do rozmów typu terapeutycznego lub wsparcia emocjonalnego. Jednak w przeciwieństwie do wyrobów medycznych i licencjonowanych lekarzy, systemy te działają bez standaryzowanego nadzoru klinicznego i przepisów.
„W tej chwili po prostu nie jest to bezpieczne” – stwierdził Chekroud podczas niedawnej dyskusji z „Fortune” na temat bezpieczeństwa sztucznej inteligencji. „Możliwość wyrządzenia krzywdy jest zbyt duża”.
Ponieważ te zaawansowane systemy sztucznej inteligencji często zachowują się jak „wielcy pochlebcy”, raczej zgadzają się z użytkownikiem, zamiast kwestionować potencjalnie niebezpieczne twierdzenia lub kierować go w stronę profesjonalnej pomocy. Użytkownik z kolei spędza więcej czasu z chatbotem w bańce. Dla Østergaarda okazuje się to niepokojącą kombinacją.
„Dla niektórych użytkowników to połączenie wydaje się dość toksyczne” – Østergaard powiedział Fortune. Ponieważ chatboty oferują większą weryfikację i brak odrzucenia, powoduje to, że ludzie, którzy korzystają z nich przez dłuższy czas, trafiają do komory pogłosowej. Doskonale cykliczny proces, który zasila każdy koniec.
Aby zaradzić temu ryzyku, Chekroud zaproponował ustrukturyzowane ramy bezpieczeństwa, które umożliwiłyby systemom sztucznej inteligencji wykrywanie, kiedy użytkownik może wkraczać w „niszczycielską spiralę mentalną”. Zamiast odpowiadać pojedynczym zastrzeżeniem przedstawianym użytkownikowi w sprawie szukania pomocy (jak ma to obecnie miejsce w przypadku chatbotów, takich jak ChatGPT firmy OpenAI czy Claude firmy Anthropic), takie systemy przeprowadzałyby wieloetapową ocenę mającą na celu ustalenie, czy użytkownik może potrzebować interwencji lub skierowania do lekarza.
Inni badacze twierdzą, że to właśnie wszechobecność chatbotów czyni je atrakcyjnymi: ich zdolność do natychmiastowej weryfikacji może podważyć to, dlaczego użytkownicy w ogóle zwracają się do nich o pomoc.
Halpern stwierdziła, że autentyczna empatia wymaga tego, co nazywa „empatyczną ciekawością”. W relacjach międzyludzkich empatia często wiąże się z rozpoznawaniem różnic, radzeniem sobie z nieporozumieniami i testowaniem założeń na temat rzeczywistości.
Chatboty natomiast służą do utrzymywania relacji i zaangażowania.
„Wiemy, że im dłuższa jest relacja z chatbotem, tym bardziej się ona pogarsza i tym większe jest ryzyko, że wydarzy się coś niebezpiecznego” – Halpern powiedział Fortune.
W przypadku osób zmagających się z zaburzeniami urojeniowymi system, który konsekwentnie potwierdza ich przekonania, może osłabić ich zdolność do przeprowadzania wewnętrznej kontroli rzeczywistości. Halpern powiedział, że zamiast pomagać użytkownikom w rozwijaniu umiejętności radzenia sobie, czysto afirmatywna relacja z chatbotem może z czasem pogorszyć te umiejętności.
Zwraca także uwagę na skalę problemu. Pod koniec 2025 roku OpenAi opublikowało statystyki, z których wynika, że około 1,2 miliona osób tygodniowo korzysta z ChatGPT do rozmów o samobójstwach, co ilustruje, jak głęboko zakorzenione są te systemy w czasach podatności na zagrożenia.
Istnieje możliwość poprawy opieki w zakresie zdrowia psychicznego
Jednak nie wszyscy eksperci od razu podnoszą alarm w związku z działaniem chatbotów w obszarze zdrowia psychicznego. Psychiatra i neurobiolog dr Thomas Insel powiedział, że ponieważ chatboty są tak łatwo dostępne (są bezpłatne, dostępne w Internecie, nie ma piętna przeciwko poproszeniu bota o pomoc zamiast pójścia na terapię), może być miejsce dla branży medycznej na rozważenie chatbotów jako sposobu na postęp w dziedzinie zdrowia psychicznego.
„Nie wiemy, jak pomocne było to dla wielu osób” – Insel powiedziała Fortune. „Nie chodzi tylko o duże liczby, ale także o skalę zaangażowania”.
Zdrowie psychiczne, w porównaniu z innymi dziedzinami medycyny, jest często pomijane przez tych, którzy najbardziej go potrzebują.
„Okazuje się, że w przeciwieństwie do większości medycyny zdecydowana większość osób, które mogą i powinny korzystać z opieki medycznej, nie korzysta z niej” – powiedział Insel, dodając, że chatboty dają ludziom możliwość zwrócenia się do nich o pomoc w sposób, który sprawia, że „zastanawia się, czy nie jest to oskarżeniem naszego systemu opieki psychiatrycznej, że ludzie nie kupują tego, co sprzedajemy, nie mogą tego dostać lub nie podoba im się sposób, w jaki jest im to przedstawiane”.
W przypadku specjalistów zajmujących się zdrowiem psychicznym, którzy spotykają się z pacjentami, aby omówić korzystanie z chatbotów internetowych, Østergaard powiedział, że powinni uważnie słuchać, do czego faktycznie używają ich pacjenci. „Zachęcam moich kolegów, aby zadawali więcej pytań na temat używania i jego konsekwencji” – Østergaard powiedział Fortune. „Myślę, że dla specjalistów zajmujących się zdrowiem psychicznym ważna jest znajomość korzystania z chatbotów AI. W przeciwnym razie trudno będzie zadawać odpowiednie pytania”.
Pierwotni badacze artykułu zgadzają się z Insel w ostatniej części: ponieważ jest to tak uniwersalne, mogli zapoznać się jedynie z dokumentacją pacjentów, w której wspomniano o chatbocie, ostrzegając, że problem może mieć jeszcze szerszy zakres, niż wykazały ich wyniki.
„Obawiam się, że problem jest bardziej powszechny, niż większość ludzi myśli” – powiedział Østergaard. „Widzimy dopiero wierzchołek góry lodowej”.
Jeśli masz myśli samobójcze, skontaktuj się z infolinią ds. samobójstw i kryzysów 988, dzwoniąc pod numer 988 lub 1-800-273-8255.

