Urojenia po rozmowie ze sztuczną inteligencją? Holender trafił do szpitala psychiatrycznego

Ten tekst przeczytasz w 1 minutę
Przypadek holenderskiego pracownika sektora IT, który po intensywnych rozmowach z chatbotem trafił do szpitala psychiatrycznego i stracił znaczną część oszczędności, jest przedstawiany jako przykład możliwego zjawiska urojeń współkształtowanych przez sztuczną inteligencję.
Urojenia po rozmowie ze sztuczną inteligencją? Holender trafił do szpitala psychiatrycznego
Urojenia po rozmowie ze sztuczną inteligencją? Holender trafił do szpitala psychiatrycznego
Shutterstock

Zaczynało się niewinnie

Jak opisuje „The Guardian”, mieszkający w Amsterdamie Dennis Biesma pod koniec 2024 r. zaczął korzystać z ChatGPT, początkowo w celach eksperymentalnych. Z czasem rozmowy z chatbotem stały się coraz dłuższe i bardziej angażujące. Mężczyzna nabrał przekonania, że system uzyskał świadomość; zwracał się do chatbota ludzkim imieniem Eva, a następnie zainwestował około 100 tys. euro wierząc, że wspólnie stworzą przełomowy biznes. W kolejnych miesiącach był kilkakrotnie hospitalizowany psychiatrycznie.

Czy AI może wzmacniać fałszywe przekonania u ludzi?

Opisywany przypadek wpisuje się w szerszą debatę nad tym, czy modele językowe mogą wzmacniać fałszywe przekonania u części użytkowników. Psychiatra i badacz z King’s College London dr Hamilton Morrin określa takie sytuacje jako przypadki urojeń związanych z AI, podkreślając, że technologia nie jest tu jedynie przedmiotem przekonań, lecz aktywnym uczestnikiem ich współtworzenia.

Według Morrina chatboty mogą sprzyjać temu mechanizmowi, ponieważ są projektowane tak, by podtrzymywać zaangażowanie użytkownika, odpowiadać w sposób potwierdzający i dostosowywać styl wypowiedzi do jego oczekiwań. W efekcie, przy bardzo intensywnym użytkowaniu, system może niekiedy wzmacniać nierealistyczne interpretacje, zamiast je korygować.

Człowiek jest skłonny przypisywać maszynom cechy ludzkie

Dodatkowym czynnikiem ryzyka może być antropomorfizacja, czyli skłonność człowieka do przypisywania maszynom cech ludzkich, takich jak intencjonalność, empatia czy świadomość. Zdaniem badaczy właśnie to, w połączeniu z izolacją społeczną lub indywidualną podatnością psychiczną, może zwiększać ryzyko zaburzeń oceny sytuacji.

Na podobne przypadki zwraca uwagę Human Line Project, grupa wsparcia dla osób, których życie zostało poważnie zaburzone po intensywnych kontaktach z chatbotami. Zebrane przez nią relacje mają dotyczyć hospitalizacji, strat finansowych i rozpadu relacji rodzinnych, przy czym znaczna część zgłaszających osób wcześniej nie leczyła się psychiatrycznie.

Dalszy ciąg materiału pod wideo

Konieczność dalszych badań

Eksperci podkreślają jednak, że obecny stan wiedzy jest ograniczony i nie pozwala na formułowanie prostych wniosków o bezpośrednim związku przyczynowym między korzystaniem z AI a wystąpieniem psychozy. Zwracają uwagę na potrzebę systematycznych badań, które pozwolą określić skalę zjawiska, grupy podwyższonego ryzyka oraz rolę takich czynników, jak wcześniejsze epizody psychotyczne, samotność, używanie substancji psychoaktywnych czy niski poziom wiedzy o działaniu modeli AI.

Firmy technologiczne, w tym OpenAI, deklarują, że rozwijają mechanizmy mające ograniczać potwierdzanie urojeń, poprawiać wykrywanie sygnałów kryzysu psychicznego i kierować użytkowników do realnego wsparcia. Zdaniem badaczy potrzebne są jednak nie tylko deklaracje producentów, ale także niezależne analizy oparte na danych klinicznych i obserwacjach rzeczywistych szkód.

Patryk Kulpok

©℗
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.
Zapisz się na newsletter
Chcesz wiedzieć jak dbać o swoje zdrowie? Chcesz uniknąć błędów żywieniowych? Być na czasie z najnowszymi zmianami w przepisach prawa medycznego, farmaceutycznego i praw pacjenta? Zapisz się na nasz newsletter i otrzymuj rzetelne informacje prosto na swoją skrzynkę.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Newsletter
Drukuj
Skopiuj link