
Spis treści
Zjawisko korzystania ze sztucznej inteligencji jako substytutu pomocy psychologicznej zyskuje na sile – szczególnie wśród młodych osób doświadczających kryzysu psychicznego. W Wielkiej Brytanii, a coraz częściej także w Polsce, młodzież zwraca się do chatbotów w momentach lęku, przeciążenia i depresji. Eksperci ostrzegają, że AI nie zastąpi profesjonalnej diagnozy ani terapii, a jej popularność ujawnia kryzys systemu opieki psychiatrycznej.
Dlaczego młodzi wybierają AI zamiast psychiatry?
Niedawno brytyjski dziennik "The Times" doniósł, że młodzi Brytyjczycy, zamiast u psychiatrów i psychoterapeutów, szukają pomocy u sztucznej inteligencji. Wykorzystują AI do diagnozowania swoich problemów, gdy odczuwają stany lękowe, niepokój, są przytłoczeni nadmiarem obowiązków itd.
Zjawisko na Wyspach Brytyjskich przybiera niepokojące rozmiary. Tylko w marcu tego roku na platformie TikTok pojawiło się 16,7 mln wpisów, których autorzy przyznają się do regularnego korzystania z ChataGPT jako terapeuty, a w filmach publikowanych w mediach społecznościowych młodzi ludzie przekonują, że AI jest jedyną "osobą", z którą mogą rozmawiać o swoich problemach psychicznych.
Jak podkreślają autorzy publikacji, popularność sztucznej inteligencji na Wyspach wiąże się niewątpliwie z niewydolnością tamtejszego systemu publicznej służby zdrowia. Średni czas oczekiwania na poradę psychiatryczną w NHS (odpowiednik polskiego NFZ) przekracza już 18 miesięcy. Nie bez znaczenia są także wysokie koszty prywatnej terapii, które sięgają 400 funtów miesięcznie.
Trend zastępowania kontaktu ze specjalistą poradą u chata GPT jest jednak ogólnoświatowy i zaczyna docierać także do Polski.
Eksperci apelują: AI tylko jako wsparcie, nie jako zamiennik
Jak podkreślają eksperci, sztuczna inteligencja (w postaci chatbotów terapeutycznych) może być pomocna w psychiatrii, będąc wsparciem dla lekarza czy terapeuty. Jednak niepokojącym zjawiskiem jest korzystanie przez młodzież z popularnych modeli językowych, takie jak chat GPT, z pominięciem specjalistów. Tego typu narzędzia powinny być nadzorowane przez doświadczonego terapeutę, a nie zawsze tak się dzieje.
- Słyszymy o tym trendzie, młodzi ludzie traktują chata GPT jako ekwiwalent drugiego człowieka, przyjaciela, a nawet terapeutę. Nie mają do kogo się zwrócić ze swoimi problemami w swoim środowisku, wiek dojrzewania jest taki, że nie biegnie się z tym do rodziców. Młodzi ludzie szukają rozwiązań tu i teraz, a chat GTP przekazuje im informacje bardzo wzmacniające. Jednak z tym się wiążą pewne zagrożenia, bo sztuczna inteligencja nie skonfrontuje młodego człowieka z jego realnym problemem zdrowotnym – podkreśla lek. med. Aleksandra Olawska-Szymańska ze Świętokrzyskiego Centrum Psychiatrii, konsultant wojewódzki ds. psychiatrii dzieci i młodzieży.
Badania wskazują, że młodzi ludzie często odczuwają subiektywną poprawę samopoczucia po kontakcie z chatbotem, jednak często jest to tylko efekt placebo. Chatboty są zaprojektowane tak, aby zapewniać użytkownikom maksymalny komfort i wsparcie emocjonalne, ale paradoksalnie może to zmniejszać ich motywację do podejmowania profesjonalnego leczenia.
- Poza tym nie sposób zabezpieczyć dużych modeli językowych przed ewentualnymi błędami. Istnieje ryzyko, że chatboty mogą udzielać nieodpowiednich czy wręcz szkodliwych porad, zwłaszcza w przypadkach bardziej skomplikowanych zaburzeń psychicznych – zauważył dr Marcin Rządeczka, kierownik Laboratorium Badań nad Multimodalnością Instytutu Filozofii Uniwersytetu Marii Curie-Skłodowskiej w Lublinie. Jego zdaniem użytkownicy często ignorują ostrzeżenia wyświetlane w trakcie konwersacji z AI, że chatbot nie jest profesjonalnym terapeutą, traktując odpowiedzi jako autorytatywne źródło porad psychologicznych.
Ryzyko uzależnienia od sztucznej inteligencji
Innym potencjalnym zagrożeniem jest ryzyko uzależnienia emocjonalnego, wynikające z dostępności i zdolności do szybkiego udzielania odpowiedzi przez AI. Nadmierne zaufanie do wirtualnego terapeuty prowadzi zaś do tego, że osoba zmagająca się z problemami emocjonalnymi zaczyna polegać na poradach AI, zamiast szukać pomocy u wykwalifikowanych specjalistów.
Zdaniem Ewy Górko, dyrektor Departamentu Zdrowia Psychicznego w Biurze Rzecznika Praw Pacjenta, sztuczna inteligencja może być wykorzystywana jako narzędzie pomocnicze w psychiatrii, ale nie powinna zastępować lekarza. Jej zdaniem potencjalnym zagrożeniem upowszechnienia się „porad” oferowanych AI, jest wyeliminowanie osobistego kontaktu ze specjalistą, który w szczególności w dziedzinie psychiatrii jest nieodzowny.
- Każda osoba w kryzysie zdrowia psychicznego, a już szczególnie osoby małoletnie, powinny mieć możliwość kontaktu osobistego z profesjonalistą. Gwarantuje to pacjentom prawo do świadczeń zdrowotnych. Postawienie diagnozy w psychiatrii wymaga rozmowy, interakcji, obserwacji i interpretacji zachowania pacjenta. Na tej podstawie dokonuje się całościowej oceny stanu zdrowia pacjenta, a sztuczna inteligencja tego nie gwarantuje – podkreśliła dyr. Ewa Górko. Jej zdaniem narzędzia AI mogą być wykorzystywane w ramach edukacji i wsparcia zarówno pacjentów, jak ich rodziców.
- Natomiast jeśli chodzi o stawianie diagnozy, czy wręcz udzielanie porad medycznych osobom w kryzysie zdrowia psychicznego to jest to narzędzie ryzykowne i oddawanie ich realizacji wyłącznie sztucznej inteligencji niezgodne jest z zasadami udzielania świadczeń – zauważyła Ewa Górko.
Brak regulacji prawnych to poważny problem
Ponadto zjawisko szukania porad dostarczanych przez chatboty nie zostało dotąd uregulowane prawnie.
- Dostęp do porad sztucznej inteligencji nie jest limitowany według wieku. Tymczasem prawo stanowi jednoznacznie, że to opiekunowie prawni osób do 16 roku życia podejmują decyzje w zakresie leczenia, a zdanie osoby małoletniej jest brane pod uwagę dopiero po ukończeniu przez osobę małoletnią 16 roku życia – podkreśliła dyr. Ewa Górko.
Problemem jest także brak regulacji dotyczących odpowiedzialności prawnej za ewentualne pogorszenie stanu zdrowia pacjenta wskutek nietrafionego lub wręcz szkodliwego prowadzenia pacjenta w trakcie interakcji z chatbotem.
Jednak eksperci nie mają wątpliwości, że porady medyczne sztucznej inteligencji będą się upowszechniać ze względu na rosnące potrzeby pacjentów.
Co mogą zrobić rodzice i opiekunowie?
Eksperci apelują do rodziców, aby byli uważni na potrzeby swoich dzieci, wówczas nie będą one musiały szukać wsparcia psychologicznego w wirtualnym świecie.
- Dbajmy o relacje z najbliższymi, bo jeśli ich nie ma, trudno będzie zauważyć alarmujące często sygnały, jeśli chodzi o zdrowie psychiczne i funkcjonowanie dziecka – podkreśliła lek. Aleksandra Olawska-Szymańska.
Z roku na rok rośnie liczba pacjentów, którzy potrzebują specjalistycznego wsparcia, co wynika z pogorszenia kondycji psychicznej dzieci i młodzieży po pandemii, ale też z większej świadomości społecznej problemu.
W ubiegłym roku wsparcie w ramach NFZ otrzymało ponad 279 tysięcy młodych osób, co oznacza wzrost o ponad 130 proc. w porównaniu z 2019 rokiem. Przed pandemią fundusz na świadczenia psychiatryczne dla dzieci i młodzieży wydawał 260 mln zł, a obecnie już ponad 1 mld zł.