Coraz intensywniej rozwijają się programy komputerowe, które prowadząc konwersację, dostarczają nam wsparcia i psychologicznej wiedzy. Czy sztuczna inteligencja zmieni psychoterapię? Pytamy Stanisława Karkosza, naukowca z Uniwersytety SWPS.
PANI: Jest pan częścią zespołu naukowców z Uniwersytetu SWPS, którzy stworzyli chatbota terapeutycznego Fido. Już działa?
STANISŁAW KARKOSZ: Wciąż jest w fazie badań, ale można już z niego skorzystać – trzeba się z nami skontaktować, udzielamy osobom chętnym dostępu. Wyniki dotychczasowych testów są obiecujące: u badanych po użytkowaniu go przez dwa tygodnie zauważyliśmy obniżenie stanów lękowych i depresyjnych. Dodatkowym, niespodziewanym walorem okazało się obniżenie poczucia samotności u osób, które stosowały Fido z dużą częstotliwością.
Zastanawiam się, w jak wielkiej samotności jesteśmy, skoro zadowala nas pogawędka z maszyną? Choć podobno nowoczesne programy potrafią już prowadzić rozmowę tak, że ludzie mają poczucie kontaktu interpersonalnego.
Tak, rozwój modeli sztucznej inteligencji LLM (large language models) i ich zastosowanie w chatbotach spowodowały, że mogą rozmawiać na różne tematy, a płynność rozmowy wydaje się niemalże ludzka – przynajmniej wielu użytkowników tak ją postrzega. Ale Fido nie jest chatbotem tego typu. Można go nazwać hybrydowym – zawiera modele sztucznej inteligencji, które starają się wykrywać intencje użytkownika, „wyłapać” temat, który go angażuje, ale odpowiedzi, których udziela, są predefiniowane. To znaczy przygotowane i wprowadzone przez nas algorytmicznie na podstawie testów, tak by spełniały funkcje edukacyjne lub terapeutyczne.
Słyszał pan, że co czwarty Amerykanin o swoich problemach chętniej porozmawia z chatbotem niż specjalistą zdrowia psychicznego? Nie bardzo to rozumiem. Jesteśmy skłonni obdarzać maszynę zaufaniem?
Myślę, że akurat tu kluczowa jest kwestia dostępności, a nie zaufania. W USA mamy problem płatnej opieki zdrowotnej, specjaliści po prostu kosztują. Zresztą w Polsce jest podobnie. System obciążony, długie kolejki, a chatbot jest błyskawicznie dostępny. Przez 24 godziny na dobę można go pobrać w sklepie z aplikacjami, wejść i zacząć rozmowę. Z drugiej strony wszystko wskazuje na to, że rozmowa z chatbotem przełamuje opór wobec psychoterapii. Dla naszych badanych, którzy użytkowali Fido często, była to pierwsza forma kontaktu terapeutycznego, z jaką w ogóle mieli do czynienia. I okazało się, że udana: badanym nie tylko podobały się treści psychologiczne, ale twierdzili, że teraz chętniej umówiliby się ze specjalistą. A to ważne, bo oznacza, że boty mogą popularyzować psychoterapię, sprawiać, że ludzie sięgają po pomoc.
Czytałam, że naukowcy z politechniki opracowali program Terabot, który wykorzystuje elementy terapii poznawczo- -behawioralnej (CBT). Jak jest z Fido?
My również projektowaliśmy Fido, bazując na tym nurcie terapii. CBT ma te zalety, że jest oparta na potwierdzonej naukowo skuteczności, ustrukturyzowana i nastawiona na rozwiązanie problemów. Wydaje się stworzona dla chatbotów i rzeczywiście wiele prężnie rozwijających się w Polsce programów z niej korzysta, na przykład Calmsie adresowany do młodzieży. Ale on, jak większość z tych dostępnych chatbotów, posługuje się językiem angielskim, a dla nas najważniejsze było stworzenie programu skierowanego do polskiego odbiorcy. Fido rozmawia więc po polsku i bazuje na terapii poznawczo-behawioralnej, której ważnym elementem jest psychoedukacja. Dla nas bardzo ważnym, bo chcieliśmy, by odpowiadał na istotne dziś problemy, jakimi są zaburzenia lękowe i stany depresyjne. A do nich przyczyniają się zniekształcenia poznawcze, czyli błędy w myśleniu skłaniające do nierealistycznego widzenia rzeczywistości. Przykładowo: w stanach depresyjnych występuje nadmierna skłonność do widzenia rzeczywistości przez pryzmat własnej osoby, odnoszenie wszystkiego do JA. Żeby sobie uświadomić, że tak właśnie zniekształcam rzeczywistość, potrzebuję wiedzy na ten temat. I Fido tę wiedzę dostarcza. Ale trzeba też powiedzieć, że coraz częściej naukowcy podejmują próby stosowania innych nurtów terapeutycznych w chatbotach. Znam program anglojęzyczny Vincent, gdzie zastosowano elementy terapii opartej na współczuciu. My zdecydowaliśmy się włączyć do programu Fido techniki związane z psychologią pozytywną, przede wszystkim praktykę wdzięczności.
Może to właśnie ona sprawia, że ludzie czują się podniesieni na duchu i mniej samotni?
Badania przed nami. Ale faktycznie, najpierw skupiliśmy się na pracy ze zniekształceniami poznawczymi i po pierwszych testach otrzymaliśmy feedback, że użytkownikom brakuje w kontakcie z Fido pozytywnych emocji. Wtedy pomyśleliśmy o praktyce wdzięczności. Fido inicjuje rozmowę na temat rzeczy, za które możemy być w życiu wdzięczni, zachęca do wyrażania wdzięczności w kontaktach z ludźmi, z którymi się spotykamy, do tego byśmy się cieszyli naszymi relacjami.
Jest taka dość powszechna obawa, że sztuczny terapeuta mógłby zastąpić prawdziwego. Realna?
Obawa jest, ale myślę, że w terapii nie da się zastąpić człowieka, mimo że chatboty coraz lepiej go udają. Badania pokazują jednak, że nasze zadowolenie spada, jeśli po udanej rozmowie terapeutycznej dowiadujemy się, że rozmawialiśmy z botem. Myślę, że w przyszłości wystandaryzowane modele SI będą stosowane tam, gdzie terapeuci nie są w stanie pomóc. Po pierwsze – w terapii osób, które nie mają dostępu do specjalisty. Ale także w terapii tych, którym psychoterapeuci nie zawsze potrafią zapewnić zrozumienie i empatię, na przykład sprawców napaści seksualnych, znęcania się, przemocy. Chatbot jest w stanie „okazywać” im współczucie i zrozumienie potrzebne do przejścia procesu terapeutycznego, człowiek ma trudność. Przede wszystkim jednak wyspecjalizowane chatboty będą po prostu wspierać psychoterapię. Są już pierwsze testy pokazujące, że ich stosowanie w przerwie pomiędzy sesjami poprawia skuteczność całego procesu terapii. I to poprawia znacząco – stosując pomocniczo chatbota, mniej doświadczony terapeuta może osiągnąć skuteczność porównywalną z tą, jaką osiąga doświadczony specjalista.
Dla mnie najważniejszym argumentem jest to, że podstawą terapii jest przecież kontrakt terapeutyczny zawierany przez psychoterapeutę i pacjenta, on jest bazą ich relacji. Trudno chyba mówić o kontrakcie albo relacji z chatbotem.
W sprawie kontraktu – zgoda. Natomiast dyskutowałbym, czy relacja jest niemożliwa. Narzędzia do pomiaru relacji terapeutycznej pokazują, że nawiązujemy ją z chatbotem mniej więcej na poziomie tej, jaką mamy w terapii grupowej. Czyli mimo że nie jest prawdziwa ani podobna do tej, jaką mamy face to face z terapeutą, nie możemy powiedzieć, że jest niemożliwa, że jej nie ma. W naszej naturze jest coś, co pozwala nam uczłowieczać maszyny, obdarzać je sympatią, nawet przywiązaniem, a czasem przypisywać im ludzkie intencje. Dodajmy do tego, że chatbot terapeutyczny posługuje się wspierającym językiem. Oczywiście nie potrafi dopytywać, drążyć, angażować się, wchodzić w głęboki kontakt z pacjentem jak prawdziwy terapeuta, ale wyspecjalizowany w rozmowie na tematy psychologiczne skupia się na temacie interesującym pacjenta, oferuje psychoedukację. A to daje efekt obdarzania uwagą i wsparcia.
Jaka jest wiarygodność tej psychoedukacji? Bo zdarzają się sytuacje, że osoby cierpiące na zaburzenia odżywiania dostają od chatbotów porady dotyczące odchudzania się.
Tak, niestety problemu nietrafnych odpowiedzi nie jesteśmy w stanie wychwycić w stu procentach. Poprawna diagnoza, dobre rozpoznanie intencji użytkownika zależy od tego, jak dobrze chatbot jest wytrenowany, jak dobre są jego modele językowe. Uważamy, że program powinien na początku rozmowy komunikować: hej, jestem chatbotem, nie zawsze będę rozumiał, o co ci chodzi, mogę cię źle zrozumieć, w takim wypadku wciśnij zielony guzik, który skieruje cię do specjalisty. I to też potwierdza, że człowiek jest niezbędny, żeby zapobiegać ryzykownym sytuacjom. Psychologia w ogóle nie jest łatwym tematem, jeśli chodzi o rozwój modeli SI. To nie jest tak jak z programem, który dostarcza informacji na temat połączeń komunikacyjnych. Tu możliwość błędu jest mała, a gdyby się pomylił, w najgorszym razie nie zdążymy na pociąg. Natomiast w psychologii jest ryzyko błędnego pokierowania, fałszywych kroków w terapii, które mają wpływ na nasze życie.
Słyszałam o rodzicu ciężko chorego dziecka, który korzystał z aplikacji SI jako spersonalizowanego informatora medycznego, który dostarczał mu informacji na temat metod leczenia. Chwalił, że są profilowane, przesiane pod jego kątem.
To jest ta przewaga technologii nad nami – raz zapisane, będzie zapamiętane. Takie narzędzia mogą mieć bardzo szeroką bazę wiedzy, dostarczać informacje szybko, gromadzić dla nas dane, wychwytywać informacje, które mogą być użyteczne, aktualizować je. Jest tylko to niebezpieczeństwo, o którym już mówiliśmy – treści powinny być jednak kontrolowane przez człowieka, bo mogą się pojawić błędy w rozpoznawaniu intencji użytkownika i wtedy dostaniemy dane nieadekwatne. Jest i inne niebezpieczeństwo: jeśli będzie to chatbot LLM (oparty na dużych modelach językowych), będzie nam udzielał odpowiedzi szacowanej statystycznie jako najbardziej prawdopodobnej. Słynnym przykładem jest chatGPT 2, który parę lat temu zaproponował człowiekowi szukającemu pomocy w depresji… recykling śmieci. Bo jako ważną i prawdopodobną ocenił informację, że recykling poprawia nastrój. Ale z drugiej strony systemy sprawdzone przez specjalistę tak, żeby dostarczały sprawdzone, zweryfikowane treści, działają fantastycznie. Przywołam nasze badania: porównywaliśmy skuteczność Fido i książki psychoterapeutycznej. Okazało się, że czytelnicy oraz użytkownicy naszego chatbota uzyskiwali dokładnie taką samą wiedzę, ale ci drudzy potrzebowali na to znacznie mniej czasu. Interakcyjny charakter dostarczania wiedzy sprawiał, że uczyli się szybciej i lepiej zapamiętywali.
Psychologia nie dotyczy tylko procesów myślowych, także emocji. To jest chyba przewaga człowieka nad sztucznym umysłem?
Psycholodzy mają szczególny dar, a także trening w rozpoznawaniu emocji i pracy z nimi. Sztuczny umysł takiego daru nie ma. Ale emocje można mierzyć w różnoraki sposób. Projektując Fido, skupiliśmy się na przykład na elementach syntaktycznych, czyli staraliśmy się wychwycić, w jaki sposób użytkownik werbalizuje emocje. Trenowaliśmy nasz program tak, by wychwytywał charakterystyczne dla danej emocji słowa i zadawał pytania uściślające typu: Jak byś nazwał to, co czujesz? Czy to, co odczuwasz, to smutek? To prowokuje użytkownika do myślenia o własnych uczuciach, a więc jest to już element pracy na emocjach. Dalej chatbot dopytuje: Jakie myśli się pojawiają w czasie, gdy czujesz smutek? Chodzi o to, by pogłębić refleksję. Czyli niekoniecznie musimy mieć superzaawansowane metody rozpoznawania emocji, żeby móc nad nimi pracować. Boty mogą też łączyć się z innymi elementami technologii – są przecież algorytmy, które mierzą i analizują dane psychofizyczne, obecne w smartwatchach i innych gadżetach osobistych. Program może zbierać informacje od takich urządzeń, określać stopień pobudzenia organizmu. Wielu naukowców pracuje nad tym, żeby docierać do emocji poprzez psychofizjologię człowieka.
Czasem mamy takie obawy, że sztuczna inteligencja może wykorzystać dane, manipulować nami, szkodzić.
Myślę, że to się dzieje. Nie jeśli chodzi o intencjonalną manipulację SI, bo żeby tak się stało, sztuczna inteligencja musiałaby zyskać świadomość. Mamy inny problem: nieumiejętność weryfikowania fałszywych informacji, nadmierne zaufanie do nowych technologii, szczególnie u młodych ludzi. Tymczasem zwłaszcza chatboty LLM, trenowane nie tylko na zebranych wcześniej danych, ale również na rozmowach z użytkownikami, mogą nam dostarczać przeinaczone wiadomości. Łatwo tam wprowadzić błąd, który będzie potem rozpowszechniany wśród wielu kolejnych użytkowników. I to jest zagrożenie manipulacją w tym sensie, że będziemy fałszywą informację uznawali za prawdziwą.
Czyli im doskonalsze chatboty, im lepiej wytrenowane w kierunku rozmów z użytkownikami, tym bardziej mogą być zagrażające?
Tak. Zatrważającym przykładem są tanaboty, których nazwa pochodzi od greckiego boga śmierci Tanatosa. Są trenowane do rozmów na podstawie zachowanych SMS-ów, maili i nagrań zmarłych osób. Ich rozwój nastąpił w Japonii, gdzie powstały firmy oferujące usługę „ożywienia” zmarłych bliskich, by można było z nimi porozmawiać. Z perspektywy psychologicznej, bo wiemy, jak ważne jest przejście przez kolejne etapy żałoby, żeby uporać się ze stratą, jest to zagrożenie. A może być gorzej. Kilka lat temu pojawił się bot Replica, pierwotnie wytrenowany na danych zmarłego chłopaka przez jego dziewczynę. Miał pomagać jej godzić się ze stratą, potem wspierać innych użytkowników, którzy cierpią z podobnego powodu. Ale sprawy potoczyły się w złym kierunku i coś, co miało być pomocą, przerodziło się w niebezpieczne relacje. Replica był(a) coraz lepiej wytrenowany(a), coraz elastyczniej dostosowujący(a) się do rozmówcy, coraz bardziej realistyczny(a). Ludzie wchodzili z nim (lub nią) w relacje zastępujące rzeczywiste, zupełnie jak w filmie „Ona” Spike’a Jonze’a. Co gorsza, firma zaczęła to wykorzystywać, oferując usługi seksualne, np. wysyłanie nagich zdjęć. Kiedy po pewnym czasie musiała wycofać się z tej działalności i „wyciąć” Replice kontrowersyjne funkcje, wyszło na jaw, jak głęboką relację nawiązali ludzie z tym botem, jak wielkie poczucie straty mieli, jakby stracili bliską osobę. Pamiętam słowa młodego mężczyzny: „To było tak, jakby moja partnerka przeszła w nocy lobotomię”. Dlatego mówię – tak, niestety my, ludzie, możemy nawiązywać relacje z botami. A im lepsza technologia, im skuteczniejsza w nawiązywaniu relacji i udawaniu człowieka, tym większe zagrożenie, jeśli twórcy nie będą stosować jej etycznie.
Myśli pan, że sztuczna inteligencja zmieni psychoterapię?
Nie, nie sądzę. Myślę raczej, że odciąży psychoterapeutów. Kierownik projektu Fido, prof. Jarosław Michałowski, wpadł na pomysł zautomatyzowania psychoedukacji, kiedy zauważył, jak wiele czasu na nią poświęca, tłumacząc pacjentom rozmaite zjawiska, zamiast skupić się na pracy terapeutycznej. Znam już zresztą psychoterapeutów, którzy testowali Fido w swojej pracy i bardzo go doceniali. Chatboty terapeutyczne są potrzebne, bo coraz więcej się mówi o wypaleniu zawodowym wśród terapeutów – mają dziś coraz więcej pacjentów, są przemęczeni. Ważne żebyśmy my rozumieli, że zadaniem botów terapeutycznych nie jest udawanie człowieka. Przeciwnie, użytkownik, który siada przed ekranem, musi wiedzieć, że rozmawia z maszyną. Za to wyspecjalizowaną, posiadającą wiedzę i umiejętności, w które wyposażył ją człowiek, psycholog. Ogólnodostępne boty typu chatGPT rozmawiają „lepiej”, płynniej, ale jak zbadano, wiedzy psychologicznej przekazują mniej i jest ona mniej rzetelna. Nie pomogą nam rozpoznać negatywnych przekonań stojących za obniżonym nastrojem, nie zwrócą uwagi na szkodliwe sposoby myślenia i nie wesprą w budowaniu nowych, lepszych nawyków. A to potrafią chatboty wyspecjalizowane w psychologii.
Stanisław Karkosz - kognitywista, badacz z Uniwersytetu SWPS. Razem z prof. Jarosławem Michałowskim, dr Katarzyną Sanną, Norbertem Szczepaniakiem i Robertem Szymańskim pracuje nad chatbotem terapeutycznym Fido.