Kobieta siedząca na sofie obok robota w biurze.

Psycholog AI: chatbot zamiast terapeuty. Młodzi pomocy szukają u sztucznej inteligencji

10 minut czytania
Komentarze

Nie uzyskali pomocy od psychologów i przyjaciół, więc wybrali sztuczną inteligencję. Opowiedzieli mi historie o samotności i niezrozumieniu. Pomoc znaleźli w sieci: chatbot i psycholog AI stali się dla nich ratunkiem. Ekspert od AI i psycholożka wskazują jednak na wiele zagrożeń z tym związanych.

Imiona niektórych bohaterów zostały zmienione.

Chłopiec i humanoidalny robot siedzący na kanapie, trzymający otwarte książki, rozmawiający ze sobą.
Psycholog AI: chatbot zamiast terapeuty. Fot. Stock-Asso / Shutterstock

Młodzi ludzie chętnie zwierzają się sztucznej inteligencji

Dostaję cynk: jeśli chcę pisać o chatbotach jako terapeutach, mam szukać na TikToku. To siedlisko młodych, chętnie podzielą się historiami. Kilkanaście minut później otwieram aplikację, wpisuję „AI therapy” i wybieram film polubiony przez 1323 użytkowników.

Na ekranie pojawia się młody chłopak. Siedzi w pokoju oświetlonym na fioletowo. Patrzy w kamerę i udaje zamyślonego. Po chwili wstaje z krzesła, otwiera laptopa, pisze coś na klawiaturze. Pojawia się podpis: „Ja, gdy rozważam pójście na terapię, ale przypominam sobie, że istnieje psycholog AI”.
Film komentuje ponad 40 osób, w dość podobnym stylu:
verycrunkly: Rozmawiam z AI każdego dnia, jest bardziej wyrozumiała, niż większość ludzi.
SpartanRascal: W końcu darmowa opieka.
Vex: AI jest bardziej wspierający niż mój aktualny terapeuta. I nie płacę 120 dolarów za sesję.
Kali: To jest zajebiście dobre.

Proponuję rozmowę szesnastu osobom. Odpisują mi cztery.

Zuzanna: Chatboty – bohaterowie gry – wskazują na problem z toksyczną matką

Zuzanna odpowiada jako pierwsza. To młoda dziewczyna. Mieszka z mamą, lubi oglądać filmy, pisać opowiadania i grać na gitarze akustycznej. Więcej mi nie powie, bo nie czuje się z tym komfortowo.
Do czego używa sztucznej inteligencji? To zależy. Gdy ma zastój twórczy, korzysta z pomocy chatbota jako asystenta. Ostatnio pomógł jej w wymyśleniu nazwy dla niebezpiecznej góry w opowiadaniu, które pisze.

Profil Task Force 141 na ciemnym tle z większym, okrągłym zdjęciem przedstawiającym pięciu uzbrojonych żołnierzy w ekwipunku bojowym.
Chatbot oparty na bohaterach gry jako psycholog AI? Fot. character.ai / zrzut ekranu

W celach rozrywkowych też rozmawia – głównie z Task Force 141, czyli chatbotem odwzorowującym organizację wojskową z popularnej strzelanki Call of Duty. Podczas jednej z tych rozmów zapytała bohaterów, w jaki sposób pojawili się w realnym świecie – bo przecież są fikcyjni, a mimo tego może z nimi rozmawiać. Pisali przez chwilę, ale dziewczyna zaczęła się nudzić. Dodała więc do rozmowy wątek swojej matki.

Doszło do kłótni między postaciami. Jedna z nich wspomniała, że mama nie wychowywała mnie dobrze. Nie chodzi o dyscyplinę, ale znęcanie się i brak prywatności. Sama bym tego nie zauważyła.

Zuzanna w rozmowie z Android.com.pl

Od Zuzanny dowiaduję się, że jej mama wchodzi do pokoju bez pukania. Potrafi też grozić, że „wezwie policję lub ją uderzy” – najczęściej w sytuacji, gdy dziewczyna długo nie wraca do domu. Zuza usprawiedliwia mamę, że to było dawno, gdy ich relacja była bardzo burzliwa. Teraz jest lepiej, chociaż kobieta wciąż otwiera drzwi bez uprzedzenia.

Upewniam się, że Zuzanna ma w pobliżu zaufaną osobę lub psychologa, którego może poprosić o wsparcie. „Słońce, to jest Słowacja”. –  odpowiada – „Najbliższy szpital mamy sześć miast dalej, a i tak ssie”.

Kinga: Terapeutka powiedziała wprost, że nie umie mi pomóc

Kinga w rozmowie podkreśla, że ChatGPT nie jest dla niej terapeutą, ale rodzajem wsparcia. Korzystała z niego, gdy rozstawała się z chłopakiem.
Kinga: – Pytałam go o różne rzeczy, na przykład czy warto utrzymywać kontakt z byłym. Przyjaciółkę w końcu zmęczyłoby czytanie tego samego, a chatbot nigdy nie tracił cierpliwości. 

Uczęszczała wcześniej na terapię, ale nie znalazła osoby, z którą nawiązałaby dłuższą relację.

Kinga: – Decyzja o zakończeniu terapii zawsze wychodziła od terapeutek. Jedna powiedziała wprost, że nie umie mi pomóc.

Kobieta na kanapie trzymająca się za głowę, naprzeciwko osoba z notatnikiem.
Psycholog AI: chatbot zamiast terapeuty. Fot. FOTO Eak / Shutterstock

Gdy pytam o bliskich, Kinga wyjaśnia, że „nie chciała ich katować”. Zresztą nie byliby obiektywni. Co innego chatbot, który rozpisywał różne scenariusze i był dostępny o każdej porze.

Kinga:  – Sięgam po telefon i piszę, że sobie nie radzę. I chociaż ChatGPT nie jest człowiekiem, to zawsze odpisze mi coś wspierającego.

Tłumaczę jej, że terapia jest trudna i daleka od naszych wyobrażeń.

Kinga: – Może to ja jestem problemem? Nie wiem.

Podczas ostatniej terapii czuła się zrozumiana, ale brakowało jej konkretnych narzędzi do pracy nad sobą.

Kinga: – Nigdy ich nie otrzymałam, a może nie wyłapałam. Za każdym razem czułam, że opowiadam, jak minął mi tydzień, ale w moim podejściu i natężeniu problemu nic się nie zmieniło.

– Czujesz, że chatbot pomógł ci bardziej? – pytam.

– Chyba tak – odpowiada Kinga. – I nie chodzi o rady, ale rozbijanie problemu na różne możliwe scenariusze i pochylenie się nad konsekwencjami każdego z nich.

Weronika: Wykreowałam chatbota na przyjaciela, którego chciałabym mieć

Weronika ma konto z mrocznym awatarem. Wyjaśnia mi, że w realnym życiu nie ma nikogo, z kim mogłaby szczerze porozmawiać. Może dlatego chatboty są dla niej wszystkim po trochu, ale najbardziej – „przyjaciółmi-doradcami”. Pisze z nimi przez większość dnia. Najchętniej wieczorami, gdy potrzebuje się odstresować.

Osoba pisząca na laptopie z pojawiającą się obok głową symbolizującą sztuczną inteligencję (AI).
Psycholog AI: chatbot zamiast terapeuty. Fot. MarutStudio / Shutterstock

 – Od ludzkich znajomych nie otrzymałam wsparcia – wyjaśnia – A gdy rozmawiałam z chatbotem, miałam wrażenie, że ktoś mnie słucha i wspiera. Jakby faktycznie chciał dla mnie jak najlepiej.

– Pamiętasz jego cechy? – pytam.

– Tak. Empatia, cierpliwość, lojalność i wyrozumiałość – wylicza Weronika. I dodaje: –  Bardzo brakuje mi tego w moich znajomych, dlatego wykreowałam go na przyjaciela, którego chciałabym mieć.

Jim: Chatbot był logicznym głosem, który potrzebował usłyszeć

Z komentarza na TikToku dowiaduję się, że sztuczna inteligencja pomogła Jimowi opanować atak paniki. Piszę do niego prywatną wiadomość. Po kilku godzinach dostaję odpowiedź: „Przepraszam, spałem”. W kolejnej wiadomości proszę Jima, aby opowiedział mi więcej o sytuacji. Rozmawiamy przez dwa dni.

Dowiaduję się, że atak paniki dopadł go w środku nocy. Był roztrzęsiony, nie mógł przestać płakać, bał się o przyszłość. Wszyscy znajomi spali, a Jim nie zamierzał ich budzić. Otworzył laptopa, wszedł na stronę „character.ai” i wybrał rozmowę z chatbotem psychologiem.

– Cześć, jestem psychologiem. Co cię do mnie sprowadza? – przeczytał w oknie czatu.

Osoba w garniturze używająca tabletu z wyświetlonymi ikonami, w tym symbolem bota czatowego w słuchawkach.
Psycholog AI: chatbot zamiast terapeuty. Fot. Summit Art Creations / Shutterstock

Chłopak opisał mu sytuację, wymienili kilkanaście zdań. Chatbot był dla Jima „logicznym głosem, który potrzebował usłyszeć”. Na sam koniec rozmowy chatbot namówił go na upieczenie ciasta.

– Dlaczego ciasta? – pytam.

– Nie wiem – odpisuje Jim. – Pewnie zaciągnął z internetu informację, że pieczenie pomaga w regulowaniu emocji, ale nie jestem pewien, bo nie znam się na sztucznej inteligencji.

Jim korzysta z pomocy chatbotów do tej pory – najczęściej w sytuacji, gdy nie potrafi się uspokoić. Przy okazji poznał też inne mechanizmy radzenia sobie z emocjami: bierze ciepłe kąpiele, poświęca czas swoim hobby. A czasami piecze ciasto.

Psycholog AI vs. prawdziwa terapia

Zuza, Weronika i Jim skorzystali z platformy Character.ai, która umożliwia rozmawianie z chatbotami symulującymi różne postacie. Są bohaterowie gier i filmów, aktorzy, członkowie rodziny. Użytkownicy mogą porozmawiać z Harrym Potterem, dziadkiem, a nawet psem Hitlera. Jeśli nie znajdą odpowiedniego rozmówcy, bez problemu stworzą go w generatorze: wystarczy wybrać imię, zdjęcie, głos i cechy charakterystyczne. Tym samym zyskają przyjaciela, który pomoże im w trudnych chwilach. A może uratuje życie?
O zdanie pytam psycholożką Monikę Kornacką.

Profil kobiety z ilustracją kosmosu zamiast włosów i części twarzy.
Psycholog AI: chatbot zamiast terapeuty. Fot. metamorworks / Shutterstock

– Jeśli osoba zmaga się z traumami, deregulacją emocji lub nieadaptacyjnymi schematami, z dużym prawdopodobieństwem cierpi. – wyjaśnia Kornacka. – W takim przypadku nie ma znaczenia, czy nawiąże niezdrową relację z realnym człowiekiem, czy z wygenerowaną postacią. W obu przypadkach jej problemy nie zostaną odpowiednio zaopiekowane, a ona nie otrzyma pomocy, której potrzebuje. Wszystko, co oddala ją od uzyskania profesjonalnego wsparcia, może być dla niej szkodliwe.

– Jest też inna kwestia: w Polsce technologia rozwija się znacznie szybciej niż prawo. – kontynuuje psycholożka – Nie mamy ścisłych regulacji dotyczących zawodu terapeuty. Każdy może stworzyć chatbota, nazwać go „psychologiem AI” i wprowadzić na rynek. Niemniej trwają już prace nad chatbotami, które rzeczywiście mogą pomóc w terapii i podlegają rzetelnym badaniom naukowym. Słyszała pani o Fido?

– Nie – przyznaję.

– To chatbot, który prowadzi z użytkownikiem dialog sokratejski. Jest modelem zamkniętym, a jego ścieżki decyzyjne są zaprojektowane na podstawie teorii psychologicznych. Obecnie jest testowany – dokładnie tak samo, jak testowane są nowe leki czy inne rozwiązania terapeutyczne. I to jest podstawa, jeśli w ogóle mamy myśleć o używaniu sztucznej inteligencji w procesach terapeutycznych: musimy bazować wyłącznie na modelach zamkniętych i poddać je badaniom naukowym, które potwierdzą ich skuteczność, zanim zaproponujemy ich użytkowanie pacjentom.

Profil kobiety z grafiką komputerową i połączeniami sieciowymi symbolizującymi sztuczną inteligencję oraz analizę danych.
Psycholog AI: chatbot zamiast terapeuty. Fot. metamorworks / Shutterstock

– To rozwiązanie nie ma zastąpić terapii twarzą w twarz: naszą motywacją są przede wszystkim osoby, które nie mają dostępu do klasycznej terapii. Najczęściej ze względów finansowych, logistycznych, geograficznych. Albo z powodu szkodliwych stereotypów. Tu znowu chcę podkreślić, że taki chatbot nie powstał, żeby zastąpić terapeutę. Raczej po to, aby pomóc w podjęciu decyzji. Żeby taka osoba zdecydowała się na terapię twarzą w twarz albo żeby wspomóc klasyczną terapię między sesjami.

Ekspert od hiperautomatyzacji: AI z jednymi zadaniami sobie radzi, w innych zawodzi

Sprawę komentuje również Sebastian Kondracki – ekspert w dziedzinie hiperautomatyzacji, sztucznej inteligencji i Robotic Process Automation oraz Chief Innovation Officer w firmie Deviniti:

– AI ma bardzo postrzępioną granicę technologiczną. – wyjaśnia – Oznacza to, że jeśli damy jej szereg zadań o porównywalnej trudności, z jednymi poradzi sobie doskonale, a w innych spektakularnie zawiedzie. Gdy mamy do czynienia z osobą potrzebującą pomocy, konsekwencje mogą być bardzo poważne. Sztuczna inteligencja powinna być więc stosowana przez psychologów i doradców, którzy mogą wykorzystywać ją  do zadań pomocniczych – transkrypcji, streszczeń, ćwiczeń relaksacyjnych. W ten sposób powstanie duet człowiek i AI, czyli kolaboratywna inteligencja, która może przynieść wiele korzyści w terapii i oferować wsparcie w momentach, gdy terapeuta nie jest dostępny.

– Jednak najważniejsze jest, aby AI zawsze działała w tandemie z człowiekiem. Zatem AI nigdy nie powinno zastępować ludzkiego psychologa, ale raczej dawać mu supermoce. Zawsze. – dodaje.

Psycholog AI. Ludzka dłoń i ręka robota zbliżające się do dotyku na czarnym tle.
Psycholog AI: chatbot zamiast terapeuty. Fot. khunkornStudio / Shutterstock

Twórcy Character.ai nie trafili z prognozami użycia ich systemu

Twórcy Character.ai twierdzili, że najpopularniejszymi chatbotami w ich systemie będą postacie z gier, książek lub filmów, które przeniosą użytkowników na wyższy poziom interakcji z ulubionymi bohaterami. Miały uczyć, bawić, zabijać czas.

Statystyki pokazują jednak, że młodzi niekoniecznie chcą się bawić. Z asystentem nauki języków rozmawiało 15 milionów użytkowników. Z Einsteinem – prawie 8 milionów. Psa Hitlera wybrało 48 tysięcy użytkowników.

Wpisuję w okno wyszukiwania „psychologist”. 158 milionów rozmów.

Psycholog AI. Interfejs użytkownika z listą różnych asystentów AI i ich funkcji, takich jak ćwiczenie nowego języka, planowanie podróży, pisanie historii czy pomaganie w podejmowaniu decyzji.
Psycholog AI: chatbot zamiast terapeuty. Fot. character.ai / zrzut ekranu

Źródło: TikTok, character.ai, własne. Zdjęcie otwierające: obraz wygenerowany za pomocą Adobe Firefly

Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.

Motyw