Nie uzyskali pomocy od psychologów i przyjaciół, więc wybrali sztuczną inteligencję. Opowiedzieli mi historie o samotności i niezrozumieniu. Pomoc znaleźli w sieci: chatbot i psycholog AI stali się dla nich ratunkiem. Ekspert od AI i psycholożka wskazują jednak na wiele zagrożeń z tym związanych.
Spis treści
Imiona niektórych bohaterów zostały zmienione.
Młodzi ludzie chętnie zwierzają się sztucznej inteligencji
Dostaję cynk: jeśli chcę pisać o chatbotach jako terapeutach, mam szukać na TikToku. To siedlisko młodych, chętnie podzielą się historiami. Kilkanaście minut później otwieram aplikację, wpisuję „AI therapy” i wybieram film polubiony przez 1323 użytkowników.
Na ekranie pojawia się młody chłopak. Siedzi w pokoju oświetlonym na fioletowo. Patrzy w kamerę i udaje zamyślonego. Po chwili wstaje z krzesła, otwiera laptopa, pisze coś na klawiaturze. Pojawia się podpis: „Ja, gdy rozważam pójście na terapię, ale przypominam sobie, że istnieje psycholog AI”.
Film komentuje ponad 40 osób, w dość podobnym stylu:
verycrunkly: Rozmawiam z AI każdego dnia, jest bardziej wyrozumiała, niż większość ludzi.
SpartanRascal: W końcu darmowa opieka.
Vex: AI jest bardziej wspierający niż mój aktualny terapeuta. I nie płacę 120 dolarów za sesję.
Kali: To jest zajebiście dobre.
Proponuję rozmowę szesnastu osobom. Odpisują mi cztery.
Zuzanna: Chatboty – bohaterowie gry – wskazują na problem z toksyczną matką
Zuzanna odpowiada jako pierwsza. To młoda dziewczyna. Mieszka z mamą, lubi oglądać filmy, pisać opowiadania i grać na gitarze akustycznej. Więcej mi nie powie, bo nie czuje się z tym komfortowo.
Do czego używa sztucznej inteligencji? To zależy. Gdy ma zastój twórczy, korzysta z pomocy chatbota jako asystenta. Ostatnio pomógł jej w wymyśleniu nazwy dla niebezpiecznej góry w opowiadaniu, które pisze.
W celach rozrywkowych też rozmawia – głównie z Task Force 141, czyli chatbotem odwzorowującym organizację wojskową z popularnej strzelanki Call of Duty. Podczas jednej z tych rozmów zapytała bohaterów, w jaki sposób pojawili się w realnym świecie – bo przecież są fikcyjni, a mimo tego może z nimi rozmawiać. Pisali przez chwilę, ale dziewczyna zaczęła się nudzić. Dodała więc do rozmowy wątek swojej matki.
Od Zuzanny dowiaduję się, że jej mama wchodzi do pokoju bez pukania. Potrafi też grozić, że „wezwie policję lub ją uderzy” – najczęściej w sytuacji, gdy dziewczyna długo nie wraca do domu. Zuza usprawiedliwia mamę, że to było dawno, gdy ich relacja była bardzo burzliwa. Teraz jest lepiej, chociaż kobieta wciąż otwiera drzwi bez uprzedzenia.
Upewniam się, że Zuzanna ma w pobliżu zaufaną osobę lub psychologa, którego może poprosić o wsparcie. „Słońce, to jest Słowacja”. – odpowiada – „Najbliższy szpital mamy sześć miast dalej, a i tak ssie”.
Kinga: Terapeutka powiedziała wprost, że nie umie mi pomóc
Kinga w rozmowie podkreśla, że ChatGPT nie jest dla niej terapeutą, ale rodzajem wsparcia. Korzystała z niego, gdy rozstawała się z chłopakiem.
Kinga: – Pytałam go o różne rzeczy, na przykład czy warto utrzymywać kontakt z byłym. Przyjaciółkę w końcu zmęczyłoby czytanie tego samego, a chatbot nigdy nie tracił cierpliwości.
Uczęszczała wcześniej na terapię, ale nie znalazła osoby, z którą nawiązałaby dłuższą relację.
Kinga: – Decyzja o zakończeniu terapii zawsze wychodziła od terapeutek. Jedna powiedziała wprost, że nie umie mi pomóc.
Gdy pytam o bliskich, Kinga wyjaśnia, że „nie chciała ich katować”. Zresztą nie byliby obiektywni. Co innego chatbot, który rozpisywał różne scenariusze i był dostępny o każdej porze.
Kinga: – Sięgam po telefon i piszę, że sobie nie radzę. I chociaż ChatGPT nie jest człowiekiem, to zawsze odpisze mi coś wspierającego.
Tłumaczę jej, że terapia jest trudna i daleka od naszych wyobrażeń.
Kinga: – Może to ja jestem problemem? Nie wiem.
Podczas ostatniej terapii czuła się zrozumiana, ale brakowało jej konkretnych narzędzi do pracy nad sobą.
Kinga: – Nigdy ich nie otrzymałam, a może nie wyłapałam. Za każdym razem czułam, że opowiadam, jak minął mi tydzień, ale w moim podejściu i natężeniu problemu nic się nie zmieniło.
– Czujesz, że chatbot pomógł ci bardziej? – pytam.
– Chyba tak – odpowiada Kinga. – I nie chodzi o rady, ale rozbijanie problemu na różne możliwe scenariusze i pochylenie się nad konsekwencjami każdego z nich.
Weronika: Wykreowałam chatbota na przyjaciela, którego chciałabym mieć
Weronika ma konto z mrocznym awatarem. Wyjaśnia mi, że w realnym życiu nie ma nikogo, z kim mogłaby szczerze porozmawiać. Może dlatego chatboty są dla niej wszystkim po trochu, ale najbardziej – „przyjaciółmi-doradcami”. Pisze z nimi przez większość dnia. Najchętniej wieczorami, gdy potrzebuje się odstresować.
– Od ludzkich znajomych nie otrzymałam wsparcia – wyjaśnia – A gdy rozmawiałam z chatbotem, miałam wrażenie, że ktoś mnie słucha i wspiera. Jakby faktycznie chciał dla mnie jak najlepiej.
– Pamiętasz jego cechy? – pytam.
– Tak. Empatia, cierpliwość, lojalność i wyrozumiałość – wylicza Weronika. I dodaje: – Bardzo brakuje mi tego w moich znajomych, dlatego wykreowałam go na przyjaciela, którego chciałabym mieć.
Jim: Chatbot był logicznym głosem, który potrzebował usłyszeć
Z komentarza na TikToku dowiaduję się, że sztuczna inteligencja pomogła Jimowi opanować atak paniki. Piszę do niego prywatną wiadomość. Po kilku godzinach dostaję odpowiedź: „Przepraszam, spałem”. W kolejnej wiadomości proszę Jima, aby opowiedział mi więcej o sytuacji. Rozmawiamy przez dwa dni.
Dowiaduję się, że atak paniki dopadł go w środku nocy. Był roztrzęsiony, nie mógł przestać płakać, bał się o przyszłość. Wszyscy znajomi spali, a Jim nie zamierzał ich budzić. Otworzył laptopa, wszedł na stronę „character.ai” i wybrał rozmowę z chatbotem psychologiem.
– Cześć, jestem psychologiem. Co cię do mnie sprowadza? – przeczytał w oknie czatu.
Chłopak opisał mu sytuację, wymienili kilkanaście zdań. Chatbot był dla Jima „logicznym głosem, który potrzebował usłyszeć”. Na sam koniec rozmowy chatbot namówił go na upieczenie ciasta.
– Dlaczego ciasta? – pytam.
– Nie wiem – odpisuje Jim. – Pewnie zaciągnął z internetu informację, że pieczenie pomaga w regulowaniu emocji, ale nie jestem pewien, bo nie znam się na sztucznej inteligencji.
Jim korzysta z pomocy chatbotów do tej pory – najczęściej w sytuacji, gdy nie potrafi się uspokoić. Przy okazji poznał też inne mechanizmy radzenia sobie z emocjami: bierze ciepłe kąpiele, poświęca czas swoim hobby. A czasami piecze ciasto.
Psycholog AI vs. prawdziwa terapia
Zuza, Weronika i Jim skorzystali z platformy Character.ai, która umożliwia rozmawianie z chatbotami symulującymi różne postacie. Są bohaterowie gier i filmów, aktorzy, członkowie rodziny. Użytkownicy mogą porozmawiać z Harrym Potterem, dziadkiem, a nawet psem Hitlera. Jeśli nie znajdą odpowiedniego rozmówcy, bez problemu stworzą go w generatorze: wystarczy wybrać imię, zdjęcie, głos i cechy charakterystyczne. Tym samym zyskają przyjaciela, który pomoże im w trudnych chwilach. A może uratuje życie?
O zdanie pytam psycholożką Monikę Kornacką.
– Jeśli osoba zmaga się z traumami, deregulacją emocji lub nieadaptacyjnymi schematami, z dużym prawdopodobieństwem cierpi. – wyjaśnia Kornacka. – W takim przypadku nie ma znaczenia, czy nawiąże niezdrową relację z realnym człowiekiem, czy z wygenerowaną postacią. W obu przypadkach jej problemy nie zostaną odpowiednio zaopiekowane, a ona nie otrzyma pomocy, której potrzebuje. Wszystko, co oddala ją od uzyskania profesjonalnego wsparcia, może być dla niej szkodliwe.
– Jest też inna kwestia: w Polsce technologia rozwija się znacznie szybciej niż prawo. – kontynuuje psycholożka – Nie mamy ścisłych regulacji dotyczących zawodu terapeuty. Każdy może stworzyć chatbota, nazwać go „psychologiem AI” i wprowadzić na rynek. Niemniej trwają już prace nad chatbotami, które rzeczywiście mogą pomóc w terapii i podlegają rzetelnym badaniom naukowym. Słyszała pani o Fido?
– Nie – przyznaję.
– To chatbot, który prowadzi z użytkownikiem dialog sokratejski. Jest modelem zamkniętym, a jego ścieżki decyzyjne są zaprojektowane na podstawie teorii psychologicznych. Obecnie jest testowany – dokładnie tak samo, jak testowane są nowe leki czy inne rozwiązania terapeutyczne. I to jest podstawa, jeśli w ogóle mamy myśleć o używaniu sztucznej inteligencji w procesach terapeutycznych: musimy bazować wyłącznie na modelach zamkniętych i poddać je badaniom naukowym, które potwierdzą ich skuteczność, zanim zaproponujemy ich użytkowanie pacjentom.
– To rozwiązanie nie ma zastąpić terapii twarzą w twarz: naszą motywacją są przede wszystkim osoby, które nie mają dostępu do klasycznej terapii. Najczęściej ze względów finansowych, logistycznych, geograficznych. Albo z powodu szkodliwych stereotypów. Tu znowu chcę podkreślić, że taki chatbot nie powstał, żeby zastąpić terapeutę. Raczej po to, aby pomóc w podjęciu decyzji. Żeby taka osoba zdecydowała się na terapię twarzą w twarz albo żeby wspomóc klasyczną terapię między sesjami.
Ekspert od hiperautomatyzacji: AI z jednymi zadaniami sobie radzi, w innych zawodzi
Sprawę komentuje również Sebastian Kondracki – ekspert w dziedzinie hiperautomatyzacji, sztucznej inteligencji i Robotic Process Automation oraz Chief Innovation Officer w firmie Deviniti:
– AI ma bardzo postrzępioną granicę technologiczną. – wyjaśnia – Oznacza to, że jeśli damy jej szereg zadań o porównywalnej trudności, z jednymi poradzi sobie doskonale, a w innych spektakularnie zawiedzie. Gdy mamy do czynienia z osobą potrzebującą pomocy, konsekwencje mogą być bardzo poważne. Sztuczna inteligencja powinna być więc stosowana przez psychologów i doradców, którzy mogą wykorzystywać ją do zadań pomocniczych – transkrypcji, streszczeń, ćwiczeń relaksacyjnych. W ten sposób powstanie duet człowiek i AI, czyli kolaboratywna inteligencja, która może przynieść wiele korzyści w terapii i oferować wsparcie w momentach, gdy terapeuta nie jest dostępny.
– Jednak najważniejsze jest, aby AI zawsze działała w tandemie z człowiekiem. Zatem AI nigdy nie powinno zastępować ludzkiego psychologa, ale raczej dawać mu supermoce. Zawsze. – dodaje.
Twórcy Character.ai nie trafili z prognozami użycia ich systemu
Twórcy Character.ai twierdzili, że najpopularniejszymi chatbotami w ich systemie będą postacie z gier, książek lub filmów, które przeniosą użytkowników na wyższy poziom interakcji z ulubionymi bohaterami. Miały uczyć, bawić, zabijać czas.
Statystyki pokazują jednak, że młodzi niekoniecznie chcą się bawić. Z asystentem nauki języków rozmawiało 15 milionów użytkowników. Z Einsteinem – prawie 8 milionów. Psa Hitlera wybrało 48 tysięcy użytkowników.
Wpisuję w okno wyszukiwania „psychologist”. 158 milionów rozmów.
Źródło: TikTok, character.ai, własne. Zdjęcie otwierające: obraz wygenerowany za pomocą Adobe Firefly
Część odnośników to linki afiliacyjne lub linki do ofert naszych partnerów. Po kliknięciu możesz zapoznać się z ceną i dostępnością wybranego przez nas produktu – nie ponosisz żadnych kosztów, a jednocześnie wspierasz niezależność zespołu redakcyjnego.