Czy robot mógłby być porządnym terapeutą?

Ellie terapeuta bot Talkspace konferencja

Widzieliśmy zaawansowaną sztuczną inteligencję zdolną do prowadzenia rozmowy, taką jak Siri, Watson firmy IBM i Cortana firmy Microsoft. Ale czy jakikolwiek robot - nawet przeznaczony tylko do psychoterapii i bardziej zaawansowany niż wspomniane AI - może być porządnym terapeutą?





Ludzie używali boty na terapię, ale nie jest jasne, czy za naszego życia mogą przewyższyć ludzkich terapeutów. Spojrzenie na przeszłość, teraźniejszość i możliwą przyszłość robotów jako terapeuty da ci wyobrażenie o tym, jak skuteczne mogą być.

jak rozpoznać kobietę z pogranicza?

Wczesny przykład robota, który próbuje być terapeutą

ELIZA to jeden z najwcześniejszych i najbardziej znanych programów, które próbowały pełnić rolę terapeuty. Profesor MIT i informatyk Joseph Weizenbaum zaprojektował ELIZA, aby zapewnić psychoterapię Rogerian.





Ponieważ psychoterapia Rogerian przede wszystkim zachęca klientów do mówienia, a nie angażowania się w dyskusję, ograniczone zdolności konwersacyjne ELIZA wystarczyły, aby przekonać niektórych ludzi, że to człowiek i pomóc im poczuć się trochę lepiej ze swoimi problemami. Niemniej ELIZA nie była w stanie zapewnić niczego porównywalnego do terapii z terapeutą ludzkim.

Aby zademonstrować ograniczenia ELIZY, wygenerowałem następujący zapis używając pliku nowoczesny symulator ELIZA :



ELIZA: Witam, jestem Eliza.
Talkspace: Cześć Eliza, ostatnio czułam się samotna i przygnębiona, ale nie wiem dlaczego. Czy możesz mi pomóc to rozgryźć i poczuć się lepiej?
ELIZA: Może chciałabyś pomóc ci to rozgryźć i poczuć się lepiej?

Zwróć uwagę, jak ELIZA przyjmuje mój tekst i przeformułowuje go, skupiając się z powrotem na mnie i zachęcając mnie do mówienia więcej niż do rozmowy. Takie podejście działa w przypadku niektórych klientów, ale szybko staje się frustrujące i bezużyteczne dla innych.

Wraz z rozwojem sztucznej inteligencji i chatbotów stały się one zdolne do bardziej przekonujących rozmów. Niezależnie od tego, czy programiści zaprojektowali je do terapii dla nie, udoskonalenia technologii pozwoliły im zapewnić znacznie lepszą terapię niż ELIZA. Mimo to, współczesne boty generalnie nie są wystarczająco inteligentne, aby rywalizować z terapeutą.

Nowoczesne boty, które mogą zapewnić podstawową terapię

Tworząc większe bazy danych odpowiedzi do wyboru i rozwijając programy, które mogłyby mówić o sobie, programiści stworzyli roboty, które łatwiej można było uchodzić za terapeutów.

Podczas konferencji klinicznej Talkspace, Przyszłość terapii , Profesor USC i dyrektor ds. Badań wirtualnych ludzi Jonathan Gratch wykazano jak nowoczesne formy sztucznej inteligencji mogą zapewnić kliniczne badania przesiewowe i podstawową terapię. Gratch przedstawił Ellie, sztuczną inteligencję, której używał do „wywoływania wskaźników depresji” podczas badań.

Konferencja Jonathan Gratch Ellie Future of Therapy
Gratch znajduje się po prawej stronie obrazu.

Oto część dialogu między uczestnikiem Badanie Gratcha i Ellie:

Ellie: Więc jak się dzisiaj masz?
Uczestnik: Dobrze mi idzie.
Ellie: To dobrze. Skąd pochodzisz?
Uczestnik: pochodzę z Los Angeles.
Ellie: Oh, sama jestem z LA.

W przeciwieństwie do ELIZY, Ellie była w stanie mówić o sobie i generować rozmowę, zamiast tylko przeformułowywać otrzymane odpowiedzi. Według Gratcha program rozpoznaje mimikę twarzy i analizuje dźwięk oraz postawę. Wykorzystuje tę analizę, aby sformułować swoją odpowiedź i dostosować ton.

Niemniej jednak Gratch przyznał, że Ellie nie była w stanie zapewnić takiego zrozumienia, jak ludzki terapeuta.

„To nie dogłębnie rozumie, o czym mówisz” - powiedział Gratch. „Nie wydaje mi się, abyśmy w najbliższym czasie z technologią byli w stanie zasadniczo zrozumieć cele, motywy i potrzeby danej osoby”.

Ellie została wdrożona w bezpieczny sposób. Mogą jednak wystąpić negatywne konsekwencje, gdy bot nie rozumie emocji i nie filtruje informacji podczas wrażliwych rozmów o wysokim ryzyku, takich jak rozmowy między terapeutami a klientami.

Jednym z tego był przykład Dłoń , bot Microsoft zaprojektowany do interakcji z ludźmi i uczenia się od nich, nieustannie modyfikując swoje odpowiedzi i zachowanie w oparciu o otrzymany tekst. Twórcy Taya wpadli na okropny pomysł, by udostępnić go na Twitterze, gdzie mógłby wchodzić w interakcje z każdym w internecie.

Zaczęło się niewinnie, kiedy Tay użył zabawnego slangu i żartował. Ale ponieważ Twitter jest pełen trolli, zakończył się on wypowiadaniem rasistowskich komentarzy i zaprzeczaniem Holokaustowi przez Tay.

Strona Tay na Twitterze
Microsoft zamknął Tay i chronił jego tweety po incydencie.

Boty terapeuty są bardziej wrażliwe, ale nadal istnieje ryzyko otrzymania niestabilnych odpowiedzi od klientów i zaostrzenia sytuacji, zamiast ich pocieszać.

jak Kate Spade się zabiła?

Czy w najbliższej przyszłości roboty prześcigną terapeutów?

Od robotów dzieli nas wiele dziesięcioleci od przekroczenia zdolności twórczego myślenia i empatii terapeutów. Istnieje również możliwość, że nigdy nie będą w stanie konkurować z terapeutami. Są użytecznym narzędziem klinicznym, ale tylko terapeuta krwi i krwi może stworzyć relację terapeutyczną niezbędną dla klienta do dokonania znaczącego postępu.