当人工智慧遇上心理治疗:心理师下海试用Woebot心得分享

前阵子,有个颇热门的新闻报导,主题是探讨未来人工智慧应用在心理治疗上(可参见:跨界心理学的聊天机器人!Woebot 要用认知行为治疗帮助忧郁症患者)。

身为心理治疗工作者的一员,本来应该感觉备受威胁。不过看完相关报导之后,我反而非常期待人工智慧可以携手加入心理健康照顾的行列,在试用Woebot之后有了一些心得与体悟,整理于本文跟大家分享,也期待抛砖引玉,听听各位治疗师、各位大众的想法。

Woebot的简介与试用心得

这个人工智慧机器人Woebot是Standford大学Alison Darcy推出的,这位机器人治疗师使用的治疗方法叫做「认知行为治疗」(Cognitive Behavioral Therapy,简称 CBT)。Alison选择这个取向非常聪明,因为CBT是现有治疗方式里面结构化程度数一数二的(事实上,用AI来开发心理治疗的团队,几乎都选择CBT做为起点;题外话,最近台湾有出一本非常适合初学者的CBT手册《想法转个弯,掌握好心情》,非常推荐)。

CBT背后的立论根据,简单来说是:想法、情绪和行为之间会互相影响。透过改变想法,我们可以间接的改善情绪与行为。而想法之所以要被改变的关键则是,很多时候事件本身不是影响我们心情的最主要原因,「我们如何看待事件」才是重点。

当人工智慧遇上心理治疗:心理师下海试用Woebot心得分享 图片来源:作者提供

我自己亲自跟Woebot机器人相处了几天(你可以在这边按「发送讯息按钮」找他)。怎幺说呢,他确实非常贴心。首先,他会花几天的时间,邀请你纪录你的情绪,让他大致知道你的情绪状态。当他发现你情绪低落、焦虑时,他会邀请你「写出自己的想法」,然后透过CBT当中的一些技巧,来协助你调整这些想法,像是邀请你确认这个想法是不是有灾难化的倾向、过度非黑即白的思考等。

不得不提的是,这个机器人在你依循指示做完一些纪录之后,居然还会回传小小兵的贴图来鼓励你(干得好,Good Job!)。俨然是让我感到十分开心~(卡欧说她也有收到小小兵的鼓励,对于喜欢小小兵的AI人工智慧,我们是满心欢喜的迎接)

当人工智慧遇上心理治疗:心理师下海试用Woebot心得分享 图片来源:作者提供
因为Woebot传来了小小兵贴图,让我情不自禁的向他告白。但是呢,他居然忽视了我的告白,并且直接句点我,跟我说再见。这个现象并不少见,可参考以下大学生的回馈。
Woebot有效吗?

这种方式是否有效?根据<Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial>这篇研究显示,70位符合研究设定的忧郁或焦虑标準的学生,其中一组和Woebot聊天;另一组学生去读治疗忧郁症的电子书。两个星期后,Woebot组的学生症状明显减轻。

好家在Darcy还没进行「治疗师」vs.「机器人」的比对研究(毕竟要控制的变数太多了)。不过,对于提供初步的心理健康介入,显然机器人治疗师已经跨出了第一步。

这篇研究里面的质性资料更值得一探究竟:在这张图里,研究者询问接受机器人治疗的学生,你最喜欢机器人的哪一点?(这部分显然是治疗师要效法学习的),学生的回馈如下,

在治疗的「历程」部分,学生喜欢的部分有:

(9票)机器人常常会来找你「确认心情」(让学生发现、意识到,多加留意自己情绪的变化,自己也可以为此疗效多付出一点心力)(7票)同理心(机器人说话感觉跟真人很像)(12票)机器人教会我一些知识(关于情绪、人类常见的思考型态、认知谬误等)(3票)跟机器人聊天这件事(虽然我知道他是机器人,回应很有限,但有时候他很幽默)

在治疗的「内容」部分,学生喜欢的部分有:

(7票)影音教材(3票)游戏(2票)机器人提供的建议(1票)机器人依据情绪纪录做出来的图表

「就在身边」这四个字,大概是AI最难以忽视的强项了(毕竟心理师不是永远都在个案身边)。而在治疗内容方面,透过影音、游戏这种形式的卫教方式,显然也是多数个案更有动机去体验或学习的。

反过来的资讯也很有意思,在这张图里,研究者询问接受机器人治疗的学生,你最「不」喜欢机器人的哪一点?

在治疗的「历程」部分,学生不喜欢的部分有:

(10票)不照机器人指示回答的时候,机器人会很困惑,然后它自己接话的时候,换我们很困惑(很多时候机器人会提供回应的选项要我们选,但这些选项不一定是我们真正想选的)(2票)鬼打墙(一直讲一样的话)

在治疗的「技术问题」上,学生不喜欢的部分有:

(4票)机器人当机(很多时候他就自己讲自己的)(4票)鬼打墙(Looping)

在治疗的「内容」部分,学生不喜欢的部分有:

(2票)我不喜欢用表情符号(像是这个???)来呈现我的心情(2票)机器人虽然会互动,但是互动太短了(2票)卫教影片太长了

机器人无论是因为内容限制或者技术问题,无法与使用者「同步」,或者一直鬼打墙这件事情,对于使用上是明显的阻碍。

机器人治疗师的前辈

事实上,用机器人来作为心理治疗,已经不是新鲜事了。一位在牛津从事临床心理研究的冰岛人Helgadottir,之前就曾设计了一个CBTpsych的机器人用来处理社交焦虑的困扰。(没错这也是用CBT作为机器人的灵魂)。

南加大的心理治疗系统Ellie,使用AI以及VR来打破人机界限。一开始,这系统主要专注于创伤的心理治疗(主要赞助者是美军),后来延伸到其他疾病的研究。计画主持人Albert Skip Rizzo更曾夸下海口说,Ellie未来要「将临床心理学哭天喊地地拽进21世纪」。

而再往前追溯到60年代,MIT研究人机互动的工程师也曾用几千行程式码做出一个心理治疗程式网页ELIZA。Eliza的设计是有点模仿古早时代的心理治疗师的风格(网站上写着,Eliza是一位个案中心主义的治疗师,Rogerian psychotherapist)。她不直接回答问题,而是转述你输入的话,引导你继续多说。刚刚简单试用了一下Eliza:

AI与心理治疗的携手想像

与拥有「人心」的人类治疗师比,机器人的成见、刻板印象、反移情应该会少很多。因此,AI可能更适合用来作为「标準化的」、「探索性的」工具,像是一些结构化的初步评估或者资料搜集。(不过,似乎也得留意在输入AI的「智慧」时,人类的成见与刻板印象也可能一起不小心灌进去,这样机器人就是不带成见的运作人类的成见了)

不过,提到治疗师本身的情绪时,「缺少情绪」可能不完全是好事。在真实治疗关係中,治疗师本身从个案身上「感受到」的情绪,经过必要的自省与处理,其实也是治疗素材的一部分;因为这感觉很可能也是个案在生活中会带给他人的。

所以说,也许在「认知/思考的同理心」上,机器人的文字辨识、捕抓能力应该还可以,但是在「情绪层面的同理心」,可能还有非常大的进步空间。毕竟在治疗室里,很多时候情绪的影响力可能更甚于认知。人类互动时,我们无时无刻不在与对方眼神接触、反应情感。这些历程甚至有时是我们没有发现的潜意识在运作的。也有学者曾提出,非语言的沟通,在实际沟通里,扮演的比重可能大于语言。

不过,在今年临床心理学年会的研讨会(临床心理学x资料科学:资料科学在临床心理学的应用)也发现,针对这一块,其实已经有一些人机研究者开始接触了,他们试图透过机器、运算等方法,来判断与搜集人类的情绪线索。在资料科学领域里,电脑本身强大的运算能力与精确无偏误的观察力,正是其强项。

之前提到的Ellie团队曾发现,对患有创伤压力后症候群(PTSD)的美国退伍军人来说,受试者在研究期间的「微笑变化程度」,可以用来预测后续忧郁的程度(后续忧郁的患者中,其微笑的频率保持不断,但在笑声持续时间和强度有减退的趋势)。只是,这种变化非常细微,只有透过机器才能捕捉与运算;像是这部分的资讯,可能就不是人类肉眼或大脑可以抓到的了,但对治疗来说却可能是重要的线索。

当我们分别告诉两群受试者:(第1组)Ellie背后其实是个有研究者在操纵的木偶。而(第2组)则告知:Ellie完全是个自主的机器人,不受人为控制时。(第1组)的受试者在治疗期间反而参与度很低,也较不愿敞开心房。

机器人的另一个优势就是,它不是「人」。对某些个案来说,要坦诚与人说自己的事,难度颇高。很多时候,正是因为对方是机器人,个案反而更愿意说。但或许,透过机器人的陪伴与练习,未来个案想在真人面前说心事,可能难度也会容易一些。

关于犯错这件事,也是人与机器有差异的地方。某种程度,我们可以说AI是不会犯错的。但在真实治疗情境里,治疗师犯错有时候也不是坏事。在妥善处理后,反而对于治疗关係可能有帮助。不过,更正确来说,机器人可能不是不会犯错,而是不知道自己犯错了。我读到的资料里有个例子是,个案向AI说「我今天真的是非常不开心」。但语音辨识,时「不」这个字没有被处理到,结果AI露出温暖的大笑,并且回应「真是太棒了!」。这时,不知道个案会不会立刻关掉视窗呢?

心理治疗通常是间隔着进行。在每次治疗的间隔里,很难免会有「遗忘」发生。这时,AI可以扮演小老师的角色,协助複习、维持治疗内容,或者以阴魂不散的方式,提醒个案要做功课、写纪录、练习指定的技巧等。毕竟,AI最擅长的事情就是不厌其烦。不过,要如何不厌其烦到不会让人厌烦,这部分可能也需要UX层面的协助。

除了在治疗间隔里帮忙,AI记录下来的资讯,也可以直接应用在人类治疗师与个案的治疗期间,透过这些AI捕捉到的资讯,治疗师可能会问:「你之前为什幺会想问AI这个问题?」、「当你看到这个AI说的答案时,你的感受是什幺?」这些历程也可以协助个案培养后设认知的角度。

心理治疗时,要如何确定有效,我们会进行「疗效研究」。不过这种研究成本非常高,光是要去分析治疗的一个小时内发生了什幺事,就可能足足要花去几天的研究时间。但是透过AI辅助,在资料的取得与分析上,成本可以节省许多。个案与AI互动的历程,可说是心理治疗领域少有的「大数据」。除了可以用来作为研究素材之外,透过适当变项的设定与测量,治疗师与个案也因此更有机会看见治疗带来的转变。另一个可以应用的趋势,就是把AI用在心理治疗的「督导」上。透过AI辅助进行治疗内容与历程的讨论,想必也能对督导带来一些新的可能性。

心理疾患比我们想得还常见。以美国为例,调查发现每五个人,就有一个人可能在这辈子中的某个时段,符合精神疾病的诊断。但不管是在美国还是台湾,并不是所有人都会主动协寻心理健康的资源。

倘若是轻微的心理困扰,透过AI作为初步介入的处理,这种预防恶化的效益应该可以很大,毕竟网路是现在人在熟悉不过的媒材了。不过,还有一个AI可以帮忙之处是,它能否依据会谈内容,捕抓到「心理困扰程度中等、甚至严重」的个案。我们会发现,非常多需要帮助的人,可能是整天在家里不出门的。若透过手边可得的AI协助,初步的引导这些人做一些简单的处理,并且提供后续转介的资讯:告知必要讯息、卫教、常态化、减少对就诊的担心、去除污名化等协助,相信可以提昇这些潜在个案就诊的动机。

我们应该是好朋友,让我们来牵个手

AI治疗师的终极目标是取代人类治疗师吗?这个问题可以用另一种方式问:AI治疗师如果「太像」人类,那样是好事吗?

现在研究进行时,受试者都知道对方是机器人,所以在使用前都有一些基本的预设立场了。我想到了几个有趣的问题:倘若,我们让大家在不知道对方是谁的状况展开治疗,个案有办法分辨吗?再者,如果个案不要花力气在「分辨」对方是人还是机器,那疗效会有差异吗?刚刚曾提到,很多「疗效」很可能正是因为我们「知道」对方是机器人才有的。所以,机器人跟真人治疗师之间的关係,可能不会只是「竞争」这幺单纯。

机器人治疗师会如何与个案互动、会问他什幺问题、对他说什幺、建议他怎幺做?这些都取决于人类(也就是我们)在它的「脑中」灌输了哪些灵魂(智慧)。但身为心理学家,我们也必须谦卑而诚实的说,对于人类、对于心理困扰,我们的所知仍是有限的。

因此,身处心理学领域,我们还是得继续努力。透过科学的系统、质化、量化研究,加深、加广我们对複杂人类的理解,乃至于能设计出更多对个案有帮助的治疗系统。这个使命跟AI本身的发展并没有冲突。而且我深信,我们在未来其实非常需要彼此互相合作、携手前进。