AI能疗愈你的心吗?ChatGPT与心理健康
AI能疗愈你的心吗?ChatGPT与心理健康
随着AI技术的快速发展,ChatGPT等聊天机器人在心理健康领域的应用引起了广泛关注。本文将探讨ChatGPT在心理健康对话中的表现,并分析其潜在风险和伦理考量。
来源:MotionElements
分析ChatGPT在心理健康对话中的表现
自从ChatGPT问世以来,人们不仅惊叹于其拟人般的对话表现,还尝试将其能力应用在不同的使用情境中。早期就有不少研究探索使用行动科技(例如,手机App)等工具来辅助人类,甚至更进一步延伸到使用科技来支持人们的心理健康。在这些科技工具当中,往往都会有一个拟人化的角色,或称为虚拟代理人来提供虚拟服务,而使用虚拟代理人的好处就是比起真人更节省成本,且能够24小时回应需求。
Naher (2024) 进行了一个研究,探讨了ChatGPT在心理健康对话中的表现,主要的分析分成了字数分析、情感分析和回应品质。字数分析心理健康的对话取自Kaggle上面的资料库,而研究者将对话资料库中的问题拆解出来,由ChatGPT进行回答,藉此比较资料库中的回答和ChatGPT回答的差异,来比较ChatGPT是否是一个有效可以产生心理健康支持的对话工具。字数分析是统计ChatGPT针对每一段对话能提供多少字数的回应,情感分析则是量化ChatGPT回应的情绪调性,从最负面到最正面分别从-1到+1连续性给分。而回应品质则具有多项指标,包含回应是否与问题相关、回应是否具有相关资讯、回应是否能给出外部资讯、回应是否正向等等。
研究结果发现,ChatGPT的回答平均字数有352个,资料库仅70个,表示ChatGPT有更多机会能提供更多深入的资讯。而情感得分方面,ChatGPT的平均分数是0.53分,高於资料库的0.23分,这表示它能提供具有更正向的情感交流,这对于心理健康支援而言是很重要的。最后,在回应品质方面,ChatGPT的表现在大多数情况下也比资料库的回答还要好。
ChatGPT的表现优异,但仍然有其隐忧
在Naher (2024) 的研究中,指出了ChatGPT在心理健康支持方面的优异表现。较长的回答,对于使用者而言,更有机会展现同理心,提供更多的资讯,甚至提供给使用者更多的外部可用资源。而具有正向态度的情感支持,能给予使用者更好的心理健康支持。外部资源的提供,可以使得使用者先以ChatGPT进行对话后,再进行相关文章的阅读,或者再进一步寻求其他的专家帮助。以一个心理健康支援工具而言,ChatGPT可以扮演初步提供情感支持和资讯的角色。
然而,需要注意的是,不只是Naher (2024) 在文章中指出使用ChatGPT可能的隐忧,Arjanto等人 (2024) 也都在不同的期刊发表了相关的论文,提醒人们ChatGPT有其局限性,并不能完全取代心理学专业人士或者是精神科医师的评估。尤其是在面对具有紧急需求的时候,甚至可能危害到人身安全时,不能只依靠ChatGPT的问答来解决问题。
面对排山倒海的AI浪潮,如何挑选适合的工具?
进一步来说,Coghlan等人 (2023) 撰文列举了一些在心理健康领域使用聊天机器人时的伦理考量,他们提出了设计聊天机器人时,应遵循五项伦理原则:不危害原则、益己原则、自主尊重原则、公平正义原则以及可解释性原则。具体而言,研究者提出了四点建议,给予类似ChatGPT这样的AI聊天机器人的设计师及使用者。
建议一:权衡风险与利益
需要清晰定义预期解决的问题及目标,以确保开发的聊天机器人是合理的。另外,也应权衡评估风险是否过高或利益是否过低。
建议二:寻求并揭露支持的证据
确保服务有足夠的理论基础,尤其是针对弱势群体,甚至是在具有高风险的情况下,要事先进行良好的临床试验来获得更强的证据支持,并且能透明化的揭露服务背后所进行过的验证研究,以尊重用户的自主权。
建议三:适当收集及使用数据
确保用户了解数据收集、储存和使用的透明性,以促进用户与开发者的信任并尊重用户自主权。而模型的训练资料也应确保代表性,以减少对特定个体或群体的不公正,避免对用户造成伤害。
建议四:考虑可能的犯罪披露
如果用户披露犯罪行为时,应考虑法律风险及道德责任。在系统后端可备有另一套系统来检测对话内容,并在需要时转交给人类内容审核者进行决策。使用前,也须事先确保使用聊天机器人的用户了解可能的法律责任及其影响。
总结来说,AI的自然语言处理技术已经具有可以像真人问答一样的能力,已经可以作为初步提供心理健康支持并辅助提供相关资源的工具。但更深层的,仍然需要依赖开发者以及用户提升AI素养及识读能力,让聊天机器人在心理健康领域的设计和使用,都能符合伦理原则,才能更有效地服务于需要帮助的用户。