探讨对话式人工智能在心理健康护理中的伦理挑战:全面评估与分析
探讨对话式人工智能在心理健康护理中的伦理挑战:全面评估与分析
随着人工智能技术的快速发展,对话式人工智能(CAI)在心理健康护理领域的应用越来越广泛。然而,这种新兴技术的使用也引发了一系列伦理问题。本文通过系统性文献综述,全面探讨了CAI在心理健康护理中的伦理挑战,为相关领域的研究和实践提供了重要参考。
背景
对话人工智能(CAI)作为一种新兴的数字技术,正在成为心理健康护理中一个有前景的工具。CAI应用程序,如心理治疗聊天机器人,已在应用商店中可用,但它们的使用引发了伦理上的担忧。
目标
我们的目标是全面概述CAI作为心理健康问题患者的治疗师所涉及的伦理考量。
方法
我们在PubMed、Embase、APA PsycINFO、Web of Science、Scopus、哲学家索引和ACM数字图书馆数据库中进行了系统搜索。搜索包括三个要素:具身人工智能、伦理和心理健康。我们将CAI定义为与人互动并使用人工智能生成输出的对话代理。我们纳入了讨论CAI在心理健康问题患者角色中所面临伦理挑战的文章,并通过“滚雪球”搜索添加了额外的文章。我们只考虑英文或荷兰文的文章,排除会议摘要。由两位独立研究人员(MRM和TS或AvB)进行筛选。根据预期的考虑制定了初始记录表,在记录过程中进行了修订和补充。伦理挑战分为主题,当某个问题在超过两篇文章中出现时,我们将其识别为一个独特的主题。
结果
我们纳入了101篇文章,其中95%(n=96)在2018年或之后发表。大多数为综述(n=22,21.8%),其次是评论(n=17,16.8%)。我们识别出以下10个主题:
- 安全与伤害(在52/101篇文章中讨论,51.5%)
- 可解释性、透明性与信任(n=26,25.7%)
- 责任与问责(n=31,30.7%)
- 同情心与人性(n=29,28.7%)
- 正义(n=41,40.6%)
- 拟人化与欺骗(n=24,23.8%)
- 自主性(n=12,11.9%)
- 有效性(n=38,37.6%)
- 隐私与保密(n=62,61.4%)
- 对医疗工作者工作的担忧(n=16,15.8%)
其他主题在9.9%(n=10)被讨论。
结论
我们的范围审查全面涵盖了心理健康护理中CAI的伦理方面。尽管某些主题仍未得到充分探讨,利益相关者的观点也未得到充分代表,但本研究突出了进一步研究的关键领域。这些领域包括评估CAI与人类治疗师相比的风险与收益,确定其在治疗环境中的适当角色及其对护理获取的影响,以及解决问责问题。填补这些空白可以为规范性分析提供信息,并指导开发心理健康护理中CAI使用的伦理准则。
关键词:聊天机器人;移动健康;伦理;心理健康;对话代理;人工智能;心理治疗;范围审查;对话代理;数字技术;自然语言处理;定性;心理治疗师。