AI与人性化:CIO如何应用大模型AI以增强客户体验?
AI与人性化:CIO如何应用大模型AI以增强客户体验?
随着人工智能在客户服务中扮演越来越重要的角色,如何确保其道德使用、保护客户隐私并提供人性化体验成为CIO们面临的重要课题。本文探讨了AI在客户服务中的应用现状与挑战,并提出了相应的解决方案。
图源:Shutterstock
我们都有过这样的经历。笔记本电脑坏了,错过了航班,或者需要打电话给保险公司。本希望快速解决问题,却遇到一个没有同情心的空洞声音,给出照本宣科的问题和答案,让人在选项列表中反复选择,最终更加沮丧。
在这样破碎的客户体验之后,人们开始思考:这种技术中可能嵌入了哪些偏见?它是如何处理个人数据的?多久被审计一次以确保公平和透明?它真的能被教导以道德的方式行事吗?
随着人工智能在客户服务中扮演更大的角色,这些问题变得越来越紧迫——首席信息官和其他高管也很清楚这一点。参与CX Network的Global State of CX 2024调查的来自世界各地的三分之二的客户体验从业者、服务领导者、分析师和顾问都同意或强烈同意他们越来越关注人工智能的道德使用及其未来发展。
除此之外,38%的人认为透明度是客户今天最关心的问题之一,而55%的人强烈认为数据隐私和安全是客户的主要关注点。
制定一套原则
近年来,首席信息官和他们工作的公司已经找到了几种在客户支持中利用人工智能的方法。尤其是银行和其他金融机构,正在整合人工智能以简化客户互动并提高服务效率。例如,许多机构使用人工智能驱动的聊天机器人来处理日常任务,如查询余额、交易历史,甚至贷款申请,释放出人类助手来处理更复杂的问题。人工智能还被用于欺诈检测,分析交易模式,并实时标记可疑活动,比手动系统更快、更准确。
ING Group的首席分析官巴Bahadir Yilmaz表示,仅该跨国公司面向客户的聊天机器人在荷兰每天就能处理多达5000个查询,并且它还增加了生成式人工智能功能以提高客户满意度和转移率。
他补充说,ING在AI方面有这样一套分步指导原则:
- 公平性:确保决策过程不受偏见影响。
- 可解释性:确保目标受众能够理解这些逻辑。
- 透明度:解释并证明模型开发的整个过程。
- 责任性:为每个做出的决策确定责任。
- 安全性:确保模型不产生意外结果。
首席信息官以及首席技术官应该倡导衡量他们的人工智能驱动服务的人性化程度,因为通常情况下,我们更倾向于改进我们决定衡量的东西。
建立人性化团队
许多组织在考虑在客户服务支持中使用人工智能时是从削减成本的角度出发。但据AirHelp首席技术官Tim Boisvert称,他们公司并非完全如此。
AirHelp帮助航空公司乘客获得航班延误、取消或超售的航班获得赔偿,其人工智能驱动的聊天系统因能有效处理常见的与服务相关的询问而受到认可。
“我们基于聊天的人工智能客服的目标不是取代人类,或减少我们对人类客户服务代理的投资,”他说,“因此,我们没有将其设置得让客户在需要时(AI客服)难以与人类交谈。我们的客户提出的很多问题都可以很容易地通过人工智能和机器人回忆起来,但我们已经努力防止用户感觉与我们的客户服务代理隔阂。”
在设计基于聊天的人工智能系统时,有一个规则是要确切知道它能做什么和不能做什么,这样才不会让客户感到沮丧。
“我们的客户服务机器人旨在向客户提供某些类型的信息,而不是陷入认为有某种版本的机器人可以接近取代人类代理与人们之间关系的诱惑,”Boisvert说。构建简单的出口,或者在客户寻找机器人无法轻易提供的东西时主动将客户引导给人类,这是该公司遵循的另一个原则。
AirHelp还使用其他人工智能驱动的工具来解读航空公司发送的有关客户索赔状态更新的自动消息,或分析客户上传的登机牌和电子机票中的信息。
Boisvert说:“这两项措施都大大减轻了我们代理的负担,从他们的任务中去除了琐碎的工作,使他们能够更多地专注于在具有挑战性或非标准的情况下直接与客户合作。”
ING的人工智能驱动聊天机器人也与人类紧密合作。“ING有同事审查每一次对话,以确保系统不使用歧视性或有害的语言,或产生hallucinate(幻觉,指模型生成不基于实际数据或与现实显著不同的内容的现象。),”Yilmaz说,“无论人工智能如何部署,有一点始终是正确的,那就是人是我们流程的核心。”
目前,这是正确的做法,伦理学者们表示同意。“人工智能非常有帮助,但需要在人类的严格监督下使用,”Jain说。
留意偏见
人工智能可以通过多种方式加以利用,包括用于客户获取目的。例如,ING使用生成式人工智能工具来创建个性化的营销活动,为外籍人士、年轻夫妇和Gen Z量身定制内容和优惠。“始终在客户同意的情况下,”Yilmaz说。
ING和Commonwealth Bank of Australia/CBA都使用人工智能驱动的工具来提高网络安全,并为他们的客户创造更安全的银行体验,特别是那些处于弱势环境中的客户。
“我们可以扫描不寻常的交易活动,识别被认为是高风险的模式和实例,以便银行可以进行调查和采取行动。”CBA人工智能实验室卓越中心负责人Luiz Pizzato表示,“我们已经使用人工智能来保护客户免受欺诈和诈骗,实时响应自然灾害地区的客户,甚至通过我们的福利查找工具,将客户与他们有权获得的超过12亿美元的政府福利和退税联系起来。”
在处理客户数据的情况下,组织应该优先考虑用户隐私和数据保护,确保组织符合最新的法规。
同样至关重要的是确保用户隐私和数据保护始终是核心焦点。“由于人工智能系统通常依赖于大量的个人数据,保护这些信息对于维护信任和维护道德标准至关重要。”Ameen说,“这意味着要实施严格的数据保护措施,并对数据使用保持透明。”
另一个重要的焦点应该是确保人工智能的开发、决策和应用的包容性。这意味着让多元化的团队参与创建人工智能系统,并使用广泛的数据和观点来训练和改进它们。
当然,组织需要致力于定期测试他们的人工智能是否存在任何潜在的偏见,并采取措施来纠正它们——首席信息官应该对此保持警惕。“偏见可能在人工智能开发和部署的各个阶段悄然潜入,从数据收集到算法设计,”Ameen说,“定期审计和偏见测试应该是一个持续的过程,要有相应的机制来解决和纠正发现的任何偏见。”
让人工智能具有代表性
当涉及到使用人工智能来增强客户体验时,领导者所承担的责任是巨大的。Ameen说:“首席信息官和高管们可以通过在领导层面倡导道德举措并培养负责任的创新文化来实现更人性化的人工智能。”他补充说,他们应该与人工智能专家密切合作,并为所有员工投资包容性道德培训。
“至关重要的是,高管们必须在人工智能开发团队中优先考虑多样性,例如,积极雇用在人工智能工作中代表性不足的女性和少数族裔人士,”她表示,“确保在人工智能相关决策和代表性数据集中具有多样化的观点对于创建公平、无偏见的人工智能系统的关键,这些系统能够有效地为所有用户服务。”
由于我们在教导人工智能变得人性化方面还不是特别高效,因此实施机制以收集关于人工智能驱动的客户交互的反馈并增强这种能力变得更加重要。
她说:“这包括实时反馈选项、专注于人工智能体验的客户调查,以及对服务日志的分析。”建立焦点小组和专门的渠道来报告与人工智能相关的问题可以帮助获得关于何时应解决道德问题的宝贵见解。
Boisvert补充说,首席信息官、首席技术官和首席执行官不应该从人工智能可以简单地取代事物的假设开始,然后发现在某些情况下,人工智能根本不合适。他建议从另一个极端开始:假设没有人工智能能像人类一样人性化。
“寻找提供小或边际价值的具体场景,并将其整合进去,”Boisvert说,“永远不要让工作流程完全依赖人工智能,以至于基于人工智能的系统与客户的任何直接通信都不能由人类审查和批准。”
Yilmaz同意这一观点,他说人工智能不是立即释放商业利益的解决方案。
“如果你有一个无法运行的业务流程,注入人工智能元素只会让事情更加复杂,限制价值实现,”他补充说,“当业务、技术、数据和分析团队共同努力简化流程并创造我们客户想要的体验时,才会创造真正的价值。”