呼叫中心通过 AI 的实时口音调整击中正确的音符
快速阅读: 据《印度分析杂志》最新报道,Teleperformance,作为全球最大呼叫中心运营商,正使用人工智能技术实时修改印度客服人员的口音,以适应西方客户,引发关于语言身份和伦理问题的讨论。该技术旨在减少沟通错误,提高效率,但也有人担心它会强化语言偏见。尽管如此,Teleperformance表示人工智能仅消除理解障碍,未长期存储或更改数据。
在全球最大的呼叫中心运营商Teleperformance开始使用人工智能实时修改印度客服人员的口音以适应西方客户的过程中,引发了关于人工智能在国际商务交流中的角色的讨论。该公司声称,这项由美国初创公司Sanas开发的技术有助于减少沟通错误、提高生产力,甚至保护客服人员免受言语虐待。然而,问题在于这种由人工智能驱动的口音修改是客户服务的进步,还是引发了关于语言身份和偏见的伦理问题。Teleperformance在全球拥有约九万名员工,其中在印度有数万名员工,在为英国客户提供服务方面发挥着关键作用。其客户包括沃达丰、易趣等大型企业以及政府和NHS等重要公共服务部门。
呼叫中心一直是全球客户服务的支柱,印度因其庞大的英语劳动力而成为主要枢纽之一。然而,西方市场的客户有时难以理解外国口音,这导致了挫败感、通话时间延长和升级增加。在接受AIM独家采访时,SquadStack的首席执行官兼联合创始人阿普尔夫·阿加瓦尔解释说:“公司正在回应客户对无缝沟通的期望。我们在SquadStack的研究表明,沟通障碍可以将转化率降低多达23%。”
虽然客户需求是一个推动因素,但运营效益同样具有吸引力。这些系统可以将通话处理时间缩短15-20%,并减少重复的需要,这直接影响效率。阿加瓦尔指出,人工智能口音修改使企业能够利用全球人才库而不必进行广泛的语言培训。“与其通过传统培训让代理采用不自然的口音,人工智能允许他们以自然的方式交流,同时确保清晰度。”
实时口音修改背后的技术非常复杂。人工智能模型首先使用自动语音识别(ASR)转录口语,然后使用自然语言处理(NLP)识别说话者口音特有的发音模式、重音变化和语调。转换算法随后调整这些元素,使其符合更广泛理解的发音标准,同时保留说话者的自然语气和情感。结果是听起来更“中性”的语音,通常延迟不超过100毫秒。据阿加瓦尔称,最好的人工智能口音修改系统使用多模态Transformer架构,同时处理声学和语言信息。“这些系统确保对话流畅,减少误解,提高客户满意度。”
人工智能口音修改是双向的吗?
虽然像Teleperformance这样的公司使用人工智能使印度客服人员听起来更“西方”,但一些公司正在探索相反的方向,帮助印度客户更好地理解外国客服人员。例如,SquadStack开发了双向的人工智能驱动的通信增强工具,确保双向理解而不是消除口音。“我们的技术不会消除口音,而是通过调整通常导致误解的语音模式来提高清晰度,这种方法能提升大约40%的理解能力。”
虽然人工智能驱动的口音修改解决了实际的业务挑战,但也引发了重要的伦理问题。批评者认为,“淡化”口音强化了语言偏见,并延续了可接受的英语发音等级制度。Teleperformance为这一举措辩护,称人工智能只是消除了理解障碍,提高了效率,而不会长期存储或更改数据。然而,争论仍在继续:企业应该优先考虑便利性还是文化真实性,或者有没有办法平衡两者?
另一方面,呼叫中心的人工智能驱动的口音修改可能使诈骗电话更具说服力且更难被发现。骗子经常依赖社会工程学,而外国口音一直是警示标志。随着人工智能中和口音,欺诈者可以更逼真地冒充银行、技术支持或政府机构,使诈骗更加有效。虽然人工智能改变了客户服务,但必须确保它不会被骗子利用。
(以上内容均由Ai生成)