保险业探索自主AI:重塑理赔与承保的新机遇
快速阅读: 《保险邮报》与Hyland联合网络研讨会上,保险业领袖探讨代理型AI重塑承保、理赔和欺诈检测的潜力与挑战,强调文化变革、人类监督及监管重要性。
在最近由《保险邮报》与Hyland联合举办的网络研讨会上,保险公司探讨了代理型人工智能如何重塑承保、理赔和欺诈检测——以及在此过程中保持人类参与的挑战。与会者包括:AXA英国首席数据和AI官Paul Hollands、Covéa保险首席数据科学家Tom Clay、Hyland欧洲、中东、非洲及亚太区特种销售总监Jon Whitear。
随着保险公司逐渐适应生成式人工智能的实验,人们的关注点已经转向下一个进化阶段:代理型人工智能。当前工具可以按指令创建文本、代码和图像,而代理型系统则承诺能够自主地推理、规划和执行任务,覆盖承保、理赔和欺诈等领域。这是一个诱人的前景,但也带来了诸多问题。
在这次网络研讨会上,行业领袖们深入探讨了将更多自主权交给人工智能的潜力与复杂性。本文将总结讨论中浮现的几个关键主题。
### 代理型人工智能的定义
Hyland的Jon Whitear简洁地定义了代理型人工智能:“它具有自主能力,不是为了创造新内容,而是能够在没有人类指示的情况下做出决策。”Covéa的Tom Clay形象地描述说:“这是有‘手臂和腿’的人工智能,可以为你完成任务。”AXA英国的Paul Hollands认为,代理型人工智能是经典机器学习到自动化、生成模型和最终编排过程的延续。“我们都在不同程度上应用着AI和自动化技术,而下一步是从独立任务转向可以自主完成的任务集合。”他解释道,“这种转变意味着从‘为人类设计的计算机辅助流程’转变为‘由计算机主导、人类辅助的流程’。”
### 初步尝试
AXA将代理型人工智能视为其长期转型计划的核心部分之一。“我们的AI愿景规划至2029年,”Hollands透露,“代理型AI是其中的重要组成部分。实现这一愿景的关键在于快速获得可验证的成果。”这一概念正在理赔领域得到验证。AXA正在通过代理型视角重建其人身伤害赔偿流程,目标是“重新设计流程,让代理执行任务并进行协调。”Hollands表示。与Guidewire的集成和规模测试将决定该模式能否在企业层面成功实施。
Covéa的Tom Clay也看到了类似的趋势。他的团队将生成式AI视为“基础”,从提供信息和辅助的工具发展到能够自动执行和决策的工具。然而,文化因素与技术同样重要。“我们以经纪人为主导,因此采取非常谨慎的步骤,”他解释道,“我们专注于流程中摩擦最大的环节,如客户入职和互动,从生成式助手开始,现在我们思考的是:如果给这些助手增加‘手臂和腿’,它们能做什么?”
对于Hyland而言,不同市场和行业的进展并不均衡。“今天听到的例子处于最前沿,”Whitear说,“大多数客户仍在利用生成式AI获取表面层次的详细信息,他们将代理型AI视为第三、第四甚至第五阶段的目标,等到对早期阶段感到舒适后再考虑。”
这种谨慎态度是可以理解的。在金融服务行业,行动越快,潜在收益越大,但同时也需要调整风险。
### 发展步伐
行业对效率的关注正逐渐扩展为关于增强的广泛讨论。Clay承认Covéa最初的重点是“提高效率——如何简化充满摩擦的流程”。但现在公司的视角正在变化:“我们能做些什么更有价值的事情吗?AI不应仅仅被视为节省时间和提高产能的工具,我们希望它被理解为真正的增强器。”他提到对增强工具的认识日益加深:“像Copilot这样的工具在很多方面都很优秀,但并非所有方面都出色。这促使我们作为AI团队重新思考产品构建方式,我预见到在特定数据上训练的小型模型会有更大的成功。”
Hollands指出,在最初的炒作之后,生成式AI已经“从炒作周期的另一端跌落。它在概念验证中表现出色,但在承保、理赔、客户服务等企业工作流程中仍相对孤立。”
他补充说:“Copilot 是一个非常出色的辅助工具,它能让你的工作更加高效。但这是否意味着可以将其视为可依赖的效率提升手段?绝对不是。”
相反,他将代理型人工智能(agentic AI)定位为“转型服务、优化流程并显著提升客户和同事体验”的途径。机会不仅在于降低成本,更在于通过重塑保险公司的成本基础以促进增长和服务的改进。
两位保险业人士都强调了文化变革的重要性。Clay 称之为“极其艰难的文化发展过程”,而 Hollands 则谈到新兴的技能前沿。“如果代理型技术成为我们所预期的样子,我们的员工队伍在两三年内将会发生巨大变化。”他说,“新的角色会是什么?那些监督代理型流程并确保其输出的人——这是一套目前尚未定义的技能。”
对于一个以规避不可控风险著称的行业而言,自主决策的人工智能需要严格的监管。
Hollands 认识到其中的讽刺之处,并区分了生成式人工智能的“信息提供”性质与机器学习和代理系统“指令性”的特点。他的目标是在安盛(Axa)实现一致性和可解释性。
“如果今天在座的每位专家都收到了一份医疗报告,我们每个人对其解读可能会得出四个不同的结论。”他解释道,“我们希望并且已经开始证明的是,这种一致性实际上要高得多。”
安盛在关键节点上保留了人工干预,以验证建议,随着信心的增长不断学习和迭代。准确率已经达到了“70% 和 80% 的高位”,他补充道,“当仍然有人工参与时,这个准确率已经足够好。”
Clay 从他所谓的第一个保护措施开始:“教人们如何正确提示。”他观察到,对像 Copilot 这样的工具感到沮丧往往源于不当的提示。“我们非常重视这种培训,特别是考虑到代理型人工智能可能造成的更大损害时,这种培训需要加速进行。”
除此之外还有可解释性。“如果你拥有的是复杂的编排服务,很难弄清楚它为什么会那样做。”他说,“因此尽可能地增加可解释性——我们已经开始通过定制代理来详细说明其行为的原因。”
Whitear 将类比带回互联网泡沫时代。“那时,如果你创建了一个糟糕的网页,无关紧要。但现在,如果初始的代理型人工智能表现不佳,那可能是灾难性的。”他认为提示工程既是关键技能也是新的治理挑战。“这是一组可以学习的技能,但责任归谁?是理解流程的业务专家,还是知道如何编写提示的 IT 人员?将这两项技能结合于一身几乎是不可能的。”
谈及监管,Hollands 指出,安盛与监管机构保持着“持续的对话”,主要关注消费者权益和数据保护。“这是绝对正确的做法,”他说,“它提供了真正的透明度。但随着能力的快速发展,无疑会出现转变。”
Clay 同意这一观点:“透明度是基石。消费者权益已经是一个强有力的机制,数据保护也是如此。这并不是一个无序的领域。”
Whitear 预计,在真正出现代理型人工智能失败的实际案例之前,监管不会变得严格,这是一个熟悉的模式。“因为还没有看到代理型人工智能失败的真实世界例子,所以目前相对开放。”
我们提出了一个假设问题——当代理型系统失败时会发生什么?对 Hollands 来说,答案已经很明显。安盛已向 800 名员工推出了生成摘要工具,很快将翻倍。“当这些工具失效时,你只能回到纸笔时代,”他承认,“当它们无法工作时,客服团队非常不满。他们非常喜欢这项技术,它提升了他们的工作,他们希望获得更多。”
这种热情凸显了人工智能工具迅速融入日常工作的速度以及依赖这些工具的脆弱性。“运营韧性是一个方面,”Hollands 警告说,“确保输出质量值得信赖是另一个方面。”
他的团队通过业务专家和提示工程师之间的密切合作,不断迭代以提高质量,同时将令牌消耗减少了多达 50%。
Clay 持有类似的观点:“代理型技术不应该替代人力,因为它一旦替代了人力并出现故障,你就真的麻烦了。”他警告说,“加倍制定良好的运营韧性计划,让员工了解当技术出错时应该采取的具体行动。”
Whitear 认为,尽管这项技术可能是革命性的,但现有的监管和韧性框架已经存在。“这是一种强大的迭代,但仍然是以前被监管过的事物的迭代,”他说。
如果自主性在提高,保险公司是否应该像过去审查人类流程一样审计人工智能的输出?霍兰德认为应该如此。“如果你要上线一个模型,这个过程有一个生命周期:监控输出,检查它们在业务环境变化时是否按预期工作,”他解释说。
“我们正在加强机器学习操作,并开始考虑人工智能操作和大语言模型操作——这是对我们现有流程的进化,而不是重新发明轮子。”
克莱对此表示赞同,但他从文化入手。“对我们来说,审计始于对代理产生的一切内容持健康怀疑态度,”他说。
科维亚引入了“人工智能冠军”模式,为员工提供了一个明确的升级路径,如果他们觉得有什么不对劲。“健康怀疑一直是我们在培训中强调的一个短语,”他补充说。
与人工智能同步前进
讨论反映了保险业对代理型人工智能的谨慎乐观。随着保险公司从能够“告知和协助”的生成工具转向可以“推理、规划和执行任务”的系统,面临的挑战在于平衡:行动过快,风险会增加;行动过慢,则可能失去竞争优势。代理型人工智能很快可能具备处理理赔、承保风险和追踪欺诈的“手脚”,但其采用必须谨慎管理,需要有人类监督、强大的治理和劳动力准备。
文化和运营韧性仍然至关重要。保险公司必须在员工中培养“健康怀疑”态度,提供提示和监督培训,并建立明确的升级路径。可解释性、审计和监控输出将是确保自主系统可靠并符合业务目标的关键。
对于安盛的保罗·霍兰德而言,目标是“转型服务,转型流程,为客户提供显著更有效的体验。”对于科维亚的汤姆·克莱而言,重点在于减少摩擦而非取代人员,并确保采用过程渐进且价值导向。如果实施得当,代理型人工智能不仅能提高效率,还能改善结果、提升客户体验,并为保险行业下一阶段的人工智能发展做好准备的劳动力。
点击这里观看网络研讨会
。
赞助内容
(以上内容均由Ai生成)