AI与人类联手对抗欺诈,提升金融安全
快速阅读: i2c公司采用人机协作治理模式,结合人工智能与分析师判断力,降低误报率,缩短调查周期,提升客户体验,同时确保系统的可解释性和透明度,适应新法规要求。
欺诈环境的变化速度前所未有,且越来越多的不法分子开始利用人工智能。随着深度伪造、合成身份和自动化社会工程手段日益复杂,反欺诈专家正借助自身的人工智能技术来检测隐藏在数十亿数据点中的异常情况。
不过,i2c公司欺诈风险管理及争议运营副总裁马修·皮尔斯表示:“对我们而言,人工监督不仅仅是合规的检查项目,实际上是一种竞争优势。”
皮尔斯在接受PYMNTS采访时表示,虽然代理型人工智能可以识别模式并发现异常,但在模型内部仍可能发生情境错误。这时,训练有素的分析师就显得尤为重要。“通过嵌入式人机协作治理,i2c能够将机器智能的速度和规模与经验丰富的分析师所能带来的判断力、细微差别和伦理推理相结合。”他说道。
该公司采用的混合方法不仅降低了误报率,缩短了调查周期,还“在提供审计线索和可解释性的同时,为客户提供了更顺畅的体验。”
随着新法规的出台,包括加州最新的AI和数据使用法律,监管机构要求金融机构在部署自动化系统时必须具备可解释性和透明度。“监管机构的态度非常明确,”皮尔斯说,“对客户产生重大影响的人工智能必须是可解释的、可审计的和可问责的。”
他补充道,欧洲和美国的监管指导现在“强调高风险系统的透明度、人工监督和可追溯性。”
规模化应用人工智能:杠杆效应
对于皮尔斯而言,规模化应用人工智能不是为了取代人力,而是为了在最关键的地方发挥人的作用。“扩大监督范围是一场杠杆游戏,”他说,“我们利用人工智能进行筛选和优先级排序,然后将人类分析师应用于能够增加更多边际价值的领域,而不是处理日常琐事。”
“i2c的风险模型按置信度和影响程度分级。低置信度或高影响事件会自动升级到系统中的分析师,”他解释道,而其他事件则由程序处理。
这使得人类专家可以专注于“高价值调查而非常规初步评估。”
“扩大监督是一项投资,”皮尔斯说,“但如果设计得当,它将降低每案成本并随时间减少欺诈损失。”
减少摩擦而不牺牲安全
降低误报率也是关键绩效指标之一。“误报是最影响客户体验的因素,”皮尔斯说,“这对持卡人来说很烦人,增加了支持成本,也导致客户流失。i2c的混合系统利用人工智能实时评分和情境分析,将模棱两可或高影响案例转给分析师进行‘人性化决策’。”
“例如,他们可以确认快速增加的交易量是否为合法的旅行交易,或者是否真的是一次协调攻击,”他说,“由于有人类审核员参与,我们可以迅速解决边缘案件,真正客户遭遇的拒付减少,被阻止的交易也能更快恢复。”
对于金融机构而言,这意味着更低的争议数量、更少的不必要的冲销、减少的客户服务负担和更高的客户保留率。
简言之,“就是更少的客户投诉和更好的经济效益,”皮尔斯说——这是在风险管理中罕见的双赢局面。
随着人工智能的成熟,人类的角色也在演变
随着人工智能能力的增强,皮尔斯认为人类的角色将向战略、监督和治理方向转变。
他预计会有三个具体变化。“首先,更多以治理为中心的角色——人类成为模型管理者和领域专家,验证、解释和调整模型。其次,重复的初步评估任务将减少,”他说,“人工智能将处理大量日常事项,人类将在法规需求和判断的背景下行动。第三,更强的合作——人类和机器将共同设计实验,使用合成数据测试模型,并加快迭代速度。”
其结果将是持续改进循环,而非定期更新。
“简言之,人类的角色将变得更加战略性和监督性——监督人工智能,确保其按预期大规模工作,确保决策公平、可解释并与业务成果一致,”皮尔斯说。
皮尔斯预测,人类判断与自动化规模的结合将成为行业标准。“我们确实期望这种混合模型将成为受监管机构的标准模式,”他说。
马修·皮尔斯是i2c公司的欺诈风险管理及争议运营副总裁。
(以上内容均由Ai生成)