金融科技巨头强调AI信任与透明度重要性
快速阅读: 格林多特首席产品官杜罗斯强调,AI在金融服务中需构建信任,确保数据安全、无偏见及透明度,以提高采纳率。公司采取负责任创新与监管对齐策略,结合传统与替代数据,扩大信贷准入。
人工智能(AI)正在重塑金融服务,从贷款决策到欺诈检测。然而,正如格林多特首席产品官梅丽莎·杜罗斯所警告的,这项技术的影响依赖于更基本的因素:信任。消费者必须相信他们的数据是安全的,AI驱动的决策没有偏见,金融机构对系统的运作方式是透明的。缺乏这些保证,采纳率将停滞不前。
“赢得客户的信任非常困难,但一旦他们把钱交给你或向你借贷信用,你就必须保持这份信任,”杜罗斯在接受PYMNTS采访时说。她强调,金融服务公司不能将AI视为“黑箱”,必须公开模型的运作方式。
信任的脆弱性
对于杜罗斯来说,AI的风险比传统系统更高。“人们倾向于把责任归咎于机器而非人为因素,”她说。她引用研究显示,即使事故无法由人类预防,受访者仍会责怪涉及的自动驾驶车辆。这种倾向直接适用于金融服务:当信用决策或欺诈阻止显得不公平时,消费者更可能指责AI。
因此,贷款机构必须设计能够“构建信任”的系统,通过嵌入可解释性和透明度来实现这一点。持续记录算法并开放与监管者的沟通是这一方法的核心。“我们应该能够随时展示我们如何使用AI,输入了什么数据,以及输出了什么结果,特别是当监管者提出询问时,”杜罗斯说。
负责任的创新与监督
据杜罗斯介绍,格林多特采取双管齐下的策略:负责任的创新和监管对齐。为了满足不断变化的州和联邦期望,该公司构建了“有弹性和灵活”的平台,可以快速调整以应对规则的变化。公司还建立了特定的监督结构,确保其使用的人工智能合规且公平。内部AI工作组审查员工测试或采用新工具的请求,而模型风险管理委员会定期评估输入的数据和生成的输出。“如果你输入的是有偏见的数据,输出的也将是有偏见的数据,”杜罗斯说。这一原则强调了格林多特在多样化数据和严格的合规检查方面的重视,将其作为核心保障措施。
传统数据与替代数据的结合
AI有潜力通过超越传统模型来改善贷款。但杜罗斯主张将现有框架与新能力相结合,而不是抛弃旧模式。“我们采取非常注重隐私的方法,这不仅体现在我们的系统上,也体现在我们的人员上。这是我们招聘的标准,也是我们文化中渗透的隐私优先思维,”她说。格林多特结合传统和替代数据集,以扩大信贷准入。“你可以使用传统的数据集,然后利用AI获取洞察力。随着AI建模的成熟,逐步替换这些传统系统和数据集,”她在接受PYMNTS采访时说。机器学习已经存在多年,但AI的速度和规模使其能比人类分析师更高效地提取洞察力。这为评估信用价值提供了新的途径,同时尊重消费者的隐私和监管规定。
在运营中的AI应用
格林多特不仅在信贷和合规方面应用AI,还在改进日常运营方面有所作为。杜罗斯提到,公司在客户服务中部署了AI,自动记录通话内容,减少了结束交互所需的时间。“通过与供应商伙伴合作,我们能够利用AI记录与客户的通话,”她说。自动化使客服代表能更快地转向下一个客户,同时情感分析提高了培训和脚本的质量。
在技术层面,公司的Arc平台,提供银行即服务功能,现在使用AI编码白标客户界面。“我们实际上使用AI来编写前端代码,”杜罗斯说。通过让工程师进入审查模式,而非要求他们编写每一行代码,格林多特获得了速度和效率。此外,公司正在探索使用人工智能分析客户对数字体验的反馈。过去,反馈需要人工团队手动收集和筛选数据,现在,杜罗斯说,AI可以聚合实际使用模式,生成有助于完善格林多特数字平台的洞察力。
数十亿美元流入AI
人工智能的快速发展既带来了机遇也带来了挑战。大多数风险投资资金流向了AI公司和工具,总额达到数十亿美元。这种资金的涌入意味着金融机构面临着日益增长的工具和供应商市场,其中并非所有都同样可靠。
她表示,企业内部必须建立明确的策略来评估、采用和监控AI。“员工对这项新技术非常兴奋,但我们需要确保新工具能够得到有效利用和监控。”
金融领域的人工智能指南
在制定AI采用路线图时,Douros敦促公司将其实践与监管重点相一致。高审查领域的借贷和欺诈预防需要最大的透明度和监督,而操作用途如编码或文档管理则具有较低的监管风险。
她强调,目标不仅是采用最新的AI工具,而是要嵌入一种责任感文化。“当我们使用AI时,我们希望确保进行的是负责任的创新。信任是最终的标准,”她补充说,“信任只能通过透明度、公平性和出现问题时的责任承担来获得。这些确实是我们使用AI时的指导原则。”
绿点公司首席产品官Melissa Douros领导着该公司金融产品的战略、设计、开发和交付。
(以上内容均由Ai生成)