AI影响雇主健康计划:三大关键问题需立即关注
快速阅读: AI在雇主资助的团体健康计划中的应用引发监管、伦理和法律挑战,特别是理赔审核、受托人监督和供应商合同方面,需确保AI辅助而非替代人类决策。
人工智能(AI)的应用已扩展至雇主资助的团体健康计划所使用的工具及其代表。这些AI工具引发了诸多关注。本文分析了计划赞助者和计划管理员亟需立即关注的关键问题。
深入探讨
AI背景
2022年11月30日,OpenAI向公众发布了ChatGPT。随即形成共识:首次有看似具备人类或接近人类智能的AI广泛可用。这一AI的公开发布并未受到所有方面的欢迎。
2023年3月,未来生命研究所发表了一封公开信,表达了对“AI实验室正在进行一场失控的竞争,开发和部署越来越强大的数字心智,而这些心智无人——甚至其创造者——能够理解、预测或可靠控制”的担忧。三年后,这种担忧可能显得有些夸大。如今,AI系统已无处不在;世界发生了根本性的变化,以至于难以理解;AI的真正影响可能需要数十年才能完全显现。
AI将革新众多领域之一是职场。我们的同事马乔丽·索托·加西亚、布莱恩·卡西利亚斯和大卫·P·桑德斯此前曾讨论过这一点(参见他们的演讲《职场AI:州法律如何影响雇主》,该演讲探讨了AI在人力资源和工作管理流程中的应用)。马乔丽和布莱恩在其文章《现代职场生成式AI的风险管理》中定义了各种类型的AI及其部署,我们推荐读者阅读以获得有用的背景信息。在此客户通告中,我们将探讨一个更为狭窄但同样至关重要的AI在职场中的子领域:AI如何影响雇主资助的团体健康计划。
雇主资助的团体健康计划是美国医疗保健领域的核心组成部分,覆盖超过1.5亿美国人。这些计划处于医疗服务提供、保险风险池和劳动法的交汇点。AI已成为健康管理领域的变革技术。AI赋能的工具有望提高效率、节省成本、改善临床结果并简化行政流程。然而,它们在团体健康计划中的应用引发了复杂的监管、受托人责任和伦理问题,特别是在1974年的《雇员退休收入保障法》(ERISA)下,该法几乎涵盖了所有职场员工福利计划。
雇主资助的团体健康计划使用或代表使用AI工具引发了诸多关注。然而,有三个问题需要计划赞助者和计划管理员立即关注:理赔审核、受托人监督和供应商合同。
理赔审核:自主决策
AI技术——定义为基于机器的系统,如算法、机器学习模型和大型语言模型——越来越多地被保险公司和第三方管理者(TPA)用于评估健康计划参与者的临床理赔。
AI系统可能用于做出基本资格决定,这些决定基于计划条款及相关员工和受益人的信息。更实质性的,AI系统也可能用于做出临床决定。例如,这些系统可以评估特定治疗或服务是否被认为是医学上必要的,基于训练数据和预编程规则。为此,AI系统可能会扫描诊断代码、患者历史记录和治疗指南,以确定理赔是否符合标准临床实践。AI已被用于简化承运人和理赔管理员的内部行政功能,其使用预计将进一步大幅增加。
关于预授权,AI工具有潜力通过自动化预授权请求、预测批准可能性以及标记需要加快人工审查的案例来改进这一过程。例如,AI可以将MRI成像请求与临床指南、患者历史记录和计划条款相匹配,以在几秒钟内推荐批准。
如果AI工具同时用于初始理赔审核和预授权,这将引发与训练数据相关的根本性问题。目前有三项联邦规则管理机器可读文件,旨在使理赔数据广泛可用:
医院价格透明度规则,要求医院披露项目和服务,包括医院标准(毛)收费、折扣现金价格以及医院与第三方支付者协商的最低和最高收费。
《透明度覆盖最终规则》要求健康计划披露网络内协商费率及历史网络外账单收费和允许金额。《2021年综合拨款法案》下的透明度规则对计划和发行人施加了额外的披露义务。这三项规则揭示了多年来提供者和承运人的做法。如果这些数据集用于训练AI工具,可能会导致一系列问题,例如固有偏见和系统性缺陷被嵌入其中。
对于团体健康计划的受托人来说,使用AI技术带来了两个基本问题。首先,AI模型本质上是黑箱。其次,AI的能力和准确性存在无法消除的局限性。AI技术的黑箱特性对团体健康计划的受托人构成了重大挑战。模型的不透明性使得ERISA(员工退休收入保障法)要求的监控和监督极为困难。需要建立强有力的第三方标准来制定测量科学和互操作性指标,以评估AI系统。此外,独立认证供应商的AI系统将有助于受托人达到ERISA的标准。理想情况下,美国劳工部(DOL)应像在涉及ERISA覆盖的养老金和福利计划的网络安全威胁等类似背景下所做的那样,发布指导。
关于AI能力和准确性的疑问同样让计划受托人感到棘手。当前的AI模型主要依赖于反向传播过程来不断改进可靠性。即使是最先进的AI模型也只能达到可靠性的渐近状态。这引发了一个法律门槛问题:受托人在多大程度上可以谨慎地依赖AI技术。实际上,他们可能已经在不知情的情况下依赖了AI,这意味着对AI模型的一些验证对于受托人来说是必要的,以确保他们能够满足ERISA的要求。
根据DOL的规定,ERISA受托人必须确保计划决策“完全出于参与者的利益”,并以审慎和勤勉的态度行事。将关键的索赔拒绝委托给不透明的AI模型可能违反这一职责。至少,AI工具应限于辅助决策的角色,最终决定权应由人类掌握。
供应商合同
一般而言,ERISA覆盖的团体健康计划使用AI时的一个重要现实是,AI通常由第三方管理人(TPAs)和保险公司代表计划使用,而不是直接由计划本身使用。对于大多数大型、多州自筹资金计划而言,这意味着大型国家承运人以仅提供行政服务(ASO)的身份行动。
ASO提供商在谈判合同条款方面具有显著优势。计划在委托索赔裁决时,如果不了解第三方如何使用AI进行索赔裁决,可能会违反受托人标准并面临审查。受托人应努力理解和评估将计划职能委托给第三方带来的风险,并采取适当的应对措施。至少,这需要团体健康计划坚持在合同中加入AI相关条款。例如,团体健康计划应坚持:
– 任何索赔拒绝都必须由人类临床医生审核并最终决定。
– ASO必须披露AI的测试和审计方式。
– 绩效保证和赔偿条款应涵盖AI相关的失败。
鉴于AI在团体健康计划管理中的应用尚处于初期阶段,ASO预计会抵制全面的AI条款,这突显了联邦指导和更明确市场标准的需求。
法律环境
州法律考虑
加州《医生做决定法案》是最突出的例子之一,该法案试图为团体健康计划使用AI制定规则。该法案将于2025年1月1日生效,禁止保险公司在某些索赔和利用审查中使用AI,并禁止健康保险公司仅基于医疗必要性而完全依赖AI拒绝任何索赔。该法案基于加州参议院第1120号法案,该法案要求,从总体上讲,任何治疗是否具有医疗必要性应由医疗专业人员而非AI决定。
类似的法律正在其他州如亚利桑那州、马里兰州、内布拉斯加州和德克萨斯州审议,这凸显了团体健康计划需要意识到并确保州法律合规,特别是在审查和谈判ASO合同时。
联邦机构指导
劳工部(DOL)和美国财政部发布了有限的间接指导,涉及AI的使用。这些指导展示了政府可能如何处理受益计划背景下的AI问题。
讨论了在《家庭和医疗休假法案》下使用人工智能的风险。在公告中,劳工部通常警告说,“如果没有负责任的人类监督,使用此类技术可能会带来潜在的合规挑战。”公告指出,即使类似违规行为也可能发生在人类决策过程中,但使用人工智能时违规行为可能在整个任务或劳动力中普遍存在。
财政部研究了金融服务业的人工智能应用情况,在一份报告中指出,虽然人工智能带来了各种好处,但也引发了关于偏见、可解释性和数据隐私的担忧,这些担忧同样适用于健康计划管理。
两家机构都强调了人类监督的重要性,呼应了《雇员退休收入保障法》规定的受托人义务。
《人工智能披露法案》
尽管尚未成为法律,《2023年人工智能披露法案》建议要求对人工智能生成的内容进行免责声明。如果该法案的某个版本获得通过,将进一步要求公司披露有关人工智能使用的某些信息。即使没有强制要求,计划赞助者也应考虑在使用人工智能工具进行沟通或理赔过程时自愿披露信息。
下一步行动和行动项目
虽然人工智能技术对雇主资助的团体健康计划具有巨大潜力,但其部署也带来了重要的受托人、伦理和监管挑战。计划仍需履行其在《雇员退休收入保障法》和其他适用法律下的法律责任,并确保人工智能不会自主做出临床或理赔决定,预授权系统透明且公平,数据偏差得到识别和纠正,受托人监督机制健全。受托人必须平衡创新与谨慎,确保人工智能是增强而非取代人类判断的工具。无论如何,人工智能的使用可能会增加受托人的监督义务,并需要持续监控。
鉴于人工智能的广泛使用及其对员工福利计划的影响,计划赞助者应考虑的实际措施包括:
清点人工智能使用情况:
确定计划以及第三方管理员、保险公司和其他供应商在理赔裁决、预授权和参与者沟通中使用人工智能的情况。
更新受托人流程:
将人工智能监督纳入计划委员会章程、会议议程和监督实践中。
审查合同:
在新旧合同中,协商披露、审计权利、性能保证和在涉及人工智能的情况下对拒绝进行人工复审的权利。
验证输出:
请求披露供应商关于测试、错误率和减轻偏差的文档,并在定期受托人委员会会议上与计划顾问一起审查这些文档。
关注州法律:
监测州立法活动(例如,加利福尼亚州),并更新合规程序。
计划受托人:
向委员会成员提供关于人工智能风险、局限性和《雇员退休收入保障法》下监测义务的培训。
保持文件监督:
记录与人工智能相关的查询、讨论和决定,以证明谨慎。
人工智能在福利领域的应用是一个复杂的话题。
(以上内容均由Ai生成)