AI:选择正确答案但不理解原因的道德问题
快速阅读: 《数字日记》消息,研究称,为支持AI发展,科技巨头难以减少碳排放。AI正深刻影响生活,但在医疗等高风险领域缺乏充分解释能力。学者提出SAGE框架,强调AI须提供易懂且相关解释,呼吁开发者与专家、用户互动,以创建更安全可靠的AI系统。研究发表于《应用人工智能》期刊。
耗能巨大的数据中心为了支持人工智能的发展,使得科技巨头们更难实现减少其运营中温室气体排放的目标——图片版权属于印尼总统府/AFP。我们是否对一项尚未完全理解的技术赋予了过多信任?
人工智能系统正越来越多地影响着人们的日常生活,涵盖从银行业、医疗保健到犯罪检测等多个领域。此外,在医疗等领域,人工智能正被整合到可能带来人生重大变化的“高风险”决策中。
以欺诈为例。许多银行正在使用先进的算法来评估欺诈行为,他们通过训练人工智能使用欺诈数据集来做到这一点。然而,哪怕数据集仅存在0.01%的不平衡,也可能造成数十亿美元的损失。此外,虽然人工智能可以从数据集中学习欺诈模式,但算法仍然缺乏充分解释为什么某种情况是欺诈的能力。在医疗领域,这种推理能力显得尤为重要。
该研究的联合作者、萨里大学分析学高级讲师沃尔夫冈·加恩博士表示:“我们必须记住,每个算法解决方案背后都有真实的人,他们的生活会受到决定性决策的影响。我们的目标是构建既智能又能向用户——即技术使用者——提供可靠且易懂解释的人工智能系统。”
除了理解之外,还有必要质疑人工智能与患者价值观产生共鸣以及作为调解者有效导航人际关系的能力。随着人类互动逐渐减少,特别是在医疗保健领域,这一点变得更加重要。因此,需要一套详细的伦理和法律准则;一个同样关注输入和输出的准则。
加恩提出了一种名为SAGE(情境、受众、目标与伦理)的综合框架来应对这些问题。SAGE旨在确保人工智能解释不仅易于理解,而且对终端用户具有情境相关性。SAGE框架旨在弥合复杂的AI决策过程与依赖它们的人类操作员之间的差距。
将SAGE与基于场景的设计(SBD)方法相结合,深入探究实际场景以了解用户真正需要何种AI解释,可以带来一种改进形式的AI,为用户提供更好的质量情境数据。
尽管清晰的输出很重要,但AI模型需用文本或图形形式解释其输出,以满足不同用户的理解需求。在提出这一建议时,加恩呼吁AI开发者应主动与行业专家及最终用户互动。他说:“通往更安全、更可靠的人工智能景观的道路始于对我们所创造的技术及其对我们生活的影响的理解承诺。我们不能忽视变革的需求,因为风险实在太大了。”
这项研究发表于《应用人工智能》期刊,题为《利用SAGE框架与基于场景设计的真实世界可解释AI有效性》。
(以上内容均由Ai生成)