让日常 AI 安全可信
快速阅读: 《加州大学圣地亚哥分校新闻中心》消息,翁教授获NSF资助,研发可解释神经网络模型,提升AI安全性与可信度。项目旨在提高AI透明度、简化调试及确保高风险领域的安全性,推动AI造福社会。此研究将帮助下一代科学家构建负责任的AI系统。
作为美国国家科学基金会(NSF)竞争激烈的计算机与信息科学工程(CISE/IIS)核心项目奖项的获得者,翁教授负责的项目名为“可信深度学习的基础:具备鲁棒性保障的可解释神经网络模型”。该项目旨在开发一个可扩展、自动化的框架,帮助人们理解人工智能在模型层面如何做出决策——就像一个将复杂机器(AI)推理转化为简单、人类友好的解释的翻译器一样,从而更清晰地洞察神经网络的思考和推理方式。
翁教授的研究结合了分析的严谨性和实用系统的实现,推动了具有重要意义的可信人工智能的发展,这符合计算、信息和数据科学新学院的使命。SCIDS临时院长兼HDSI创始主任Rajesh K. Gupta说道:“翁教授的研究结合了分析严谨性和实用系统实现,推动了具有重要意义的可信人工智能的发展,这符合计算、信息和数据科学新学院的使命。”
“作为一名初级教员和单个首席研究员获得这一奖项是一种有意义的认可。它凸显了我们实验室研究的重要性,并强调了我们在推动可信人工智能方面工作的科学与社会意义。”翁教授表示。
该项目研究的关键方面包括利用翁教授在可信机器学习(ML)方面的专长来开发一个可扩展、自动化的解释框架。与许多现有技术通常主观且难以扩展不同,这个新框架旨在使用对人类直观的基于文本的概念自动解释模型的决策过程,类似于老师将复杂问题分解为更简单、易懂的步骤。该框架还将通过设计显著推进可解释ML和AI安全领域,在DNN中实现内在的概念级可解释性。
最终,这个项目旨在使AI不仅更智能,而且更安全、更容易被信任,为研究人员提供更好的工具来理解和改进实际应用中的AI系统。通过这种方法,翁教授与其可信机器学习实验室的研究生团队计划达成三个目标:1)提高透明度,确保AI系统所做的决策易于理解和信任;2)简化调试过程,帮助研究人员和开发者快速识别并修复错误,如同机械师诊断汽车故障一般;3)在高风险领域实现更安全的AI,及时干预至关重要。
“通过使AI更具可解释性和稳健性,我们的工作将确保深度学习技术不仅强大,而且在日常生活中安全、可靠且广受信任。”翁教授还提到她的团队项目的深远社会影响。
“通过开创更具可解释性和稳健性的深度神经网络,我们解决了在医疗、交通和刑事司法等关键领域对透明和可靠AI的迫切需求。”翁教授说,“例如,在医疗领域,可解释的模型可以增强诊断工具,使医疗专业人员能够做出知情且值得信赖的决策,从而改善患者结果。在自动驾驶领域,加强AI的稳健性和可解释性将有助于更安全的导航技术,降低因AI错误导致事故的风险。”
此项目标志着实现AI造福社会承诺的重要一步。
翁教授分享了她对获得这笔资助的兴奋之情。“这为我们提供了推动可信AI研究边界的机会,并对科学界和社会产生切实影响。我也特别兴奋于弥合AI令人印象深刻的潜力与其可信度之间差距的可能性。通过开发可扩展且易于人类理解的解释框架,我们可以超越深度学习的‘黑箱’性质,打造既强大又透明、可控且符合人类价值观的AI系统。”
最后,翁教授指出,这笔资助使她能够指导热衷于AI安全的学生和研究人员,培育下一代致力于构建负责任且具道德意识的AI科学家。“展望一个AI不仅创新而且安全、可靠的未来,真是令人鼓舞。”她说。
本项目得到了NSF(项目编号2430539)的支持。欲了解加州大学圣地亚哥分校更多关于研究和教育的信息,请访问:[相关网站链接]。
(以上内容均由Ai生成)