AI 安全教育得到推动,以应对日益增长的网络威胁
快速阅读: 《AZoAI》消息,随着人工智能在关键系统中的快速应用,安全漏洞成为重大威胁。新泽西理工学院、罗格斯大学和天普大学的研究人员获得12.7万美元资助,开发教育材料以预防此类风险。课程涵盖计算机视觉、语音识别等领域,并注重实践操作。项目成果将通过多个平台分享,并有望成为未来人工智能安全教育的标准部分。
乔尔·斯坎伦 审核 2025年2月9日
随着人工智能快速融入关键系统,安全漏洞构成了重大威胁。研究人员正在创建实践教育工具,以培训下一代保护人工智能免受对抗性攻击,确保更加安全的技术未来。图片来源:AntonKhrupinArt / Shutterstock
在现代软件中,安全漏洞的列车正全速驶向人工智能轨道,而来自新泽西理工学院、罗格斯大学和天普大学的专家们正在开发新的教育材料,以防止碰撞。
新泽西理工学院的石聪,是温·英·吴计算机学院的助理教授,他是国家科学基金会资助的12.7万美元项目“对抗性机器学习攻击下的人工智能系统安全教育”的负责人。他之前对计算机视觉系统和语音助手的安全研究使他与合作者罗格斯大学的陈英英和天普大学的王岩意识到,未经适当教育的人工智能快速广泛采用可能暴露巨大风险。
石聪进一步解释了为什么人工智能课程通常缺乏安全方面的内容。“我认为主要原因在于人工智能技术的快速发展,以及对良性应用(如ChatGPT和其他广泛使用的AI模型)的极大关注。”他说,“与传统网络安全相比,人工智能安全仍然是一个相对较新的领域。尽管网络安全教育长期侧重于保护数据、网络和系统,但人工智能安全提出了独特的挑战——如对抗性示例和模型投毒——教育者可能还不熟悉或尚未准备好系统地教授这些内容。”
“这一认识促使我们致力于教育下一代工程师和研究人员,为他们配备开发安全且稳健的人工智能系统的技能,”石聪说。
课程将包括小组项目、实验室工作和编程作业,重点涉及人工智能/机器学习主题,如提供图像识别和物体检测的计算机视觉,以及包括说话人识别和语音识别在内的语音助手问题。在三年的项目期间,研究人员将从教师和学生那里收集反馈,并将与另一位天普大学教授王玉合作,后者在教育评估方面有专长。他们预计会遇到诸如学生背景多样性和简单性与技术深度之间的平衡等挑战。
“这些实验室为学生提供了设计和实验新型攻击方法以及探索创新防御策略的绝佳机会。例如,学生可以参与设计嵌入音乐中的对抗扰动,以劫持语音助手系统中的AI模型。他们还可以探索减轻物理攻击挑战,如改变攻击距离和声学失真,”石聪继续说道。“除了图像和音频领域,学生可以将其所学应用于其他领域的安全AI模型,如用于聊天机器人的自然语言处理、物联网设备以及智能家居、医疗设备和自动驾驶汽车等网络物理系统。由于该项目包括物理对抗性攻击模块,学生和研究人员可以进一步研究环境因素(如光照、距离和噪音)如何影响实际场景中的攻击成功率。”
项目成果将与两个国家科学基金会项目共享——大学层面的CyberCorps服务项目和K-12层面的GenCyber项目——并通过GitHub、Launchpad和SourceForge等在线平台分享。
“一些同事[在新泽西理工学院]表示有兴趣利用提议的模块,特别是实践实验室和项目,来增强他们的教学,”石聪说。“学生们对对抗性机器学习和防御机制表现出日益浓厚的兴趣。”
展望未来,他表示:“在未来十年内,我看到人工智能安全教育将显著扩展。它可能会演变为一个更跨学科的领域,融合网络安全、机器学习、计算机视觉、自然语言处理甚至伦理学的元素。学生不仅需要掌握技术技能,还需要理解部署安全人工智能系统的更广泛的社会和伦理影响。”
“此外,随着人工智能在各行业的普及,人工智能安全将成为所有层次——从K-12到高级研究生课程——人工智能和网络安全课程的标准组成部分。我们很可能会看到更多强调实践学习的内容,实用实验室和项目将成为人工智能安全教育的重要组成部分,帮助学生为应对现实世界的挑战做好准备。”
(以上内容均由Ai生成)