艾伦·图灵研究所 (Alan Turing Institute) 表示,英国人工智能研究正受到敌对国家的威胁
快速阅读: 据《IT 专业人员》最新报道,英国艾伦图灵研究所警告,英国的人工智能研究生态系统易受敌对国家威胁。报告指出,学术界对安全风险认识不足,且研究人员缺乏遵循现有安全指导的动力。研究所呼吁加强研究安全培训和风险评估,并建议政府提供更多资金和支持,以应对日益增长的安全威胁。
(图片来源:盖蒂图像)英国的人工智能研究生态系统容易受到敌对国家的威胁,艾伦图灵研究所发出警告。人工智能研究对敌对国家极具吸引力,因为它使用了敏感数据集,而且通过逆向工程人工智能技术的进步或将人工智能模型用于恶意活动的潜力巨大。例如,攻击者可以利用窃取的旨在防止人工智能系统滥用的工具来找出逃避检测的新方法。作为英国国家数据科学和人工智能研究所,该研究所强调英国在人工智能研究方面的先进水平使其成为特别高优先级的目标,也是国家资助的威胁行为者和间谍活动的重点目标。
“进一步推进人工智能研究无疑是英国的首要任务,但随着周围环境日益动荡,我们不能忽视伴随而来的安全风险,”研究员梅根·休斯表示。“学术界和政府必须致力于并支持这一长期被忽略的文化变革,以在学术自由和保护这一重要资产之间找到正确的平衡。”
报告警告称,学术界对安全风险的认识参差不齐。同时,研究人员几乎没有动力遵循现有政府关于研究安全性的指导,尤其是在学术人员面临发表研究成果的压力时。过去,英国学术机构面临过许多威胁,其中包括2023年对曼彻斯特大学的攻击。获取每日ITPro新闻通讯接收我们最新的新闻、行业更新、特色资源等。立即注册以获取我们关于2024年人工智能网络犯罪与安全的免费报告——最新更新版。请将新闻和优惠信息发送给我,来自其他未来品牌或赞助商。
2024年4月,军情五处向大学校长通报了敌对国家窃取知识产权以增强自身经济和军事能力的努力,暗示中国为主要责任方。10月,微软指出,几乎一半的英国高等教育机构每周都遭受入侵或网络攻击。它指出,攻击者的主策略包括使用恶意软件、物联网漏洞和网络钓鱼手段。正是在这种背景下,艾伦图灵研究所呼吁大学内部进行改革,并要求政府采取行动。
研究所表示,所有学术机构都应将向新员工和研究生研究学生提供认证的研究安全培训作为获得资助的条件之一,并在发布前对人工智能研究进行风险评估。它还呼吁像Universities UK或英国研究与创新(UKRI)这样的可信组织监督新的“集中尽职调查库”,记录人工智能研究的风险和决策。根据其提议,国家保护安全局(NPSA)和国家网络安全中心(NCSC)将更广泛地与英国出版公司、学术期刊和其他研究机构就威胁进行接触,提供定制化的支持。
与此同时,科学技术创新部可以为研究密集型大学提供更多资金和建议,帮助他们留住英国人工智能人才,并避免与被认为是“高风险”的机构合作。“如果英国要减轻人工智能研究中的风险,学术界需要进行文化变革,确保研究安全被视为高质量研究的关键要素,”艾伦图灵研究所的研究人员写道。“同样,政府需要制定长期战略,解决资金短缺和人才保留等结构性问题,同时提供有关威胁形势的明确信息,并持续支持机构提升意识。”
(以上内容均由Ai生成)