新加坡的 AI 安全愿景弥合了美中鸿沟
快速阅读: 《有线》消息,新加坡政府发布了全球人工智能安全合作蓝图,该文件在多国人工智能研究人员会面后制定。文件呼吁国际合作应对AI风险。 blueprint《新加坡共识》强调三方面合作:研究AI风险、开发更安全模型及控制AI系统行为。
新加坡政府今日发布了一份关于全球人工智能安全合作的蓝图。这份文件是在来自美国、中国以及欧洲的人工智能研究人员会面后制定的。文件提出了一项共同愿景,即通过国际合作而非竞争来推动人工智能安全研究。麻省理工学院的科学家马克斯·泰格马克(Max Tegmark)提到:“新加坡是少数能够与东方和西方都融洽相处的国家之一。”他上个月协助召集了这次人工智能专家会议,“他们深知仅靠自身无法独立开发通用人工智能(AGI),而这将由其他国家完成。因此,让他们正在开发这些国家相互交流非常符合他们的利益。”当然,普遍认为最有可能开发出AGI的国家是美国与中国,然而,这两个国家似乎更倾向于互相竞争而非合作。今年一月,中国初创公司DeepSeek发布了一个前沿模型后,特朗普总统将其视为“对我们行业的一记警钟”,并表示美国需要“专注于竞争以取胜”。
《新加坡共识》关于全球人工智能安全研究的重点呼吁研究人员在三个关键领域展开合作:研究前沿人工智能模型带来的风险,探索更安全地构建这些模型的方法,并开发控制最先进的AI系统行为的方式。这一共识是在4月26日于国际学习表征会议(ICLR)期间召开的会议上形成的。ICLR是一个顶级的人工智能活动,今年在新加坡举办。OpenAI、Anthropic、谷歌DeepMind、xAI和Meta的研究人员均参加了人工智能安全活动,麻省理工学院、斯坦福大学、清华大学以及中国科学院等机构的学者也出席了会议。此外,美国、英国、法国、加拿大、中国、日本和韩国的人工智能安全研究所的专家亦参与了讨论。
清华大学院长薛澜在声明中指出:“在全球地缘政治分裂的时代,这项关于人工智能安全的前沿研究的全面综合是一个令人鼓舞的迹象,表明全球社区正带着共同的承诺团结起来,塑造一个更安全的人工智能未来。”
日益强大的人工智能模型的发展,其中一些展现出了令人惊讶的能力,已让研究人员担忧一系列风险。尽管有人关注近期的危害,如由有偏见的人工智能系统引发的问题或犯罪分子可能利用该技术,但许多人认为,随着人工智能在更多领域的表现超越人类,它可能会对人类构成生存威胁。这些研究人员有时被称为“人工智能末日论者”,他们担心这些模型可能会欺骗和操控人类以追求自己的目标。人工智能的潜力还引发了关于美国、中国及其他强国之间军备竞赛的讨论。在政策层面,这项技术被视为经济繁荣与军事优势的关键,许多政府都在寻求制定自己的愿景和规定,以引导其发展。
(以上内容均由Ai生成)