“失控”:专家敦促在巴黎会谈中就人工智能安全采取行动
快速阅读: 据《新西兰先驱报》最新报道,马克斯·泰格马克,未来生命研究所负责人,呼吁法国在巴黎峰会中引领人工智能安全行动。该研究所支持的全球风险和人工智能安全准备平台(Grasp)旨在评估并应对AI相关风险。报告协调员约书亚·本吉奥强调,专家们担忧人类可能失去对AI系统的控制,尤其是通用人工智能(AGI)的发展。泰格马克建议应像监管核能一样监管AI行业。
马克斯·泰格马克,位于美国的未来生命研究所的负责人,该研究所经常警告人工智能的危险性,告诉法新社,法国不应错失行动的机会。“法国一直是国际合作的倡导者,并且有机会真正引领世界其他国家,”这位麻省理工学院的物理学家说。“在巴黎峰会上,这里有一个重要的决策点,应该被拥抱。”“生存意志”泰格马克研究所支持周日启动了一个名为全球风险和人工智能安全准备平台(Grasp)的平台,旨在绘制与人工智能相关的重大风险以及世界各地正在开发的解决方案。“我们已经识别出大约三百种工具和技术来应对这些风险,”霍德斯说。调查结果将被传递给经合组织这个富国俱乐部以及全球人工智能合作伙伴(GPAI)的成员,这是一个由近三十个国家组成的团体,包括主要的欧洲经济大国、日本、韩国和美国,他们将在巴黎会面。过去一周还见证了第一份《国际人工智能安全报告》于周四发布,该报告由九十六位专家编撰,并得到三十个国家、欧盟和经合组织的支持。报告中概述的风险范围从熟悉的网络虚假内容到更为令人担忧的情况。不断有证据显示,生物攻击或网络攻击等额外风险的存在,”报告协调员、著名计算机科学家约书亚·本吉奥告诉法新社。长期来看,二〇一八年的图灵奖得主本吉奥担心人类可能会失去对人工智能系统的控制,这可能是由于“它们自身的生存意志”。“就在六年前,许多人还认为达到像ChatGPT-4这样的语言掌握水平是科幻小说;然后它就发生了。”“现在最大的问题是,许多有权势的人还没有意识到我们离构建通用人工智能(AGI)更近了,而不是找到如何控制它的方法。”超越人类智能?AGI指一种在所有领域都能与人类相匹敌或超越的人工智能。这种技术的发展前景被包括OpenAI首席执行官萨姆·阿尔特曼在内的业内人士所看好。“如果你只是粗略地看看这些能力提高的速度,确实会让你认为我们会在二〇二六年或二〇二七年实现这一目标,”达里奥·阿莫迪说。“最坏的情况下,这些美国或中国公司会失去对这些技术的控制,之后地球将由机器掌控,”泰格马克说。OpenAI首席执行官萨姆·阿尔特曼(右),宣布投资人工智能基础设施。照片/盖蒂图片社加州大学伯克利分校计算机科学教授斯图尔特·罗素表示,他最大的恐惧之一是“那些由AI控制的武器系统决定何时何地发动攻击”。罗素同时也是国际安全与伦理人工智能协会(IASEI)的协调员,他认为政府有责任建立防止武装AI的保障措施。泰格马克说,解决办法非常简单:应像对待其他行业一样对待人工智能行业。“在巴黎以外的地方建造一个新的核反应堆之前,必须向政府指定的专家证明这个反应堆是安全的。人工智能也应如此,”泰格马克说。——法新社
(以上内容均由Ai生成)