评论:谷歌在军事人工智能上做出了危险的掉头
快速阅读: 据《亚洲新闻台》称,从那时起,OpenAI和Anthropic等AI公司纷纷转向与国防承包商合作。谷歌也因缺乏有效监管机制而偏离初衷。这警示我们需要尽快制定法律,规范军事人工智能的发展,包括强制人类监督、禁止自主武器,并设立国际机构执行安全标准。谷歌的转变或将推动政府采取行动,以避免人工智能带来的严重风险,如自动化战争。
从那时起,例如,开放人工智能(OpenAI)已与国防承包商安杜里尔工业公司合作,并向美军推销其产品。(就在去年,OpenAI 还禁止任何人将其模型用于“武器开发”。)自称为安全至上的AI实验室的Anthropic也在2024年11月与帕兰蒂尔科技公司合作,向国防承包商出售其AI服务克劳德。谷歌本身多年来一直在努力为其工作创建适当的监督机制。它在2019年解散了一个颇具争议的伦理委员会,然后一年后解雇了两位最著名的AI伦理总监。公司已经偏离了最初的宗旨,以至于看不到它们了。硅谷的同行们也是如此,他们本不应被允许自我监管。即便如此,如果幸运的话,谷歌的转变将在下周对政府领导人施加更大的压力,促使他们制定具有法律约束力的军事人工智能开发法规,以免在竞争态势和政治压力下难以实施这些规定。规则可以很简单。强制要求所有人工智能军事系统必须有人类监督。禁止任何完全自主的武器,这些武器可以在未经人类批准的情况下选择目标。并确保这些人工智能系统能够接受审查。一个合理的政策建议来自生命未来研究所,该研究所曾由埃隆·马斯克资助,现由麻省理工学院物理学家马克斯·泰格马克领导。它呼吁建立一个分级系统,让国家当局将军事人工智能系统视为核设施一样对待,要求提供明确的安全保障证据。在巴黎召开的各国政府还应考虑设立一个国际机构来执行这些安全标准,类似于国际原子能机构对核技术的监督。他们应有权对违反这些标准的公司(及国家)实施制裁。谷歌的转变是一个警告。即使是最坚定的企业价值观,在超热市场和一个不容说“不”的政府压力下也可能崩溃。不要作恶的自我监管时代已经结束,但现在仍有机会制定具有约束力的规定,以避免人工智能带来的最严重风险。而自动化战争无疑是其中之一。
从那时起,例如,开放人工智能(OpenAI)已与国防承包商安杜里尔工业公司合作,并向美军推销其产品。(就在去年,OpenAI 还禁止任何人将其模型用于“武器开发”。)自称为安全至上的AI实验室的Anthropic也在2024年11月与帕兰蒂尔科技公司合作,向国防承包商出售其AI服务克劳德。谷歌本身多年来一直在努力为其工作创建适当的监督机制。它在2019年解散了一个颇具争议的伦理委员会,然后一年后解雇了两位最著名的AI伦理总监。公司已经偏离了最初的宗旨,以至于看不到它们了。硅谷的同行们也是如此,他们本不应被允许自我监管。即便如此,如果幸运的话,谷歌的转变将在下周对政府领导人施加更大的压力,促使他们制定具有法律约束力的军事人工智能开发法规,以免在竞争态势和政治压力下难以实施这些规定。规则可以很简单。强制要求所有人工智能军事系统必须有人类监督。禁止任何完全自主的武器,这些武器可以在未经人类批准的情况下选择目标。并确保这些人工智能系统能够接受审查。一个合理的政策建议来自生命未来研究所,该研究所曾由埃隆·马斯克资助,现由麻省理工学院物理学家马克斯·泰格马克领导。它呼吁建立一个分级系统,让国家当局将军事人工智能系统视为核设施一样对待,要求提供明确的安全保障证据。在巴黎召开的各国政府还应考虑设立一个国际机构来执行这些安全标准,类似于国际原子能机构对核技术的监督。他们应有权对违反这些标准的公司(及国家)实施制裁。谷歌的转变是一个警告。即使是最坚定的企业价值观,在超热市场和一个不容说“不”的政府压力下也可能崩溃。不要作恶的自我监管时代已经结束,但现在仍有机会制定具有约束力的规定,以避免人工智能带来的最严重风险。而自动化战争无疑是其中之一。
(以上内容均由Ai生成)