研究人员提出了一种更好的方法来报告危险的 AI 缺陷
快速阅读: 据《有线》称,一项由多所高校和企业共同发起的提案建议,建立机制快速标记并公开AI模型错误,提高产品安全性。该提案正值拜登政府的人工智能安全研究所面临不确定性之时。相关讨论已涉及多家大型AI公司,但尚未获正式回应。
这项倡议背后的研究人员包括来自麻省理工学院(MIT)、斯坦福大学、普林斯顿大学和卡内基梅隆大学的学者,以及微软和Mozilla等大型公司,还有若干独立的人工智能研究机构。露丝·阿佩尔参与了这项提案的制定工作,她是斯坦福大学的一名博士后研究员。她说,需要一种正式的方式快速标记人工智能模型中的错误,并让公司公开承担责任。如果没有这样的机制,“用户可能会体验到更差的产品,甚至可能是更危险的产品,因为这些令人担忧的影响可能导致缺陷未被上报或根本未被察觉,”她说。
这一提案出台之际,拜登政府创建的人工智能安全研究所正面临不确定的未来,因为埃隆·马斯克领导下的效率促进部门正在实施削减措施。朗普雷和阿佩尔于去年十月在普林斯顿大学组织了一场关于第三方披露人工智能漏洞的研讨会。该活动吸引了例如谷歌、OpenAI、微软和Cohere等公司研究人员的参与。
朗普雷表示,研究人员已经开始与一些大型人工智能公司的研究人员讨论这些提案,其中包括OpenAI、谷歌和Anthropic。这些公司尚未回应置评请求。
朗普雷是此前呼吁公司修改服务条款以允许第三方研究人员测试模型的研究人员之一,但这一情况并未发生。前谷歌研究员尼古拉斯·卡里尼曾在2023年发现GPT-3.5的缺陷,并在普林斯顿研讨会上表示,缺陷报告机制需要改进。“很难明确知道具体该怎么做这些事,”卡里尼说,“我认为我们需要作为整个学术界开展大量工作,来建立更多的规范。”
(以上内容均由Ai生成)