谷歌在 AI 安全报告上懈怠是一个大问题的 6 个原因
快速阅读: 《安卓警察》消息,谷歌等公司优先开发人工智能新功能而非注重安全和伦理,忽视自愿承诺,导致产品可能存在安全隐患。用户可能被迫充当Beta测试者,面临不安全的AI模型和数据滥用风险。需推动安全稳定的AI开发及监管。
人工智能领域的激烈争论并不少见,但随着大型语言模型(LLMs)的能力和威力不断提升,新的争议数量丝毫没有减少的迹象。我们预计每个新的人工智能功能都会引发争议(以最近由Ghibli图像驱动的ChatGPT-4o为例),但显然,在2025年,人工智能公司比以往任何时候都更重视人工智能竞争而非伦理与安全。这种情况已经持续多年,但开发者们往往将这些担忧视为过度担忧。然而,谷歌决定将安全报告放在次要位置,这是迄今为止最明显的鲁莽人工智能开发的例子。谷歌优先考虑Gemini的新功能,而不是安全报告,这可能会带来灾难性的后果。
这里为什么会有如此大的新闻,可能超出了你的想象。相关谷歌Pixel 9a的设备上AI为何不如Pixel 9的好。Gemini Nano XXS正式登场。帖子2除非被迫,谷歌不会优先考虑安全性。缺乏监管会导致不安全的产品。
这份报告最明显的结论是,谷歌在开发其人工智能产品时并没有优先考虑安全性。自谷歌开始发展人工智能以来,我们就知道这一点,当时谷歌搜索中最初的AI概览发布提供了危险且误导性的答案。然而,谷歌立即撤回了该功能,并最终重新发布了它,这表明它致力于达到基本的安全标准。尽管如此,这些事件可能还会再次发生。谷歌忽视其对安全研究报告的承诺比发布一个有缺陷的产品更为隐秘。虽然灾难性的人工智能失败经常成为头条新闻,但幕后进行的决策过程可能会造成真正的损害。偏见的决策可能未被察觉,但它们的实际影响不容忽视。如果没有对安全人工智能开发进行监管,谷歌将继续将安全研究报告推得越来越远。该公司在恶意地开发人工智能。除非能看到及时的人工智能安全报告,否则无法信任谷歌。
这份报告最明显的结论是,谷歌在开发其人工智能产品时并没有优先考虑安全性。自谷歌开始发展人工智能以来,我们就知道这一点,当时谷歌搜索中最初的AI概览发布提供了危险且误导性的答案。然而,谷歌立即撤回了该功能,并最终重新发布了它,这表明它致力于达到基本的安全标准。尽管如此,这些事件可能还会再次发生。
阅读描述自愿承诺开发安全和可靠的人工智能的完整文件,看看谷歌和其他公司究竟放弃了什么。谷歌通过Gemini处理大量个人数据,但它是如何处理这些数据的呢?Gemini每天处理大量的个人数据。虽然你可以阻止谷歌使用你的数据来训练Gemini,但这个功能默认是关闭的。谷歌经常承诺会尊重这些数据,但由于其安全报告的延迟导致的透明度缺失令人担忧。人工智能安全报告必须涵盖的八个要点之一是证明公司“优先研究人工智能系统带来的社会风险,包括避免有害的偏见和歧视,以及保护隐私”。没有这些安全报告,我们无法确切了解谷歌正在采取哪些措施来避免滥用这些个人数据。
当生成答案时,人工智能可能会得出错误或误导性的结论。如果谷歌没有遵循上述提到的指导原则,那么我们无法确定Gemini是否在利用我们的个人数据来创建有偏见的报告。相关谷歌Gemini收集的个人数据远远超过其竞争对手,这并不令人意外,它的深度集成伴随着代价。
帖子2 谷歌不会放弃不安全的人工智能模型。我们将看到越来越多不安全的人工智能发布来源:谷歌自愿人工智能承诺的三大原则是安全性、保障性和信任。为了兑现其对安全人工智能开发的承诺,谷歌必须“确保其产品在向公众推出之前是安全的”。没有伴随的人工智能安全报告,我们无法判断新发布的AI模型是否安全可用。然而,对于谷歌和其他开发人工智能产品的公司来说,向公众发布安全产品是有激励的。本质上,如果一款产品被认为不安全,使用量将会下降。然而,尽管过去Gemini存在诸多争议,使用量并未下降。Gemini网站的搜索流量继续增长,表明用户热情并未因Gemini的幻觉或误导信息而减弱。知道客户群对新功能的热情高于对安全性的警惕,这清楚地表明了谷歌的优先事项。它知道可以发布不安全的人工智能模型而不受重大反对,那为什么还要做出自愿的安全开发承诺呢?
人工智能公司在不安全开发模式上变得更加大胆。不安全开发的趋势正在加剧。谷歌并不是唯一一家忽视这些自愿承诺的公司。OpenAI的安全报告迟到了数周,而Meta的Llama 4报告则模糊不清,几乎毫无用处。Meta的Llama 4报告特别说明了这些报告可能有多无用。虽然报告中充满了诸如“我们的网络评估调查…”、“我们进行了威胁建模练习…”和“减轻系统固有的安全和安全风险”的短语,但Meta并未展示这些调查的结果。从技术上讲,Meta遵守了自愿承诺,但无法证明这一点。谷歌在不按时发布安全报告方面的大胆行为表明,它对保持安全报告的表面功夫不感兴趣。如果没有执行这些承诺,公司将效仿谷歌的做法,继续不发布安全报告。
从技术上讲,Meta遵守了自愿承诺,但无法证明这一点。谷歌在不按时发布安全报告方面的大胆行为表明,它对保持安全报告的表面功夫不感兴趣。政府不愿意执行法规。没有执行的自愿承诺毫无意义。在2025年2月巴黎的一次国际人工智能峰会上,英国和美国拒绝签署一项协议,承诺开放、包容和道德的人工智能开发方法。两国的理由都围绕着对人工智能开发监管的经济影响的担忧。只顾增长不顾安全的做法直接导致了像谷歌不发布人工智能安全报告这样的情况。最初由拜登-哈里斯政府撰写的指导原则指出,“公司希望这些自愿承诺在覆盖相同问题的法规生效之前一直有效。”正如美国副总统JD Vance在人工智能峰会上所言,在特朗普-Vance政府下,这些法规很可能无法实施。美国和英国都已向开发人工智能模型的公司表明,他们不会执行这些自愿承诺。
用户成了beta测试者。稳定版本之路充满坎坷。通过优先考虑新功能而非安全和稳定的开发,我们可以预期新的AI模型更有可能在推出时带有故障功能。这从人工智能的早期就开始是一个警告,但大型语言模型(LLMs)的快速发展修复了许多早期的AI聊天机器人问题。然而,随着每次新AI发布改进变得越来越微不足道,公司正在投入越来越多的资源以在竞争中占据优势。这其中的一部分努力涉及尽早发布新模型,然后稍后再修复问题。通过优先考虑新功能而非安全和稳定的开发,我们可以预期新的AI模型更有可能在推出时带有故障功能。这从人工智能的早期就开始是一个警告,但大型语言模型(LLMs)的快速发展修复了许多早期的AI聊天机器人问题。我们在谷歌搜索中的AI概览中看到了这种情况。谷歌匆忙推出了这一功能,然后在修复了最明显的问题后重新发布了它。
随着时间的推移,这种趋势应该会减少,但谷歌急于在没有安全报告的情况下发布新模型表明,每个新AI模型的首批采用者将遇到重大问题和安全风险。虽然我们预计谷歌最终会解决问题,但在测试新AI模型时,我们需要格外警惕。
通过优先考虑新功能而非安全和稳定的开发,我们可以预期新的AI模型更有可能在推出时带有故障功能。这从人工智能的早期就开始是一个警告,但大型语言模型(LLMs)的快速发展修复了许多早期的AI聊天机器人问题。我们需要像谷歌这样的公司承诺安全且稳定的AI开发。在2025年第一季度,我们看到谷歌和OpenAI在安全AI开发的承诺上迈出了重要的一步。尽管这些公司为我们提供了组织笔记和回答问题的出色工具,但缺乏对基本标准的承诺可能让我们个人数据被滥用。但如果你还想继续使用谷歌的产品,无论你喜不喜欢,你可能都得接受这些发展。
我们需要像谷歌这样的公司承诺安全且稳定的AI开发。相关当谷歌助手被淘汰时,我们的智能音箱会发生什么?Gemini可能会给我们的智能音箱带来巨大的变化。帖子81
(以上内容均由Ai生成)