BI 发现,在公共 Google Docs 中扩展 AI 暴露了有关 Meta 和 xAI 等客户端的敏感数据
快速阅读: 据《商业内幕》称,Meta投资143亿美元后,Scale AI被曝使用公共Google文档存储机密信息,引发安全担忧。文件可被任何人访问,涉及谷歌、Meta等客户项目及承包商隐私。公司称正调查并加强安全措施。
在Meta投资143亿美元之后,Scale AI努力向客户保证其数据安全。然而,泄露的文件和这家初创公司的承包商指出,该公司存在严重的安全漏洞。《商业内幕》发现,Scale AI经常使用公共Google文档来跟踪像谷歌、Meta和xAI这样的知名客户的项目,导致多个标有“机密”的AI训练文件任何人都可通过链接访问。承包商告诉《商业内幕》,该公司依靠公共Google文档共享内部文件,这种方法对于其至少24万名承包商而言更为高效,但也带来了明显的网络安全和保密风险。Scale AI还留下了包含数千名承包商敏感信息的公共Google文档,包括他们的私人电子邮件地址以及是否被怀疑“作弊”。其中一些文档可以被任何人通过正确的URL查看甚至编辑。目前尚无迹象表明由于这些原因Scale AI遭受了数据泄露。两名网络安全专家告诉《商业内幕》,这种做法可能会使公司及其客户面临各种类型的黑客攻击,例如黑客冒充承包商或上传恶意软件到可访问的文件中。Scale AI告诉《商业内幕》,该公司高度重视数据安全,并正在调查此事。“我们正在进行彻底的调查,并已禁用任何用户从Scale管理的系统中公开分享文档的能力,”Scale AI的一位发言人说。“我们仍然致力于强大的技术和政策保障措施,以保护机密信息,并且一直在努力加强我们的实践。”Meta未予回应。谷歌和xAI没有回应评论请求。在Meta这笔重大投资之后,谷歌、OpenAI和xAI等客户暂停了与Scale的合作。上周,Scale在一篇博客文章中向大型科技公司客户保证,它仍然是一个中立且独立的合作伙伴,具有严格的安全标准。该公司表示,“确保客户信任一直是并将继续是首要任务”,并且“有强大的技术和政策保障措施来保护客户的机密信息”。《商业内幕》的发现引发了关于Scale是否尽了足够的努力来确保安全,以及Meta在打钱之前是否了解这一问题的质疑。
机密AI项目可被访问
《商业内幕》能够查看85个单独的Google文档中的数千页项目文件,这些文档与Scale AI为大型科技公司客户的工作有关。这些文件包括敏感细节,如谷歌如何利用ChatGPT改进其自己的困难聊天机器人,后来称为Bard。Scale还留下至少七本由谷歌标记为“机密”的操作手册,任何人都可以通过链接访问这些文档。这些文件说明了谷歌认为Bard的问题——即它在回答复杂问题时遇到困难,以及Scale承包商应该如何解决这些问题。据《商业内幕》本月早些时候报道,对于埃隆·马斯克的xAI,Scale运行了至少10个生成式AI项目,截至4月,公共的Google文档和电子表格显示了“Xylophone项目”的详细信息。训练文档和700个对话提示列表揭示了该项目如何专注于提高AI在从僵尸末日到管道等各种话题上的对话技能。Meta的培训文档被标记为“机密”,但也可以被任何人通过链接访问。这些文档包括可访问音频文件的链接,展示了“好”和“坏”的语音提示示例,这表明Meta为其AI产品设定的表达性标准。此前,《商业内幕》曾报道,一些项目专注于训练Meta的聊天机器人更加口语化和情感上更具吸引力,同时确保它们能安全地处理敏感话题。截至4月,Meta至少有21个生成式AI项目与Scale合作。《商业内幕》采访的几位Scale AI承包商表示,即使他们被赋予了代号,他们也很容易知道他们为哪家客户工作,通常只是根据任务的性质或指令的措辞。有时甚至更容易:《商业内幕》看到的一份演示文稿上有谷歌的标志。即使项目本应匿名化,来自不同项目的承包商描述了他们立即认出客户或产品的经历。在某些情况下,只需提示模型或直接问它它是哪个聊天机器人,就能揭示背后的客户。
Scale AI将承包商信息公之于众
其他Google文档暴露了Scale承包商的敏感个人信息。《商业内幕》审查了未锁定的电子表格,这些表格列出了数千名员工的姓名和私人Gmail地址。一些被《商业内幕》联系的承包商表示,他们惊讶地发现自己的信息对任何拥有文档链接的人都可访问。相关报道 《商业内幕》讲述你想要知道的创新故事 《商业内幕》讲述你想要知道的创新故事 《商业内幕》讲述你想要知道的创新故事 许多文件都包含了他们的工作表现细节。一份名为“好人和坏人”的电子表格将几十名工人划分为“高质量”或涉嫌“作弊”。另一份包含数百个个人电子邮件地址的清单标题为“处理所有作弊任务者”,也标记了工人的“可疑行为”。另一张表列出了近1000名被错误禁止使用Scale AI平台的承包商。其他文件显示了个别承包商的报酬,以及详细的薪资争议和差异备注。这个系统显得极为混乱
五位现任和前任Scale AI承包商表示,他们在不同的项目上工作,告诉《商业内幕》,使用公共Google文档在公司内广泛存在。承包商表示,使用这些文档简化了Scale的运营,因为该公司主要依赖自由职业者。为每个承包商管理单独的访问权限会减慢流程。Scale AI的内部平台要求工作人员进行自我验证,有时需要使用摄像头,承包商告诉《商业内幕》。同时,许多包含AI模型训练信息的文档可以通过公共链接或其它文档中的链接访问,而无需验证。“整个Google文档系统一直显得极为混乱,”一名员工说。另外两名员工表示,他们仍然可以访问不再工作的旧项目,这些项目有时会根据客户公司关于如何训练模型的要求进行更新。“当然这是危险的。”
哥伦比亚大学网络安全讲师约瑟夫·斯坦伯格告诉《商业内幕》,通过公共Google文档组织内部工作可能会带来严重的网络安全风险。“当然很危险。在最好的情况下,这可能被用于社会工程学攻击,”他说。社会工程学指的是黑客欺骗员工或承包商,让他们泄露访问权限,通常是通过伪装成公司内部人员。斯坦伯格表示,让数千名承包商的详细信息轻松可访问为这类泄露创造了大量机会。同时,增加对安全的投资可能会减缓成长型初创企业的发展。“真正花时间正确做安全的公司往往处于劣势,因为其他公司更快进入市场,”斯坦伯格说。
一些Google文档可以被任何人编辑,这会带来风险,比如坏人插入恶意链接供他人点击,网络安全公司Trace3的区域总监斯蒂芬妮·库茨告诉《商业内幕》。库茨补充说,公司应该从通过邀请管理访问权限开始。“随意分享,希望别人不分享链接,这不是一个很好的策略,”她说。
有线索吗?
通过电子邮件联系这位记者:crollet@insider.com 或通过Signal和WhatsApp拨打628-282-2811。使用个人邮箱和非工作设备;以下是分享信息的安全指南。
(以上内容均由Ai生成)