Scale AI 存在数据安全问题
快速阅读: 《商业内幕》消息,Meta投资143亿美元后,Scale AI被曝使用公共Google文档存储机密AI项目,引发安全担忧。文件泄露,承包商信息外泄,客户暂停合作。公司称正在调查。
在Meta投资143亿美元后,Scale AI努力向客户保证其数据安全。然而,泄露的文件和该公司承包商表示,其存在严重的安全漏洞。Business Insider发现,Scale AI经常使用公共Google文档来跟踪如Google、Meta和xAI等知名客户的任务,使得多个标有“机密”的AI训练文件对任何拥有链接的人都可访问。承包商告诉BI,该公司依靠公共Google文档共享内部文件,这种方法对其至少24万名承包商的团队来说很高效,但显然存在明显的网络安全和保密风险。人工智能专家解释了如何将生成式AI纳入您的业务战略。Scale AI还留下了包含数千名承包商敏感信息的公开Google文档,包括他们的私人电子邮件地址以及他们是否被怀疑“作弊”。其中一些文档可以被任何人通过链接查看甚至编辑。目前尚无迹象表明由于此,Scale AI遭受了数据泄露。两位网络安全专家告诉BI,这种做法可能会使公司及其客户面临各种类型的黑客攻击,例如黑客冒充承包商或上传至可访问的文件中。Scale AI告诉Business Insider,他们非常重视数据安全,并正在调查此事。“我们正在进行彻底的调查,并已禁用了任何用户从Scale管理的系统中公开分享文件的能力,”Scale AI的一位发言人表示。“我们始终致力于强大的技术和政策保障措施,以保护机密信息,并且一直在努力加强我们的实践。”Meta拒绝置评。谷歌和xAI没有回应评论请求。在Meta巨额投资之后,像Google、OpenAI和xAI等客户暂停了与Scale的合作。上周,Scale在一篇博客文章中向大型科技客户保证,它仍然是一个中立且独立的合作伙伴,并具有严格的安全标准。该公司表示,“确保客户信任一直并将始终是首要任务”,并且“有强大的技术和政策保障措施来保护客户的机密信息”。BI的发现引发了关于Scale是否足够确保安全,以及Meta在打钱之前是否了解该问题的疑问。
机密AI项目可被查看
BI能够查看85个单独的Google文档中的数千页项目文件,这些文档与Scale AI为大型科技客户的工作有关。这些文件包括敏感细节,例如Google如何利用ChatGPT改进其表现不佳的聊天机器人,后来称为Bard。Scale还留下至少七份由Google标记为“机密”的操作手册,任何人都可以通过链接访问这些文档。这些文件详细说明了Google认为Bard的问题——即它在处理复杂问题时存在困难,以及Scale承包商应如何解决这些问题。据BI本月早些时候报道,对于埃隆·马斯克的xAI,Scale自4月以来至少开展了10个生成式AI项目,公开的Google文档和电子表格显示了“Project Xylophone”的细节。培训文件和一份700个对话提示列表揭示了该项目如何专注于提高AI在从僵尸末日到管道等各类话题上的对话技能。标记为“机密”的Meta培训文件也对任何拥有链接的人公开。这些文件包括可访问音频文件的链接,其中包括“好”和“坏”语音提示的例子,这表明Meta为其AI产品设定的表达性标准。此前BI曾报道,一些项目专注于训练Meta的聊天机器人更加口语化且富有情感地互动,同时确保它们能安全处理敏感话题。截至4月,Meta至少有21个生成式AI项目与Scale AI合作。BI采访的几位Scale AI承包商表示,即使他们被分配了代号,也很容易弄清楚自己为哪家客户工作,通常只是根据任务的性质或指令的表述方式。有时甚至更容易:BI看到的一份展示材料上有Google的标志。即使项目本应匿名化,不同项目的承包商描述了他们立即认出客户或产品的经历。在某些情况下,只需向模型提问或直接问它它是哪个聊天机器人,就能揭示背后的客户。
Scale AI让承包商信息公开
其他Google文档泄露了Scale承包商的敏感个人信息。BI审查了未加密的电子表格,这些表格列出了数千名工人的姓名和私人Gmail地址。几位被BI联系的承包商表示,他们惊讶于自己的信息可被任何拥有链接的人访问。相关故事 Business Insider讲述您想了解的创新故事。许多文件都包含了关于他们工作表现的细节。 一份标题为“好人和坏人”的电子表格将数十名工人划分为“高质量”或涉嫌“作弊”。另一份包含数百个个人电子邮件地址的清单名为“移动所有作弊任务者”,还标记了员工的“可疑行为”。另一张表列出了近1000名被错误地从Scale AI平台上封禁的承包商。其他文件显示了个别承包商的报酬,以及详细的薪资争议和差异说明。
这个系统看起来“非常不专业”
五位现任和前任Scale AI承包商表示,他们在不同的项目上工作,向BI透露,使用公共Google文档在公司内广泛存在。承包商告诉BI,使用它们简化了Scale的运营,因为Scale主要依赖自由职业者。为每个承包商设置单独的访问权限会减慢流程。Scale AI的内部平台要求工人进行自我验证,有时使用他们的摄像头,承包商告诉BI。同时,许多包含AI模型训练信息的文档可以通过公共链接或其他文档中的链接访问,而无需验证。“整个Google文档系统一直看起来非常不专业,”一名员工说。另外两名员工表示,他们仍然可以访问已结束的旧项目,这些项目有时会根据客户公司关于如何训练模型的请求进行更新。
“当然这是危险的”
哥伦比亚大学网络安全讲师约瑟夫·斯坦伯格告诉BI,通过公共Google文档组织内部工作会产生严重的网络安全风险。“当然这是危险的。在最好的情况下,这可能引发社会工程学攻击,”他说。社会工程学指的是黑客欺骗员工或承包商让他们泄露访问权限,通常是通过伪装成公司内部人员。斯坦伯格表示,让数千名承包商的详细信息极易被访问,这为这种类型的漏洞提供了许多机会。同时,增加对安全的投资可能会减缓增长导向的初创公司的发展。“真正花时间正确做安全的公司往往失去竞争优势,因为其他公司更快进入市场,”斯坦伯格说。
一些Google文档可以被任何人编辑,这会带来风险,网络安全公司Trace3的区域总监斯蒂芬妮·库茨告诉BI。库茨补充说,公司应该从通过邀请管理访问开始。“把它公开并希望没人分享链接,这不是一个好的策略,”她说。
有线索吗?请通过电子邮件联系这位记者:crollet@insider.com 或通过Signal和WhatsApp拨打628-282-2811。使用个人电子邮件地址和非工作设备;这里是我们的安全信息共享指南。
(以上内容均由Ai生成)