在信任和信心的花岗岩基础上构建企业 AI
快速阅读: 据《福布斯》最新报道,企业级AI需兼顾安全与保障,除成本和性能外,还需重视模型完整性。DeepSeek R1虽具成本优势但存安全隐患,而IBM Granite 3.2在推理能力和安全性上表现更优且成本更低。企业在选择AI模型时应综合考量风险与收益,确保系统的安全合规与长期稳健运行。
企业级人工智能的安全与保障
弗朗西斯·希德科
尽管推理成本和性能是企业级人工智能的关键因素,但它们并非唯一需要考虑的方面。企业还必须确保其人工智能模型能够应对严格的安全、隐私和监管合规要求。强大人工智能战略的核心在于能够在部署的人工智能系统中建立并保持信任和信心。这意味着除了优化成本和性能外,企业还需要优先考虑模型的完整性和安全性。确保人工智能系统受到充分保护、符合数据保护法规并能妥善处理敏感信息至关重要。当企业评估哪些基础模型应作为其人工智能实施的一部分时,应该采用这种全面的方法。
例如,考虑最近发布的具有最新链式思维推理能力的一些模型。一方面,有由DeepSeek使用DeepSeek R1蒸馏出的Qwen 2.5 7B和Llama 3.1 8B两个模型;另一方面则是IBM的Granite 3.2。鉴于DeepSeek从其R1模型中蒸馏出了这两个模型,因此在分析这些模型的安全性和保障性时,必须首先评估DeepSeek R1。DeepSeek在其发布最新模型DeepSeek R1时引起了轰动,展示了以传统成本的一小部分训练高性能模型的可能性。这种成本效益也延伸到了推理使用上,使其成为希望利用人工智能的企业经济实惠的选择。然而,尽管DeepSeek R1在性能和成本效率方面取得了显著进步,但它被发现存在严重漏洞。在思科进行的一项研究中,DeepSeek R1在研究期间的所有尝试中都容易受到越狱攻击。此外,它对中国某些话题表现出强烈的偏见,比如对过去某些政治起义进行了压制。
Granite 3.2是由IBM开发的一系列模型家族,包括语言模型、时间序列模型、地理空间模型、嵌入模型、推测解码模型和监护人模型。在此次3.2版本更新中,还加入了视觉模型。类似于由DeepSeek R1蒸馏出的Qwen 2.5 7B和Llama 3.1 8B,Granite 3.2将推理能力整合进其语言模型中。然而,与基于DeepSeek的模型不同,IBM声称其开发Granite 3.2的方法在保证安全性和稳健性的同时仍能提供推理能力。
上述图表显示了IBM使用AttaQ基准测试的结果。该基准测试利用大约1400个问题,涵盖欺骗、歧视、有害信息、物质滥用或色情内容等多个类别,以触发目标模型并评估其生成有害、不准确或不当响应的倾向。数据显示,当使用DeepSeek R1将推理能力赋予较小的模型如Qwen 2.5 7B和Llama 3.1 8B时,安全性和稳健性会受到影响;而IBM的链式思维推理实现则保持了结果的可靠性。
除了这种内在方法来维持安全性之外,作为其Granite模型家族的一部分,IBM还提供了名为Granite Guardian的配套护栏模型,以进一步改善内置性能,并帮助企业实施护栏,而不仅仅是Granite模型。Granite Guardian于去年作为IBM初始Granite 3.0发布的一部分首次推出,用于评估输入提示和输出响应中的偏见、安全性和幻觉。更具体地说,这些模型经过训练可以检测越狱行为、偏见、暴力、粗俗语言、色情内容、不道德行为以及RAG和功能调用幻觉。虽然这些功能在之前版本中也可用,但根据IBM的说法,最新的3.2版本在性能不变的情况下,使用的活动参数减少了多达40%。这种参数减少显著降低了成本和延迟。
关于成本方面,通过API访问DeepSeek R1的成本约为每百万输出标记2.19美元;运行在watsonx.ai上的Granite模型的成本范围为每百万输出标记0.10至0.20美元,比DeepSeek R1便宜一个数量级,同时仍然保持了IBM模型的信任度。这些成本适用于通过云服务提供商部署的模型。当本地部署时,成本将根据内部部署情况有所不同。然而,云服务提供商的部署成本可作为良好参考指标,以大致估算本地化实施所需的投入。
这些因素并不一定意味着如果DeepSeek是适合工作的工具就不能或不应该使用它。但是,它们确实强调了在选择用于构建企业级人工智能系统的模型时,进行全面风险评估和管理框架的重要性,该框架应考虑成本、性能、安全性、保障性以及数据和培训合规性。在大多数应用场景中,企业必须优先考虑稳健的安全措施、定期合规评估和持续监控,以减轻实施此类系统带来的固有风险。评估确保运营完整性的总成本应成为关键考量,而不是单纯按每个标记的成本计算。
(以上内容均由Ai生成)