Red Hat 和 Samsung 扩展了 AI 和内存集成
快速阅读: 《硅角度》消息,红帽公司与三星合作优化AI和内存技术,解决数据访问和系统兼容性问题。通过开源创新和工程策略,红帽助力AI模型获取机构知识并实现无缝集成,为企业提供稳定可靠的AI基础设施解决方案。
寻求将人工智能基础设施从实验室实验推向生产就绪解决方案的企业面临一个熟悉的瓶颈:数据访问、系统兼容性和规模化性能。红帽公司正通过与硬件和芯片合作伙伴的协作解决这一难题,最近与三星电子合作,以优化实际企业环境中的人工智能和内存技术。红帽公司首席技术官办公室副总裁兼杰出工程师斯蒂芬·瓦特(如图所示)与theCUBE讨论了公司的开源创新及与三星的合作。“我认为这一切都始于大型语言模型,”斯蒂芬·瓦特表示。“我认为我们曾经历过预测性人工智能的时代,现在随着生成式人工智能的兴起,在训练、微调和推理这三个领域有许多新的应用场景和有趣的用例。去年,我们推出了InstructLab,实现了微调模型的普及化。通过我们的Neural Magic收购,我们在推理方面有了更多投入,这涉及服务模型并在企业中为应用程序创造价值。”
瓦特在红帽峰会上与theCUBE研究的罗布·斯特雷查伊和theCUBE主持人丽贝卡·奈特进行了交谈,这是SiliconANGLE媒体直播工作室theCUBE独家广播的一部分。他们讨论了红帽不断发展的AI基础设施战略、开源创新及其与三星的合作。(* 披露:theCUBE是红帽峰会的付费媒体协办方。红帽公司,作为theCUBE活动报道的主要赞助方,以及其他赞助商均不对theCUBE或SiliconANGLE的内容拥有编辑权。)
照片来源:硅立方
在上下文中扩展AI基础设施并保持控制
红帽与三星的合作重点是实现参考架构之间的兼容性,以支持新兴的Compute Express Link内存市场。根据瓦特的说法,目标是在混合基础设施中创建一个生态系统,使企业在性能和延迟要求使数据本地化至关重要的情况下能够放心地部署AI工作负载。“我认为这都与上下文有关,”他说。“有检索、增强、[检索增强生成],然后是[Kafka] Raft,它应用RAG进行微调。我们在上游Llama Stack项目中有一个新兴的故事,我们刚刚做了很多工作来启用所有这些功能。”
随着人工智能在边缘、数据中心和云环境中的扩展,红帽正凭借其分布式系统的专长来控制推理扩散。据瓦特所述,该公司优先采用的工程策略旨在让机构知识更易于被AI模型获取,并探索新的架构模式以实现无缝的模型集成。“我认为再次回到上下文,有两个特定的领域,”他说。“一个是向量数据库。你把这些[提取、转换、加载]管道中的文档分块并放入那些向量数据库中。一旦这样做,你就能够基本上将组织内部的知识添加到可以从大型语言模型中访问的内容中。另一个非常有趣的是面向服务架构的演进……将其与大型语言模型对接——我认为这两者结合起来非常令人兴奋。”
开源仍是红帽处理AI基础设施方法的核心。根据瓦特的说法,随着模型开发和AI部署的创新加速,该公司继续投资于支持透明、信任和长期可行性的发展社区。“创新的速度、新项目的涌现、正在发生的颠覆性创新……我们的角色就是构建一条稳定的软件供应链,让企业能够使用已稳定且安全的软件,”他说。
以下是完整的视频访谈,这是SiliconANGLE和theCUBE对红帽峰会报道的一部分:
(* 披露:theCUBE是红帽峰会的付费媒体协办方。红帽公司,作为theCUBE活动报道的主要赞助方,以及其他赞助商均不对theCUBE或SiliconANGLE的内容拥有编辑权。)
照片来源:硅立方
来自硅立方联合创始人约翰·弗瑞尔的一条消息:
您的支持对我们非常重要,它帮助我们保持内容免费。只需点击一下即可支持我们的使命,提供免费、深入且相关的内容。
加入我们的YouTube社区
加入包括超过15,000名#CubeAlumni专家的社区,其中包括亚马逊CEO安迪·贾西、戴尔科技创始人兼CEO迈克尔·戴尔、英特尔CEO帕特·基辛格等众多名人和专家。
“theCUBE是我们行业的重要伙伴。你们真的是我们活动的一部分,我们真的很感谢你们的参与,我知道人们也欣赏你们创造的内容。”——安迪·贾西
谢谢您!
(以上内容均由Ai生成)