AI工厂加速智能系统发展,自改进应用引领未来
快速阅读: AI原生应用发展迅猛,推动AI工厂建设,以满足其对高效计算、存储和网络的需求。Together Computer CEO Vipul Prakash指出,AI应用增长速度远超传统SaaS,对基础设施提出更高要求。
AI原生计算正在重新定义进步的方式——将数年的开发周期压缩至几天,加速了智能系统的发展,这些系统能够学习、适应并进化。推动这一浪潮的是AI工厂:现代计算的动力站。这些专为数据处理设计的数据中心不仅追求性能优化,还在规模、能效和架构设计上改写规则,以支持新一代自改进的AI原生应用。随着创新周期缩短,问题不再是基础设施能否跟上步伐,而是它能多快地自我革新。
Together Computer的联合创始人兼首席执行官Vipul Prakash讨论了AI原生应用与AI工厂之间的关系。“当SaaS应用快速增长时……它们可能在九个月内翻倍,”Prakash说,“这被认为是极快的增长速度。现在我们看到AI原生应用在九天内就能实现这样的增长。我们的客户扩展速度非常快,他们的产品极具吸引力,并在全球范围内推广,这导致了对高效AI计算的巨大需求。”
Prakash在接受theCUBE的John Furrier采访时,于theCUBE + NYSE Wired: AI Factories – Data Centers of the Future活动期间,讨论了AI原生应用的爆炸性增长、所需的支持基础设施以及企业在构建自己的AI工厂中的新兴角色。
AI原生应用是指其核心功能由AI模型驱动的应用,Prakash解释道。与后期添加AI特性的传统应用不同,这类应用依赖模型本身存在。例如ChatGPT、Cursor和用于视频生成的Hedra。“这与在传统应用中引入一些AI特性不同,因为AI在这里处于核心地位,”他说,“它们对效率、规模和底层AI基础设施增长的要求极为苛刻,真正推动了快速建设这些消耗大量数据以学习并高效生产的AI工厂的需求。”
支持AI原生应用需要专门的基础设施——AI工厂,这些设施需具备大规模吞吐能力和计算、存储及网络的持续可用性。随着企业扩大AI项目规模,许多企业开始转向开源模型,利用自有数据微调这些模型,创建出媲美闭源方案的定制高性能解决方案,Prakash指出。“一旦拥有数百万用户,就会收集到大量数据和成功标准,”他说,“这些数据是微调开源模型的宝贵资源。我们看到的情况是,应用使用闭源API,但会将流量分割,部分流量通过自建或改编的开源模型处理,这些模型通过Together实现大规模部署。”
最大的基础设施挑战之一是数据传输。AI系统要求数据靠近计算资源,以便在训练、微调和推理过程中快速访问。Together AI通过构建与模型紧密相连的大规模存储系统来解决这一问题,确保最低延迟,Prakash提到。“我们有机器人模型的实体系统,这些模型具有相当大的初始数据集和生成数据集,”他说,“未来几年,我们将看到AI工厂配备大量的存储空间。”
以下是完整的视频采访,这是SiliconANGLE和theCUBE对theCUBE + NYSE Wired: AI Factories – Data Centers of the Future活动报道的一部分。
由技术远见者约翰·富里尔和戴夫·韦兰特创立,SiliconANGLE Media 已构建了一个涵盖行业领先的数字媒体品牌的动态生态系统,覆盖超过1500万高端技术专业人士。我们新推出的专有产品 theCUBE AI Video Cloud 正在观众互动领域取得突破,利用 theCUBEai.com 的神经网络帮助技术公司做出数据驱动的决策,保持在行业对话的前沿。
(以上内容均由Ai生成)