大大脑,小模型:西班牙的多元宇宙计算公司筹集 $215M 以缩小智能手机的 AI
快速阅读: 据《解密》最新报道,多维空间公司完成2.15亿美元B轮融资,其CompactifAI技术借助量子物理概念大幅压缩AI模型,减少93%内存和70%参数,同时保持高准确性。该技术有望解决AI模型过大问题,提升推理速度并降低成本。
多维空间(Multiverse)公司的CompactifAI技术据说将参数数量减少了70%,模型内存减少了93%,同时保持了97%-98%的准确性。这家公司刚刚完成了B轮融资,金额为2.15亿美元,由Bullhound资本领投,惠普科技风险投资公司和东芝参与投资。该方法利用量子物理中的张量网络来压缩模型,并通过快速微调“修复”它们,声称推理速度提升了50%。
Decrypt的艺术、时尚与娱乐中心。发现场景。
一家西班牙的人工智能初创公司刚刚说服投资者拿出2.15亿美元,基于一个大胆的主张:他们可以在不牺牲性能的情况下将大型语言模型缩小95%。
多维空间计算公司的创新在于其CompactifAI技术,这是一种压缩方法,借用量子物理中的数学概念,将人工智能模型压缩到智能手机大小。这家位于圣塞巴斯蒂安的公司称,他们的压缩版Llama-2 7B模型在推理时比原版快25%,使用的参数减少了70%,准确率仅下降了2-3%。
如果这种技术能够在大规模应用中得到验证,这将解决人工智能的一个大问题:模型如此庞大,以至于需要专门的数据中心才能运行。“历史上首次,我们能够剖析神经网络的内部工作机制,消除数十亿个虚假的相关性,从而真正优化各种人工智能模型,”多维空间的首席科学官罗曼·奥鲁斯在周四的一篇博客文章中说。
Bullhound资本领投了这轮融资,金额为2.15亿美元的B轮,惠普科技风险投资公司和东芝参与了投资。压缩背后的物理学
将量子启发的概念应用于解决人工智能最紧迫的问题听起来很不可能——但如果研究站得住脚,这就是真实的。
与传统的简单削减神经元或降低数值精度不同,CompactifAI使用张量网络——物理学家开发的一种数学结构,用于跟踪粒子相互作用而不被数据淹没。这一过程类似于为人工智能模型做折纸艺术:权重矩阵被折叠成更小、相互连接的结构,称为矩阵乘积算符。
系统并非存储神经元间的每一种连接,而是保留有意义的相关性,同时丢弃冗余模式,比如反复出现的信息或关系。多维空间发现人工智能模型并非均匀可压缩。早期层显得较为脆弱,而较深层——最近研究表明对性能不太重要的部分——可以承受激进的压缩。
这种方法使他们在其他方法失效之处实现了显著的尺寸缩减。压缩后的模型会经历一段短暂的“修复”过程——由于参数数量减少,重新训练所需的时间不到一个周期。该公司声称,由于减少了GPU-CPU传输负载,这一恢复过程比训练原始模型快50%。简而言之——按照公司的说法——你从一个模型开始,运行Compactify魔法,最终得到一个参数少于50%、推理速度提升至原来的两倍、成本更低、能力与原版相同的压缩版本。在研究中,团队展示了你可以将Llama-2 7B模型的内存需求减少93%,参数数量减少70%,训练速度提高50%,推理速度提升至原来的1.25倍——同时仅损失2-3%的准确性。
传统的压缩方法如量化(降低精度,例如减少小数位)、剪枝(完全移除不太重要的神经元,如同修剪树木枯枝)或蒸馏技术(训练一个小模型模仿大模型的行为)都无法接近这些数字。多维空间已服务超过100家客户,包括博世和加拿大银行,将其量子启发算法应用于能源优化和金融建模等领域。西班牙政府于三月共同投资了6700万欧元,使总融资额突破2.5亿美元。
目前,该公司通过AWS提供诸如Llama和Mistral等开源模型的压缩版本,并计划扩展到DeepSeek R1和其他推理模型。OpenAI或Claude等专有系统的版本显然不可用,因为它们无法用于实验或研究。这项技术的意义不仅在于节约成本。惠普科技风险投资公司的参与表明其对边缘人工智能部署的兴趣——在本地运行复杂的模型而不是云服务器。“多维空间的创新方法有可能为任何规模的公司带来增强性能、个性化、隐私和成本效率的人工智能好处,”惠普的技术和创新总裁段涛说。所以,如果你有一天在智能手机上运行DeepSeek R1,可能要感谢这些人。
编辑:乔希·奎特纳、塞巴斯蒂安·辛克莱尔、通用智能通讯录
由生成式人工智能模型Gen讲述的一周人工智能旅程。
(以上内容均由Ai生成)