量子启发式 AI 能否与当今的大型语言模型竞争?
快速阅读: 据《福布斯》称,Dynex公司的量子扩散大型语言模型(qdLLM)在SXSW 2025创新奖中入围决赛,宣称比传统系统更高效。通过量子启发算法和去中心化GPU网络,qdLLM在推理和能耗上表现出色。尽管还需验证,但Dynex认为量子计算将在五年内主导AI领域。
量子人工智能
Getty Images
随着大型语言模型(LLMs)持续快速演进并主导生成式人工智能领域,量子计算与人工智能交汇处正悄然发生一场变革。越来越多的研究者和企业开始探索量子计算的原则是否能够解决当前人工智能基础设施面临的一些限制,特别是在可扩展性、效率和推理复杂度方面。其中一项值得注意的发展来自Dynex公司,这是一家位于列支敦士登的企业,最近在SXSW 2025创新奖评选中凭借其量子扩散大型语言模型(qdLLM)入围决赛。该公司声称,其qdLLM比依赖现有技术基础设施的传统基于变压器的系统更快、更高效地生成生成式AI输出。这与其他新兴方法相比表现如何?这对人工智能的更广泛未来又意味着什么?
**量子计算对AI的意义**
从根本上讲,量子计算与经典计算的不同之处在于利用量子比特(量子位)。由于量子叠加,这些量子比特可以同时处于多种状态。这使得量子计算机能够并行评估大量潜在解决方案,可能在需要大规模优化、模拟或模式识别的任务中提供优势。在人工智能背景下,研究者已探讨量子特性如何提升自然语言处理、机器学习优化和模型训练效率等任务。然而,大多数这些努力仍处于早期阶段。例如,IBM和麻省理工学院研究了混合量子-经典模型如何缩短特定深度学习任务的训练时间;而像Zapata AI这样的初创公司则正在试验用于情感分析和预测的量子增强型模型。
**更多内容**
如果你看到这两个词,请删除手机上的所有文本。
苹果iPhone 17 Pro和iPhone 17 Pro Max:最新泄露承诺新设计
你有16天的时间遵守——新规则影响5亿Outlook用户
在此背景下,Dynex提出了采用量子启发算法的新架构,通过分布式硬件更高效地运行LLMs。Dynex的qdLLM:基于扩散的并行方法
与传统基于变压器的模型逐字生成响应不同,Dynex的qdLLM基于扩散模型并行生成输出标记。据Dynex称,此方法在计算上更高效,且能生成更好的上下文一致性。“传统模型如GPT-4或DeepSeek是逐字工作的,”Dynex联合创始人兼Dynex Moonshots任务负责人丹妮埃拉·赫尔曼解释道,“qdLLM是并行工作的。它更像人类大脑,一次性处理所有模式。这就是量子的力量。”
斯坦福大学、Google DeepMind及主要AI技术提供商的一些学术项目近期开始探索基于扩散的Transformer模型。Dynex进一步通过整合量子退火(一种量子优化形式)优化文本生成过程中的标记选择,从而区别于其他公司。该公司称,这与传统LLMs相比提升了连贯性并减少了计算开销。
**去中心化与模拟量子硬件**
Dynex模型的一大特色是其依赖于去中心化的GPU网络,而非依赖实际量子硬件。这种设计使得该系统可扩展至Dynex描述的多达一百万个算法量子比特。赫尔曼解释道:“任何量子算法,比如qdLLM,都在一个去中心化的GPU网络上进行计算,这些GPU有效模拟量子计算。”这种模拟与谷歌和X开发的TensorFlow Quantum工作类似,后者也在经典硬件上模拟量子电路以原型化算法。同样,不少科技初创企业和供应商正在开发平台,在物理硬件准备就绪前大规模模拟量子逻辑。
除了软件,Dynex计划在2025年推出自己的神经形态量子芯片,名为阿波罗。与需要低温冷却的超导量子芯片不同,阿波罗被设计为在室温下运行,支持集成到边缘设备。“采用神经形态电路使Dynex能够在大规模上模拟量子计算,最多达一百万个算法量子比特,”赫尔曼解释说。“Dynex将开始生产基于神经形态范式的实际量子芯片。”
**AI效率和环境影响的量子视角**
Dynex表示,qdLLM实现了90%更小的模型大小,速度提高了十倍,并且仅需通常用于等效任务10%的GPU资源。这些声明意义非凡,尤其在人们对AI能耗日益关注的情况下。“量子算法的效率和并行性降低能耗,因其速度快十倍,仅需10%的GPU数量,”赫尔曼说道。Dynex表示,qdLLM实现了90%更小的模型大小,速度提高了十倍,并且仅需通常用于等效任务10%的GPU资源。这些声明意义非凡,尤其在人们对AI能耗日益关注的情况下。尽管尚需独立验证,但Dynex的方法与Cerebras Systems的努力遥相呼应,后者创造了片上规模的芯片,每个训练任务使用的能量更少。另一个例子是Graphcore,其智能处理单元(IPU)旨在通过专用并行架构减少AI工作负载的能量消耗。
Dynex报告称,qdLLM在需要强推理能力的基准测试中表现优异,包括ChatGPT和Grok。尽管尚未公开基准数据,但该公司表示将在接近2025年市场发布时公布比较研究。在同行评审的基准结果出来之前,Dynex的性能声明虽属轶事性质,但颇具吸引力。“我们定期发布qdLLM的基准测试结果,并证实某些需要强推理的问题无法被ChatGPT、Grok或DeepSeek正确解答,”赫尔曼指出。
**更大的图景:量子如何影响AI?**
从长远看,Dynex认为量子计算将是AI领域的核心。“我们认为量子将在未来五年内主导AI,”赫尔曼说道。这一预测仍属推测,但并非没有先例。麦肯锡、波士顿咨询集团和高德纳的分析师均注意到,量子计算可能会极大改善优化和模拟任务,但很可能要到2030年后才能在大多数应用场景中实现。更为谨慎的观点认为,量子-AI混合体将首先出现在利基应用领域,如药物研发、金融风险建模或网络安全。
“我们认为量子将在未来五年内主导AI,”赫尔曼说道。目前,Dynex与其他越来越多尝试量子增强或量子启发式AI方法的参与者并肩前行。其去中心化、基于扩散的qdLLM能否超越基准测试仍有待观察,但它的到来表明在AI中寻找新基础的搜索远未结束。
(以上内容均由Ai生成)