AI 使用美光和其他公司的芯片获得内存
快速阅读: 据《福布斯》最新报道,美光科技成立新部门专注生产HBM芯片,三星与台积电合作研发。英伟达因出口管制受挫,股价下跌。HBM芯片具高带宽、低延迟特性,适用于AI等领域。中美科技博弈加剧,影响多家公司业绩。
美光科技正在通过组建新的“云内存业务部门”推动变革,该部门专注于生产HBM芯片,即高带宽内存芯片。HBM芯片是一种传统的三维堆叠式SRAM微处理器,通常应用于高性能硬件设置。在模型设计领域,我们观察到大型语言模型(LLMs)能够借助内存中的上下文数据提升内存容量及功能性。因此,这种硬件革新显得合情合理。
有趣的是,谁是这些芯片的主要参与者?据HBM市场知情人士透露,美光、三星以及SK海力士是全球领先的HBM芯片供应商。那么,具体是谁在制造这些芯片呢?以三星为例,行业新闻表明,三星正在与竞争对手的代工厂台积电合作研发HBM芯片。我们已多次看到台积电在市场上作为代工厂占据主导地位。其他公司依赖台积电的强大生产能力进行原始制造,并基于此制定自身的发展策略。这反过来引发了从汽车芯片短缺到近期由于出口管制引发的地缘政治问题等一系列挑战。似乎如果世界上有十几个代工厂制造商,情况可能会更好。
然而,在制造这些高设计芯片时,三星和台积电并非直接与英伟达竞争。其他行业报道显示,英伟达曾计划从三星采购这些芯片,但供应商未能达到英伟达的要求。在三月二十日的新闻发布会上,英伟达首席执行官黄仁勋提到,三星“发挥了重要作用”,但他也强调,公司尚未正式采购三星的HBM3E芯片。
**HBM芯片:内部结构**
首先,HBM芯片是一种三维堆叠式DRAM类型的芯片。HBM芯片通过将内存单元靠近CPU或GPU,从而降低延迟,实现高带宽和低功耗。我向ChatGPT询问了更多关于这些芯片的规格信息,它提供了以下内容:
– 带宽:每堆栈819GB/s
– 速度:每针6.4GB
– 容量:每堆栈最高可达64GB
– 热效率:更高效的能耗
– 应用场景:人工智能、高性能计算、GPU(主要用于人工智能应用)
ChatGPT还提供了一个有趣的图表,对比了HBM架构与一款名为GDDR6的游戏芯片,后者更为经济实惠且易于获取:
您可以从公开资源中进一步了解HBM如何被设计以满足特定需求的信息。
**市场影响**
让我们简要回顾这一技术市场的动态,为CEO(或其他人)可能感兴趣的商业背景提供参考。首先,英伟达在过去一年内从历史高点下跌约40%,近期股价接近每股100美元,表面上看是因为受到美国出口管制的影响。英伟达CEO黄仁勋及其团队宣布英伟达将因新规定损失55亿美元的消息近期成为头条新闻。
接着是美光,目前股价约为每股70美元,大约是历史高点的一半,并且自冬季以来显著下跌。至于三星,短期内下跌了8%。类似地,像AMD这样的公司也出现了下跌趋势。
AJ Bell投资总监鲁斯·穆尔德表示:“英伟达,这家人工智能芯片领域的领军企业警告称,由于美国对华出口的新限制,其将遭受55亿美元的冲击,这标志着中美之间不断升级的博弈进入了新的阶段。”这是根据巴伦周刊的艾莎·奥赫伦引用他的说法。
更多内容:
如果您在手机上看到这两个词,请删除所有短信。
谷歌确认Gmail警告——立即停止使用密码。
苹果iPhone 17 Pro和iPhone 17 Pro Max:最新泄露承诺新设计。
这是关于一些正在发生的伟大新硬件发展的一些情况。在LLM新闻背景下,上下文是具有持久记忆的模型的进步。例如,我提到了使用芝麻提供的AI聊天伙伴,以及‘玛雅’在某些时候能记住我是回头用户的例子。除了思维链之外,记忆是所有那些我们期望从神经网络朋友和邻居那里得到的生动用例的重要能力构建者。
(以上内容均由Ai生成)