Apple 的 MLX 增加了对 Nvidia GPU 的支持
快速阅读: 据《WebPro新闻》称,苹果宣布MLX支持英伟达GPU,提升AI开发效率与兼容性,推动跨平台协作。
据9to5Mac报道,7月12日,苹果公司宣布将其机器学习框架MLX扩展以支持英伟达公司的图形处理器。这一举措旨在打破苹果生态系统与主流GPU供应商之间的隔阂,使开发者可以在英伟达硬件上直接运行基于MLX的模型,从而降低人工智能创新的门槛。
MLX是苹果为在其自家芯片上高效进行机器学习而设计的开源框架。该框架利用了苹果芯片的统一内存架构,以其在设备端AI任务中的速度和易用性受到赞誉。现在,随着英伟达GPU的集成,开发者可以将模型导出到Nvidia的并行计算平台CUDA,大大提高了开发效率和成本效益。
技术基础涉及将MLX的API适配到英伟达生态系统,从而实现无缝的模型推理和训练。苹果支持这一连接,可能导致“在Mac上开发,在英伟达上部署”的模式。对于大型语言模型(LLM),英伟达的GPU在处理大规模数据集方面具有显著优势。根据AppleInsider的相关研究报道,通过整合这些进步,新的MLX支持可能会使英伟达硬件上的生成速度提高三倍。
对于业内人士来说,这表明苹果正战略性地转向更广泛的AI互操作性,以对抗其封闭花园的刻板印象。以前仅限于苹果生态系统的开发者现在可以使用英伟达庞大的CUDA库,该库在基于云的人工智能训练中占据主导地位。英伟达认为这为未来的工作负载打开了“令人兴奋的可能性”,可能促进混合环境的发展,其中苹果设备处理边缘计算,而英伟达则推动云端。
然而,仍存在一些挑战,包括确保完全兼容性和性能平衡。Reddit的r/MachineLearning子论坛上的讨论显示,关于苹果芯片在原型设计方面的可行性与英伟达的强大算力之间的持续争论,突显了进行稳健测试的必要性。
展望未来,这种整合可能会影响人工智能硬件的竞争格局。苹果此举正值其在生成式AI领域的推进,通过借助英伟达,苹果可能会吸引更多开发者使用MLX,从而增强其在谷歌和微软等依赖英伟达的竞争对手面前的地位。最终,这一发展表明了一个成熟的人工智能生态系统,其中协作胜过孤立。对内部人士而言,这是一个提醒:在人工智能领先地位的竞赛中,灵活性可能是最终的优势,为融合双方优势的创新铺平道路。
(以上内容均由Ai生成)