Windows ML 简介:Windows 上机器学习开发的未来
快速阅读: 据《Microsoft Windows 博客》称,Windows ML公开预览版发布,支持AI模型在Windows 11设备上的本地运行,简化部署并提升性能。开发者可通过AI工具包利用其功能,快速集成AI体验。各大厂商如AMD、英特尔、英伟达和高通均支持该平台,助力高效开发生产级AI应用。
机器学习处于技术革新的前沿,推动了变革性的用户体验。随着客户端硅的进步和模型微型化的发展,新场景可完全在本地运行。为了支持开发者在日益复杂的AI环境中交付生产级体验,我们很高兴地宣布Windows ML的公开预览版——一个专为高性能设备端模型推理和简化部署优化的尖端运行时,也是Windows AI工具包的基础。Windows ML提供统一框架,使开发者能够放心针对当前可用的Windows 11 PC进行开发。它是从零开始构建的,旨在优化模型性能和敏捷性,并响应模型架构、操作符和堆栈各层优化的创新速度。Windows ML是基于我们过去一年的经验以及听取众多开发者、硅芯片合作伙伴和我们自己的团队(这些团队正在为Copilot+ PC开发AI体验)的反馈而演进的DirectML (DML)。Windows ML设计时充分考虑了这些反馈,赋予我们的合作伙伴——AMD、英特尔、英伟达和高通——利用执行提供者合同来优化模型性能并跟上创新的步伐。
Windows ML由ONNX运行时引擎(ORT)提供支持,允许开发者使用熟悉的ORT API,并且由于ONNX是原生模型格式,因此确保了与现有模型和工作流的无缝集成。一个关键的设计方面是利用并增强现有的ORT执行提供者(EP)合同,以优化不同客户端硅的工作负载。这些执行提供者是在与我们的独立硬件供应商(IHV)合作下构建的,旨在优化现有和新兴AI处理器上的模型执行,使其充分发挥最大潜力。我们一直在与AMD、英特尔、英伟达和高通紧密合作,将他们的EP集成到Windows ML中,并很高兴从第一天起就支持完整的CPU、GPU和NPU。
AMD完全支持Windows ML用于Ryzen AI产品,在这些产品中,AMD GPU和AMD NPU执行提供者能够在其平台上最大化利用GPU和NPU的性能。了解更多。
英特尔通过Windows ML提供的开发和部署简单性,将OpenVINO的性能和效率整合到CPU、GPU和NPU中,使AI开发者能够更轻松地针对适合其工作负载的最佳XPU进行开发,涵盖由英特尔酷睿Ultra处理器驱动的各种产品。了解更多。
英伟达的新TensorRT EP是在超过1亿台RTX AI PC上执行AI模型的最快方式。相较于之前的Direct ML实现,RTX的TensorRT可为AI工作负载提供高达2倍的性能提升。了解更多。
高通技术公司与微软合作,利用高通神经网络执行提供者(QNN EP),开发和优化基于Windows ML的AI模型和应用程序,适用于骁龙X系列处理器中的NPU。了解更多。
以下是Windows ML的几个关键亮点:
**简化部署**:借助我们的基础设施API,开发者不再需要为不同的硅芯片创建多个应用版本,因为他们无需直接在应用中捆绑ONNX或执行提供者。我们将它们放在设备上,并提供简单的注册和启用设备端提前编译(AOT)模型的方法。
**高级硅芯片目标**:利用设备策略优化低功耗、高性能或覆盖范围,或者覆盖指定模型的具体硅芯片。未来这将实现最优性能的分片处理——某些模型部分使用CPU或GPU,其他部分使用NPU。
**高级硅芯片目标**:性能:Windows ML专为性能优化;基于ONNX和ONNX Runtime构建,相较于其他模型格式,性能提升可达20%。随着时间推移,我们将添加更多Windows特定的功能进行进一步优化,如渐进式内存映射、部分模型固定和优化的并行执行调度器。
**兼容性**:与我们的独立硬件供应商(IHV)合作伙伴共同,Windows ML将保证一致性与兼容性,从而让您能够持续依赖改进,同时确保每次构建模型的准确性。但这不仅仅关乎运行时,我们还推出了功能强大的AI工具包(AI Toolkit),集成于Visual Studio Code中,以支持模型和应用准备——从PyTorch转换为ONNX、量化、优化、编译和性能分析,帮助开发者借助Windows ML发布包含专有或开源模型的生产级应用。这些工具专为简化通过Windows ML准备和发布高性能模型而设计。
即日起,Windows ML在全球所有Windows 11设备上推出公开预览版,为开发者提供了探索其功能并提供反馈的机会。预览版包括两层API:
– **ML层**:用于运行时初始化、依赖管理以及建立生成式AI循环的高级API。
– **运行时层**:用于设备端推理的ONNX运行时低级API提供细粒度控制。
要开始使用,请安装AI工具包,利用我们的转换和优化模板之一,或自行构建模板。在Microsoft Learn上探索文档和代码示例,访问AI开发者画廊(安装、文档),查看演示和更多示例,帮助您开始使用Windows ML。
在构建Windows ML的过程中,对我们来说很重要的一点是听取应用程序开发者的反馈和观点,特别是那些处于提供AI功能和体验前沿的开发者。我们与几位领先的开发者分享了Windows ML的早期预览版本,他们正在测试与Windows ML的集成,我们对其初步反馈感到十分欣喜:
Adobe(Volker Rölke – 高级机器学习计算机科学家):“Adobe Premiere Pro和After Effects处理着TB级别的素材和繁重的机器学习工作负载。一个能在异构设备上保持一致性能的可靠Windows ML API将扫除巨大障碍,并让我们更快地推出更多出色的功能。Windows ML可以帮助我们采用硬件无关的方法,减少样板系统检查和底层决策。”
Bufferzone(Bufferzone首席技术官Ran Dubin博士):“在Bufferzone,我们认为AI驱动的PC代表了终端的未来。Windows ML化解了独立软件供应商的集成难题,缩短上市周期并提升采用率。结果,客户将从他们的PC中获得更多价值,这对每个人都是极大的好处。”
Filmora(AI产品经理Luyan Zhang):“它的简洁性令人惊叹。遵循微软更简便的ONNX模型方法,我们仅用3天便将一项复杂的人工智能功能迁移至Windows ML。”
McAfee(高级首席工程师Carl Woodward):“我们对Windows ML能够为McAfee+新的骗局检测能力的开发和管理带来的效率感到兴奋。Windows ML将助力我们聚焦于高影响力领域,如模型准确性和性能,同时确保AI组件在整个生态系统中,包括新硬件版本,均能稳定运行。”
Powder(Powder联合创始人兼首席执行官Barthélémy Kiss):“Powder是Windows ML的早期采用者,它使我们能够将模型集成速度提高3倍,将速度转化为重要的战略优势。现在,有了Windows 11在不同硅供应商之间承担繁重任务,我们可以更多地专注于让我们的Powder开发人员发挥所长——在更短的时间内以更低的运营成本开发出更具魔力的AI视频体验。”
Reincubate(首席执行官Aidan Fitzpatrick):“我们致力于在第一天就支持和充分利用新的AI硬件芯片组。Windows ML应是我们紧跟硅创新步伐的强大工具。对我们来说,圣杯是能够使用单一高精度模型并在所有Windows硅芯片上无缝运行,我们认为Windows ML是迈向这一目标的重要一步。”
Topaz Labs(AI引擎负责人Suraj Raghuraman博士):“Windows ML将大幅缩减我们的安装程序体积,从GB级别降到MB级别。这将让用户在硬盘上有更多空间,因为模型存储需求也会下降。由于Windows ML严重依赖ONNX运行时,因此我们很容易将其集成。我们在几天内就集成了整个API,从创新角度看,这是一次无缝体验。”
无论你是经验丰富的AI开发者还是刚开始探索机器学习,Windows ML都能让你专注于创新而非基础设施管理,从而通过具有减少应用足迹的人工智能增强的应用程序取悦你的客户。Windows ML将在今年晚些时候全面可用。在此期间,我们期待您的反馈,并看到您如何利用Windows ML创建重新定义可能性的解决方案。今天加入Windows ML的旅程,成为下一轮人工智能创新的一部分!
(以上内容均由Ai生成)