小米首席科学家:AI进化需开源,闭源将慢千倍
快速阅读: 据最新消息,小米集团首席语音科学家Daniel Povey在MEET2026大会上表示,AI发展类似生物进化,依赖试错与开源加速,其团队正推进开源语音模型Zapformer研发,精度提升10%至15%,强调企业应兼顾通用与专用技术路径。
在近日举行的MEET2026智能未来大会上,小米集团首席语音科学家、IEEE Fellow Daniel Povey指出,人工智能的发展逻辑与生物进化高度相似,其核心在于通过不断试错筛选有效方案。他强调,AI“配方”的演进依赖于快速复制和验证新想法的能力,而这一过程的效率直接决定了技术进步的速度。
Povey认为,AI发展呈现出“长期停滞+瞬间跃迁”的非线性特征,类似于生物学中的“间断平衡”现象。在此过程中,开源扮演着关键加速器角色。若行业普遍采取闭源策略,整体研究进度可能放缓至当前水平的千分之一。正是得益于PyTorch、Kaldi等开源项目的广泛共享,研究人员得以高效复现并改进已有成果,显著缩短了技术迭代周期。
此外,他主张在模型架构上保持多样性,兼顾“通才”与“专才”路径。环境稳定时,专用模型可实现极致优化;而在技术变革期,通用性强的架构更具适应潜力。因此,大型企业应采取“两条腿走路”策略:一方面应用Transformer等成熟技术赋能现有产品,另一方面投入资源探索未知方向,以捕捉下一轮突破机遇。
目前,其团队正推进名为Zapformer的新型语音模型研发。该模型从人声识别拓展至全声学场景理解,并基于梯度流理论优化结构,在精度上较前代提升10%至15%。所有相关成果均以开源形式发布。此次大会由量子位主办,吸引近30位产业代表参与,线上线下观众超350万人次。
(以上内容均由Ai生成)
引用自:IT之家