中国科学家开发出世界首个类脑AI模型
快速阅读: 中国科学家研发出“脉冲脑1.0”,首个大规模模仿人脑工作原理的AI模型,显著降低能耗,摆脱英伟达芯片依赖,采用局部注意力机制,运行速度快25至100倍,预示着AI技术的新突破。
中国科学家宣布成功研发出世界上首个大规模模仿人脑工作原理的人工智能(AI)模型。这一名为“脉冲脑1.0”的新模型旨在大幅降低能耗,并摆脱对英伟达芯片的依赖,标志着与当前行业标准的重大突破。据阿塞拜疆新闻网报道,该模型由中国科学院的研究人员开发,通过激活完成任务所需的具体神经元,而非均匀处理所有数据,从而复制人脑的工作方式。这种架构基于脉冲神经网络,这是一种受大脑高效处理信息能力启发的AI技术,能够通过稀疏和事件驱动的活动来实现信息处理。
相比之下,广泛使用的大型语言模型如ChatGPT和Meta的LLaMA依赖于规模定律,即性能随数据集和模型规模的增大而提高。这些系统采用了一种称为注意力的机制,其中句子中的每个词都会被并行评估,以确定其对于预测下一个词的相关性。虽然这种方法功能强大,但在处理长文档时计算成本高昂,尤其是在处理整本书或报告时,导致更高的能源需求和较慢的性能。
“脉冲脑1.0”采取了不同的方法,它只关注最近和最相关的上下文,类似于人们在对话中只记住最后几句话而非整个对话的方式。这种局部注意力机制使得系统既节能又快速。开发者表示,“脉冲脑1.0”比传统AI模型运行速度快25到100倍,同时保持了竞争力的准确性。
另一项关键创新是硬件独立性。“脉冲脑1.0”运行在中国自主研发的MetaX芯片平台上,消除了对英伟达GPU的依赖,这是在全球科技竞争背景下的一项战略举措。此外,与需要大量数据集和计算资源的传统AI系统不同,“脉冲脑1.0”在预训练时使用的数据量不到通常所需数据的2%。
专家认为,这一突破可能开启新一代神经启发式AI的大门,这类AI能够在实时、低功耗环境中运作,例如自主无人机、可穿戴设备或边缘计算应用。随着对AI能源和硬件需求的担忧日益增加,“脉冲脑1.0”为人工智能的可持续发展和生物学导向未来提供了新的视角。
(以上内容均由Ai生成)