小语言模型 (SLM):经济高效、可持续的高等教育选择
快速阅读: 据《EdTech 杂志》最新报道,小语言模型(SLM)是大型语言模型(LLM)的简化版,使用较少的参数,更适合特定应用场景。它们成本低、数据安全性高,有助于减少碳足迹。SLM可在边缘设备上运行,提高效率和隐私保护。然而,仍需注意数据治理和模型调整,以确保高质量输出。未来,SLM将在物联网设备中广泛应用,成为自主代理的一部分。
正如智能手表将基础计算应用于特定需求一样,小语言模型(SLM)在较小的剂量中应用学习自动化,从而在许多方面发挥巨大作用。为了挖掘这些机会,高等教育领导者需要了解基础知识:SLM 是什么以及它们如何在整个校园内实现价值。
**什么是小语言模型?**
SLM 是大型语言模型(LLM)的衍生产品。自 2022 年底 ChatGPT 推出以来,LLM 引起了广泛的关注。ChatGPT 依赖于特别设计的图形处理单元(GPU)芯片来模仿人类交流,根据 IBM 的说法,这些模型通过消耗大量文本、声音或视觉数据,并训练自己从数以万亿计的变量(称为参数)中学习。相比之下,SLM 使用的参数要少得多,从几百万到几十亿不等。它们不能做所有 LLM 能做到的事情,但它们的小巧尺寸在特定场景下具有优势。
“大多数大学就像小城市,”南佛罗里达大学首席信息官兼数字体验副总裁西德尼·费尔南德斯说。机构管理着远远超出其核心教育责任的运营领域:停车、交通、住宿、医疗保健、建筑、执法、体育等。“所有这些以运营为重点的领域都为这些模型提供了专门针对特定领域的可能性,”费尔南德斯补充道。
现在观看:人工智能在高等教育中既带来了风险也带来了机遇。
**SLM 与 LLM:主要差异和优势**
较小的模型运行成本更低,这一点随着中国开源 AI 模型 DeepSeek 的出现而被世界注意到。DeepSeek 潜在的 AI 成本降低导致了全球金融市场的一次短暂抛售,投资者担心它可能会挑战 GPU 芯片全球领导者的 NVIDIA 的地位。据 EDUCAUSE 高级研究员、《2025 年 AI 景观研究》合著者詹妮·罗伯茨称,较低的 AI 成本将受到高等教育界的欢迎。罗伯茨指出,在 EDUCAUSE 的一项调查中,仅有 2% 的受访者表示他们有新的资金来源用于 AI 相关的费用。“机构可能试图通过转移或重新分配现有预算来资助 AI 相关的费用,因此 SLM 可以提供降低成本并减轻预算影响的机会,”她说。
SLM 还可以帮助解决 LLM 带来的数据治理问题。高校和大学担心 LLM 的数据保护、隐私泄露、合规要求以及潜在的版权或知识产权侵权问题,罗伯茨说。了解更多: 学生希望从 AI 教育中获得更多东西。“机构更有可能在本地运行小型语言模型,从而降低与数据保护相关的风险,”罗伯茨补充道。EDUCAUSE 的调查显示,许多高等教育领导者更倾向于在‘封闭花园’中实施本地化的 AI 解决方案,以应对数据治理挑战。寻求减少教育中 AI 应用碳足迹的领导者可能会从 SLM 中看到更多的优势。“由于小型语言模型比大型语言模型更高效,它们可能有助于缓解生成式 AI 对环境的影响,”她说。
**小型语言模型如何改变高等教育**
USF 的费尔南德斯认为,SLM 的最大好处可能出现在网络边缘设备上,如智能手机、摄像头、传感器和笔记本电脑。制造商已经在设备中添加了 AI 芯片以帮助进行推理(计算机用来推断用户请求含义的过程)。未来几年,更多设备将增加这种能力,他说。边缘设备从隐私角度来看也更安全,因为数据可以托管在难以访问的远程位置。费尔南德斯说:“如果你将其安装在本地,你可能会拥有更多特定领域的敏感数据。”例如,这可以帮助校园警察部门或在校园诊所工作的医护人员。
发现:大学正在利用内置在现有软件中的 AI 工具。特定领域的 SLM 可以安装在校园内并针对个别学术部门,也可以针对特定的教学任务进行训练,以帮助学生掌握基本概念。在运营中,SLM 可以接受系统培训,以提供预测性维护,帮助管理人员更换老化部件或机器,以避免更昂贵的故障。
尽管 SLM 带来了诸多好处,但仍需稳健的数据治理以确保高质量的结果。较小的模型必须经过仔细调整和监控,以减少幻觉和偏见输出的风险。“理解这些模型的优点和缺点将是至关重要的,”费尔南德斯说。
**AI 模型压缩和蒸馏的未来**
SLM 通过称为模型压缩或模型蒸馏的过程运行,其中较大的模型训练较小的模型。由于它们可以在特定领域进行训练,SLM 为自主代理创造了更多机会,这些代理在后台运作,为校园内的人们完成日常事务。“随着模型压缩的增加,将会有内置 SLM 的物联网设备作为代理自身运作,”费尔南德斯说。最终,这些代理可能会变得足够聪明,能够彼此交谈,从而节省更多人力劳动。
接下来:高性能计算支持 AI 教育。虽然模型变得更小,但它们仍将保留相当大的计算能力。“未来的 SLM 可能会做今天 LLM 所做的工作,”费尔南德斯说。这些更小、更高效的模型可以直接部署在边缘设备上。“它们将配备内置功能,然后会有供应商利用这些功能,”费尔南德斯补充道。“这意味着,如何管理边缘设备将比以前更加重要。”
(以上内容均由Ai生成)