Databricks 以更好的结果加快 Llm 微调速度,以下是获取访问权限的方法
快速阅读: 据《Neowin.net》最新报道,Databricks推出“测试时自适应优化”(TAO)技术,通过测试时计算和强化学习微调大型语言模型,无需人工标注数据,降低成本的同时性能优于传统方法。TAO在多项基准测试中表现出色,助力开放模型媲美甚至超越封闭模型,提供持续改进可能性。
Databricks推出了一种专门针对大型语言模型的新微调方法,旨在帮助企业与机构降低时间和成本。这种名为“测试时自适应优化”(Test-Time Adaption Optimization,简称TAO)的技术支持利用未标注的数据进行微调,不仅大幅节省了时间,而且性能表现优于传统方法。成本节约的关键在于企业无需雇佣人工标注数据。
这家数据智能公司一直在将其新微调方法应用于Meta旗下的Llama语言模型。在运行FinanceBench、DB企业竞技场和BIRD-SQL这三个企业基准测试时发现,经过TAO微调后的模型表现更为优秀,甚至在某些情况下显著超越了OpenAI的GPT-4o和o3-mini模型。TAO微调方法依赖于测试时计算和强化学习来改进模型。任何曾经使用过AI的人都已经经历过测试时计算——当你向AI输入提示并生成输出时,完成这一过程所需的计算成本即为测试时计算。
与传统的标注数据不同,TAO方法利用测试时计算让模型探索任务的多种可能响应,随后通过强化学习根据评估结果更新大型语言模型(LLM)。这种高度自动化的流程意味着无需人工标注数据。对于担忧使用TAO方法进行模型微调会产生持续成本的企业,Databricks指出,唯一计算密集的任务仅发生在初始训练阶段,而得到的模型运行成本与原始模型保持一致。
研究显示,TAO微调后的模型在文档问答和SQL生成任务上的表现更加突出。在FinanceBench基准测试中,模型需要回答7200个关于SEC文件的合成问题。TAO Llama 3.3 70B模型获得了85.1分,而未经微调的模型得分为82.7分,标注微调模型则为81.1分。相比之下,OpenAI的最佳模型o3-mini得分为82.2分。在BIRD-SQL基准测试中,TAO Llama 3.3 70B模型获得了56.1分,标注微调模型得分为54.9分,GPT-4o得分为58.1分。这些结果表明,TAO微调在提升标注微调效果方面具有明显优势,并帮助开放模型追赶甚至超过OpenAI表现更佳的封闭模型。
Databricks强调,TAO提供了持续改进的可能性。你使用的模型越多,未来微调轮次中的训练输出就越丰富。这些连续改进能够让未来的微调模型变得非常强大且更具实用性。目前,Databricks的客户已经在私有预览中开始在Llama模型上应用TAO。如果希望参与,可以通过填写表格申请。
这样优化后的文本既保留了原文信息,又使内容更加流畅易读,同时保持了结构的清晰美观。
(以上内容均由Ai生成)