微软推出Fara-7B:本地运行的智能代理模型
快速阅读: 微软发布Fara-7B小型语言模型,可在用户计算机上操作,通过视觉感知网页完成任务,无需额外信息,减少延迟和提高隐私保护。模型参数70亿,优于GPT-4,支持自动化日常网络任务。
微软发布了名为Fara-7B的新“代理型”小型语言模型,该模型可以驻留在用户的计算机上并为其操作计算机。这款小型语言模型(SLM)并非用于回答搜索查询或其他文本请求,而是作为计算机使用代理(CUA),通过接管鼠标或键盘来完成用户任务。Fara-7B通过视觉感知网页并采取行动,例如滚动、打字和点击直接预测的坐标。“它不依赖于单独的模型来解析屏幕,也不需要任何额外的信息,如可访问性树,因此使用与人类相同的模态与计算机交互。”公司在博客文章中解释道。值得注意的是,该模型仅有70亿个参数,而OpenAI的模型则有数百亿个参数。
小型语言模型被认为是解决大型语言模型在处理特定任务时遇到的能量和复杂性挑战的一种解决方案。其较小的体积意味着Fara-7B可以直接在设备上运行CUA模型,从而减少延迟并提高隐私保护,因为用户数据保持本地化。
Fara-7B的工作原理是通过视觉与网站或其他界面互动——就像人类用户一样。研究人员指出,主要挑战之一是找到足够的训练数据。“构建CUA模型的关键瓶颈是缺乏大规模、高质量的计算机交互数据。通过人工标注者收集此类数据的成本过高,因为单个CUA任务可能涉及数十个步骤,每个步骤都需要标注。”为了应对这一问题,系统使用了合成数据生成管道进行训练,展示了多步骤网络任务,数据来源于真实的网页和用户。然后,系统尝试完成这些合成任务,尝试过程经过微调,代理的行为计划——称为轨迹——被验证成功,失败的尝试被移除。“我们最终在这个由145,000条轨迹组成的数据库上训练了这个版本的Fara-7B,这些轨迹涵盖了多样化的网站、任务类型和难度级别,共计一百万个步骤。”研究人员解释说。“此外,我们还为一些辅助任务提供了训练数据,包括准确的UI元素定位、描述生成和视觉问答。”
与现有基准相比,研究人员表示,Fara-7B通常优于更大的模型,包括GPT-4。这款CUA支持的模型并不意味着我们可以完全停止点击或打字,因为它仍处于开发阶段。研究人员指出,新模型是一个“实验性版本,旨在邀请实践探索”,并从社区获取反馈。“用户可以构建和测试超越纯研究的代理体验——自动化日常网络任务,如填写表格、搜索信息、预订旅行或管理账户。”确实,建议在沙盒环境中运行Fara-7B,以便用户能够密切关注其工作情况,并避免敏感数据或高风险任务。“随着模型的不断进化,负责任的使用至关重要。”他们说道。除此之外,Fara-7B内置了基于微软负责任AI政策的控制措施,其自身基准表明有“82%的高拒绝率”。此外,该模型设计为在需要用户同意或数据的情况下识别并停止关键点。
Fara-7B现已通过微软Foundry和Hugging Face以及微软研究的Magentic-UI提供。“我们还分享了一个量化和硅优化版本的Fara-7B,该版本将可用于安装和运行在Windows 11驱动的Copilot+ PC上的即插即用实验。”微软补充道。“社区只需下载预优化模型并在其环境中运行即可。”系统也公开提供,包括权重,以简化实验和改进。“通过开放Fara-7B的权重,我们的目标是降低实验和改进CUA技术的门槛,以自动化常规网络任务,如搜索信息、购物和预订。”科技巨头表示。确保关注ITPro的Google新闻,以了解我们所有最新的新闻、分析和评论。
(以上内容均由Ai生成)