Meta 预览其 Llama AI 模型的 API
快速阅读: 据《TechCrunch 技术紧缩》称,Meta推出Llama API,允许开发者试验和构建基于Llama的工具,支持微调和评估模型性能。尽管Llama模型下载量超十亿,但面临DeepSeek和阿里Qwen的竞争。Meta承诺不使用客户数据训练模型,且模型可转移至其他主机。计划扩大访问权限并与更多服务商合作。
在周二举行的首届LlamaCon人工智能开发者大会上,Meta宣布为其Llama系列人工智能模型推出一款API:Llama API。Meta表示,目前处于**小范围预览**阶段的Llama API能够让开发人员探索并试验由不同Llama模型驱动的产品。搭配Meta的软件开发工具包(SDK),它还允许开发人员构建以Llama为驱动的服务、工具和应用程序。Meta尚未向TechCrunch透露API的具体价格。随着Meta试图在竞争激烈的开源模型领域保持领先地位,Llama API的发布显得尤为重要。尽管截至目前Llama模型已累计下载超过十亿次,但竞争对手如DeepSeek和阿里巴巴的Qwen正在威胁Meta通过Llama建立广泛生态系统的努力。
Llama API提供了工具,用于微调和评估Llama模型的性能,从Llama 3.3 8B版本开始。客户可以生成数据、在数据上训练,并使用Llama API中的Meta评估套件测试自定义模型的质量。图片来源:Meta
Meta表示,不会利用Llama API客户的任何数据来训练自家模型,并且通过Llama API构建的模型可以转移到其他主机上运行。对于专门基于Meta最近发布的Llama 4模型进行开发的开发者,Llama API通过与Cerebras和Groq合作,提供模型服务选项。Meta表示,这些“早期实验性”选项‘按需提供’,以帮助开发人员原型化他们的AI应用。“仅需在API中选择Cerebras或Groq的模型名称,开发人员即可……享受所有使用情况统一追踪的流畅体验,”Meta在一篇提供给TechCrunch的博客文章中写道。“我们期待与更多提供商扩展合作伙伴关系,为构建基于Llama提供更多选择。”
对于专门基于Meta最近发布的Llama 4模型进行开发的开发者,Llama API通过与Cerebras和Groq合作,提供模型服务选项。Meta表示,这些“早期实验性”选项‘按需提供’,以帮助开发人员原型化他们的AI应用。Meta表示,未来几周至几个月内将扩大Llama API的访问权限。
(以上内容均由Ai生成)