Cloudflare 支持模型上下文协议 (MCP) 服务器的远程托管
快速阅读: 据《InfoQ 公司》最新报道,Cloudflare推出远程模型上下文协议(MCP)服务器,简化AI应用与外部服务的交互。通过Cloudflare全球网络,开发者可更易构建和部署MCP,提升 accessibility 和安全性,扩大 AI 应用的用户群。
Cloudflare宣布可在其平台上构建并部署远程模型上下文协议(MCP)服务器,从而拓展该协议的覆盖范围与可用性。此协议专为人工智能应用与外部服务间的标准化交互设计。过去,MCP服务器多局限于本地运行,如今可通过Cloudflare的全球网络运行。这一进步使更广泛的互联网用户能够从MCP中获益,而无需本地安装,尤其适用于希望将AI代理与外部资源整合的Web及移动应用开发者。
在X平台上的推文中,AI技术专家普拉迪普·梅农写道:Cloudflare提供的远程MCP服务器具有以下关键特性和优势:
**简化部署**:Cloudflare致力于简化远程MCP服务器的构建与部署流程。
**增强可访问性**:由Cloudflare托管的远程服务器可通过互联网访问,扩大了支持MCP的应用程序的潜在用户群体。
**OAuth集成**:借助Cloudflare内置的OAuth支持,可轻松实现远程MCP交互的安全授权与访问控制。
维多利亚·斯洛克姆在一条推文中提到:Cloudflare的实现包含如workers-oauth-provider等工具,用于简化OAuth集成,以及McpAgent用于管理远程传输。此举标志着开发者更容易创建能够与更广阔数字环境互动的强大AI应用向前迈进了一大步。
Capital One高级副总裁阿帕娜·辛哈在X平台上发表推文称:此外,开发者文档为希望将自己的示例MCP服务器部署到Cloudflare账户的人提供了更多指引。同时,GitHub上的OAuth示例代码仓库可供参考。
作者:斯蒂夫·扬格斯
关于作者斯蒂夫·扬格斯:[展开/收起]
(以上内容均由Ai生成)