Vercel Fluid:一种新的计算模型和无服务器的替代方案?
快速阅读: 据《InfoQ 公司》最新报道,Vercel推出了一种新的弹性计算模型——Vercel流体计算,它允许单个工作器处理多个请求,优化长任务和AI推理的资源效率。新模式能避免冷启动、提高自动扩展和I/O效率,适用于视频流和响应后处理等任务。Vercel首席技术官Malte Ubl表示,流体计算引入了`waitUntil` API来处理HTTP响应后的任务,并提供详细的可观察仪表盘。这一创新受到关注,但也有人对其成本效益提出质疑。
Vercel近日推出了Vercel流体计算,这是一种弹性计算模型,允许单个工作者处理多个请求,类似于传统服务器,同时保留无服务器的弹性。通过在实例之前扩展函数,流体计算最大限度地利用了可用的计算时间,优化了长任务和AI推理的计算足迹和资源效率。据开发团队称,具备流体计算功能的函数会在创建新实例前优先使用现有资源,消除硬性扩容限制,并利用热计算实现更高效的扩容。这使得转向一种多对一的模型成为可能,该模型可以在单个函数上处理数万次并发调用。
Vercel声称,新模式提供了几个好处,包括避免冷启动、高效的自动扩展、水平和垂直并发以及优化的I/O效率,所有这些都采用按需付费的定价模式。Freshworks和AWS无服务器英雄高级开发人员Jones Zachariah Noel N对此表示质疑:减少为每次传入请求启动函数的需求,在函数内的并发减少了支付闲置计算时间的可能性和遇到冷启动的可能性。在下游服务响应迟缓的情况下,尤其是在由于自然原因(如大语言模型)或性能问题时,解决闲置计算时间的问题尤为重要。
新选项声称仅在必要时依赖计算触发器以优化性能和成本,从零到峰值流量进行实时扩展,并在扩展新资源之前先使用现有资源。Vercel流体计算设计用于视频流和响应后处理等任务,这些任务可能有高响应时间但低CPU使用率峰值。Vercel首席技术官Malte Ubl在Hacker News上解释了Vercel流体计算与传统无服务器方法的主要区别:为了支持新功能,流体计算引入了`waitUntil` API来处理HTTP响应发送后的任务,提供了一个包含执行时间、并发级别、冷启动发生次数和整体计算利用率的可观察仪表盘。
在“Vercel的流体计算及其对AWS Lambda的意义”一文中,Andreas Casen写道:这个新选项在一个热门Reddit讨论帖中被讨论过,其中一位用户警告说:费用按照GB小时计算,取决于分配给函数的内存和执行持续时间。
(以上内容均由Ai生成)