随着云计算的快速发展,无服务器架构(Serverless)逐渐成为现代应用部署的主流趋势,因为它简化了基础设施管理,按需计费并自动伸缩。然而,传统无服务器架构仍存在资源利用率低、冷启动延迟和计算成本高昂等难题。Fluid计算作为一项突破性的创新,旨在解决这些痛点,打造了“无服务器服务器”的新范式,重新定义了云端计算效率和成本效益。 Fluid计算的诞生源于Vercel团队对现代前端技术的深刻洞察,尤其是React服务器组件(React Server Components)所带来的挑战。2020年,React团队提出了服务器端渲染中能够逐步传输UI内容的概念,要求无服务器函数支持HTTP流式响应。然而,基于AWS Lambda的传统无服务器模型受限于其简单的事件请求-响应机制,无法原生实现流式传输。
为此,Fluid计算创新打造了一套基于安全TCP隧道的传输协议,这成了其实现高效流式响应的核心技术支柱。 通过这一协议,Lambda函数不再仅仅是处理一次请求、返回一次响应的“黑盒”,而是能够将响应内容分片分块地传回Vercel基础设施,形成连续的数据流,从而适配复杂的交互式和实时渲染场景。Fluid计算进一步将TCP隧道双向打通,不仅可以从函数端传输数据,也能将多个并发请求复用送往同一个函数实例。这项创新挑战了传统单实例单请求的Invocation模型,开启了无服务器函数多请求并发处理的新时代。 这一并发复用不仅显著减少冷启动次数,还提高了计算资源的利用率,尤其对高I/O等待场景和大型语言模型(LLM)推理极为友好。过去,在等待外部接口响应期间,函数实例处于空闲却仍计费状态,带来了不必要的成本和资源浪费。
Fluid计算通过智能路由和平衡机制精细感知实例的CPU、内存、文件描述符等关键指标,实时判断函数实例是否可接收新请求,保障系统的稳定性及高性能。 为了实现对大量请求的高效调度,Vercel构建了一个名为compute-resolver的服务,充当类似DNS的解析器,负责快速定位当前可复用的函数实例。该服务分布在全球19个区域内,能够在亚毫秒级别完成请求路由,确保新请求能够最大概率分配到已有连接的函数实例上,提高复用率,降低总体延迟。compute-resolver同时避免了过度集中的单点压力,维护系统整体均衡,加速了Fluid计算的落地实用化。 此外,Fluid计算的底层核心由Rust语言开发,作为连接用户业务代码与Vercel基础设施的中间件,负责转译不同的请求包类型,传递细粒度的监控数据,并承担请求流控和错误反馈机制。通过这些数据回传,系统动态调整请求分发策略,避免过载及崩溃,类似Kubernetes的HPA(Horizontal Pod Autoscaler)但更为细致和自动化。
Fluid计算不仅提升了技术架构的复杂性,更重要的是带来了重大的经济效益。得益于流式传输和请求复用机制,函数实例中活跃CPU时间的利用率大幅提升,避免了对闲置周期的计费。基于此,Vercel推出了Active CPU计费模式:用户仅为实际活跃的CPU使用量和分配的内存空间付费,间接驱动成本节约超过九成,极大降低了云上计算的进入门槛,鼓励更多项目及中小团队采用无服务器架构。 如今,Fluid计算已经成为Vercel平台的默认计算模式,支持多语言环境,引入Python等新语言支持,扩展了其应用场景。从用户访问的网页、营销活动站点,到多租户应用及AI驱动的后台推理服务,Fluid计算提供了一个统一且高效的计算背后引擎。 未来,Fluid计算的框架还将进一步提升弹性扩展、自我调节和安全防护能力。
随着AI云计算与模型上下文协议(Model Context Protocol,MCP)等长时运行I/O密集型工作负载的兴起,对于精细计费和资源治理的需求会更加迫切。Fluid计算在架构上已经打下坚实基础,能够适应这些新趋势,实现更广泛和深入的云端智能计算场景。 总的来说,Fluid计算通过颠覆传统无服务器限制,构建“无服务器服务器”,让函数实例更主动地处理并发请求,减少冷启动延迟,提升资源利用率并节约成本。这不仅是技术上的创新,更是推动云计算生态健康发展的重要里程碑。对于开发者和企业来说,Fluid计算代表着更具弹性、智能和经济优势的未来云端基础架构选择。拥抱Fluid计算,就是拥抱更高效、更智能的云上应用时代。
。