近年来,人工智能特别是大型语言模型(LLM)的兴起,正在深刻改变软件开发者的工作方式与效率提升路径。作为一款前沿的代码编辑器,Zed在AI功能集成方面一直走在行业前列。但随着LLM使用成本的持续攀升,传统的基于提示次数的定价模式逐渐暴露出许多弊端。2025年9月,Zed官方正式宣布了其AI使用计费结构的根本转型 - - 由基于提示(prompt-based)限制切换到基于Token计费模式,这一变化不仅反映了AI基础设施真实成本,也为用户带来更加公平和灵活的付费体验。首先,从定价模式的演进来看,传统基于提示的计费体系由于其"计次"的特性,使得不同复杂度的AI请求无差别收费,简单的文本校正和跨文件重构等复杂操作均计作同等代价,导致资费结构和实际计算资源成本严重脱节。Token计费应运而生,其核心理念是以AI模型实际处理的文本单位 - - Token为计费基础,精细化匹配用户消耗与相应费用,让技术使用者准确为所需的计算资源买单。
Zed此次转型不仅调整了免费版和Pro版本之间的价格策略,还为订阅用户提供了更丰富多样的模型选择。免费用户保持了原有每月2000次接收编辑预测的额度,但取消了此前免费提供的50次Zed托管提示次数。Pro用户月费由20美元降低至10美元,同时包含一定数额的Token额度,超出部分按OpenAI等LLM提供商的API列表价格加收10%作为Zed的基础服务和技术支持费。值得关注的是,Zed还引入了GPT-5及其mini、nano版本,Gemini 2.5 Pro和Flash这两款先进模型,扩充了原本已有的Anthropic模型阵容,为开发者带来更多元高效的AI计算选择。Zed官方强调,三个月的迁移期提供给现有Pro用户充分时间适应新计费规则,免费用户则于2025年10月中旬正式过渡。同时,所有用户均可重新启动14天试用,附赠20美元Token额度,不受之前试用历史影响,充分体验新环境和新模型。
此次定价调整背后,Zed直言面对LLM云服务高昂账单压力,传统免费和无限制服务模式已经难以为继。开发者数量与使用频率的激增反而使公司承受更大亏损。转向Token定价使得费用收支匹配更为透明合理,同时也打造了一个更具延展性的平台框架,未来可便捷增加或调整新模型,统一依据"列表价+10%"收费标准执行。更重要的是,Token计费消除了早期定价设计中模糊且令人困惑的"burn mode"等概念,用户可根据自身需求灵活调整输入上下文,掌控费用消耗,无需担心超限或突发费用,显著降低了使用门槛和认知负担。另一方面,Zed投入大量资源开发了一系列AI使用替代方案,以满足不同用户的需求偏好。用户可以选择自带API密钥,直接调用OpenAI、Anthropic、Grok等领先LLM供应商的接口,也可以利用如Ollama的本地模型实现离线AI体验。
借助Zed的ACP架构还能接入第三方智能代理如Gemini CLI和Claude Code,甚至通过GitHub Copilot、AWS Bedrock等多家支付平台完成灵活结算。对于希望拒绝AI干预以保持编辑器纯净体验的用户,Zed同样提供关闭AI功能的选项,体现了对用户自由度与个性化的尊重。此次变革的战略意义也值得行业关注。通过匹配实际计算成本,Zed不仅为其未来软件功能的可持续迭代奠定经济基础,也彰显了其长期致力于构建高效开发者协作生态的愿景。公司自身表示,将通过企业级特色功能满足商业客户的多样需求,以优质协作工具建设为核心竞争优势,逐步实现收入增长和市场份额提升。综合来看,Zed的计费模式调整是AI产品商业化进程中的必然阶段,为开发者社区提供了更公平透明的资源使用机制,同时通过多元模型和付费选项极大丰富了用户选择空间。
从更广阔的技术发展视角看,AI大模型的普及和云端算力成本的不断优化,正推动软件开发工具生态持续迈向智能化、个性化和共享协作的新时代。Zed作为行业先锋,其定价政策的及时调整和战略转型不仅具有示范效应,也为整个开发者工具市场树立了新标杆。未来,随着更多先进模型的引入和创新功能的上线,Zed无疑将在代码编辑器领域继续发挥重要的引领作用。作为用户,理解并积极适应这一Token计费时代,将有助于最大化AI赋能效率,同时合理控制成本,促进自身开发实践的智能升级。 。