近年来,人工智能特别是生成式人工智能(GenAI)的快速发展引发了全球企业的高度关注。许多企业首席信息官(CIO)和技术领导者被大型语言模型(LLM)及其背后承诺的“魔法”能力所吸引,纷纷将巨额资金投入到构建和部署规模庞大的AI系统中。然而,伴随着这些大型模型的普及,问题也逐渐浮出水面:模型越大,却越容易出错、产生幻觉,且成本成倍增长,投资回报率(ROI)反而令人堪忧。澳洲金融机构ANZ的人工智能工程师乌特卡什·坎瓦特(Utkarsh Kanwat)通过详细的数据分析指出,大型生成式AI模型在多步骤自主工作流程中的可靠性极低,从数学角度来看,随着步骤增加,系统出错的可能性迅速累积,难以达到企业生产级别所要求的99.9%以上的稳定表现。简单来说,即使每一步的准确率高达95%(这是对当前模型来说非常乐观的估计),五步流程的成功率就只有77%,十步则降至59%,二十步更降低至36%。这一点对于追求高效和安全的企业应用来说,无疑是致命的短板。
因此,规模越大,导致可靠性越低的规律,正严重制约着大型模型的实际效用和经济性。与之形成鲜明对比的是,越来越多的行业分析师和AI专家倡导“小而美”的模型策略。Moor Insights & Strategy的首席分析师杰森·安德森(Jason Andersen)强调,企业在AI部署时,应避免“宽泛无边界”的大模型盲目崇拜,而应聚焦于明确且特定的应用场景。这种方法不仅能有效降低错误率,还能显著提升系统整体的可控性和稳定性。真实世界中的AI应用,往往需要定义清晰的边界和规则,确保模型能围绕既定目标发挥作用,而非孤立运行。安德森提出的“AI模型究竟应该是驾驶员还是导航员”的思考,更是揭示了人机协作的核心——优秀的AI应辅助而非取代人类,帮助完成复杂任务而非单打独斗。
Info-Tech Research Group的技术顾问贾斯廷·圣莫里斯(Justin St-Maurice)指出,复杂的社会技术系统中,AI代理难免面临反馈循环和模型“走偏”的风险,而大型语言模型的随机性更是加剧了这一风险。因此,如何在利用生成能力的同时,嵌入规则和限制,使其表现得更加确定和稳定,成为了设计AI系统的关键。坎瓦特进一步从经济学角度揭示了大型模型的不可持续成本。他提出,生成式对话系统中的上下文窗口机制导致费用呈现二次方扩展,即每次交互都需处理前序对话,令费用迅速飙升。例如,一段100轮对话,仅代币成本就可能高达50至100美元,用户数量若达到数千,则支出显然难以承受。对于那些试图通过完全自主、多步骤工作流程征服市场的创业公司来说,这种成本压力极易造成烧钱过快、效率低下的资金困境。
大型模型秒招来引发企业成本攀升的另一大症结是,随着上下文长度增加,定价模型呈现对数上升趋势。换句话说,企业在实际部署中,想要维持高质量体验,往往不得不承担指数级别的成本增长。此外,业界普遍认为,大型模型的训练和维护需要巨量数据和计算资源,这给IT团队和数据科学家带来了沉重负担。安全专家钱斯特·维兹涅夫斯基(Chester Wisniewski)也表达了对“小模型优先”策略的认可。他强调,将神经网络特别训练专注于单一任务,不仅速度更快、成本更低,且表现更稳定。遗憾的是,构建海量小型模型需要更多专业人才和前期投入,而企业往往选择“一劳永逸”的大模型方案,其实是一种“用大而全掩盖问题”的捷径。
微软的一位高管也指出,对于尚未明确AI应用目标的企业而言,大型模型依然是将模糊需求快速转化为可用软件的高效途径。但一旦任务类型清晰,定制化、轻量级模型反倒能带来更优的成本效益和响应速度。微软提出的“标准化安全监控体系,灵活混合使用不同模型”的策略,正是现阶段企业实现AI效能最大化的最佳实践。资本一等金融集团则示范了如何围绕企业内数据构建受控AI系统,通过严格限制查询范围和权限,极大降低了不确定性和系统整合风险。总体来看,大型生成式模型作为当今AI领域的“明星”,虽然在研发和宣传层面炙手可热,但其内部深藏的技术限制和经济瓶颈,使其难以单独满足企业全方位多步骤复杂应用的需求。更为理想的路线是通过精心设计、精准定位的“小而专”模型,结合有效的规则和人机协作机制,打造具备高度可靠性与成本效益的实用AI解决方案。
企业应慎重评估当前AI投资方向,避免被规模幻觉所左右。根植于现实业务场景之中的AI战略,应聚焦解决具体问题而非盲目追求模型庞大,从而真正释放生成式人工智能的潜力,提升投资回报率,实现长期可持续发展。随着行业持续发展,“大模型”与“小模型”的融合应用或将成为未来趋势。企业领导者应积极拥抱多样化的技术组合,推动制定灵活且科学的AI战略,充分利用模型优势,规避风险陷阱,纵深挖掘生成式AI在各行各业的创新价值。AI技术的发展永远不是单纯追求规模的竞赛,而是智能、效率与成本三者之间的博弈。唯有把握这一本质,才能在快速变化的数字时代立于不败之地。
。