近年围绕人工通用智能(AGI)的讨论在舆论和政策圈里迅速升温。业界领袖和技术公司高调宣称"突破在即",政治人物将其视为国家安全和经济主权的关键赌注。这样的叙事吸引注意力、推动资金流动,但同时也带来严重的机会成本和政策偏差。当公共资源和注意力被投向充满不确定性的终极目标时,现实中那些能够切实提升效率、安全与竞争力的技术应用反而可能被忽视。 AGI的吸引力源于一个诱人的设想:一台机器能够像人类一样理解、学习和创造,甚至实现自我改进,从而在短时间内带来翻天覆地的进步和垄断级优势。少数科技领袖用"曼哈顿计划"式的比喻描述发展路径,暗示一旦率先实现便能掌控全球格局。
这样的言辞推动了政治圈对"谁先实现AGI谁就赢"的焦虑,并促使一些政策制定者提出高风险、竞争导向的国家战略。 但现实远比神话复杂。学界至今尚未就AGI的定义达成共识,关于"智能"的本质、可衡量的标准以及跨领域泛化的能力也没有明确的量化边界。当前最先进的大型语言模型在语言生成、模式识别和一定范围的推理任务上表现出色,但它们仍然面临长期记忆、深度推理、因果理解、自主学习和自我校准等核心挑战。模型会出现"幻觉"(生成不准确或虚假信息)、脆弱泛化和对环境反馈的错误解读,这些问题短期内难以完全消除。 把全部赌注押在AGI上会带来几个明显的代价。
首先是资源错配。当政府和企业为了争夺"终极胜利"而集中投资于极限算力和前沿模型时,基础设施升级、数据治理、行业定制化应用和人才培养等实际能够带来经济与安全回报的领域可能被边缘化。与其追逐难以预测的突破,不如加快把现有技术规模化、在重要行业落地,从而实现可衡量的效益。 其次是政策制定的失衡。围绕AGI的恐慌性监管或竞争导向政策可能催生短视的国家行为。过度强调封锁或极端的"先发制人"策略,会损害国际协作、技术交流和跨国研究,进而阻碍科学进步。
同时,如果以防范假想的AGI威胁为核心来设定研发资助和法规,可能导致对现实风险如算法偏见、就业冲击、网络安全和数据隐私的监管不足。 第三是市场与产业的错误预期。媒体和资本市场对"即将到来的AGI"反复炒作,推高估值与投机性投入,使得大量AI项目依赖浪潮式资金而非稳健的产品市场适配。结果是大量实验停留在原型或试点阶段,无法真正进入生产环境。据业内数据,许多AI试点项目难以从概念验证过渡到规模化应用,主要原因包括组织内整合障碍、数据和系统兼容性问题以及对效果的高期望与低现实回报之间的差距。 与其盲目竞逐AGI的"终点线",更明智的策略是把AI竞争视为一场长期马拉松。
在这一赛道上,关键是提高技术采纳速度、优化产业生态、提升国家基础能力,并对短期风险与长期风险进行平衡管理。对政策制定者和产业领导者来说,应该把资源优先投向能够在不久将来产生实际价值的领域。 首先需要加强AI素养与人才培养。政府应在公共部门内部发起大规模的AI技能培养计划,使公务员能够理解并应用通用模型与专业化系统,从而在能源管理、供应链、网络安全、行政流程等领域提升效率。培训不仅限于技术人员,管理层与政策人员同样需要掌握AI应用的局限性、自动化偏差和伦理风险。此举不仅能提高政府自身的运作效率,也能为私营部门示范如何在大型组织内部推动AI落地。
其次,升级基础设施与数据治理至关重要。先进模型需要强大的算力与可靠的数据流通体系。政府应加大对算力基础设施的投资,推动国家级研究资源的开放共享,支持高校与中小企业获得必要的训练与测试环境。同时,数据治理改革应保障数据质量、互操作性与隐私保护,建立统一的标准和接口,减少部门间的"信息孤岛"。这些投资将带来长期回报,有助于各类AI应用在合理可控的条件下扩展。 第三,优化采购与试点机制,降低从原型到生产的壁垒。
政府和大企业应改革采购流程,建立更灵活的试点转化通道,为有潜力的AI解决方案提供持续性的资源支持,而非一次性试验性的资金。通过明确评估标准和量化绩效,能更好地识别哪些项目值得规模化投入,从而提高全社会对AI商业化的信心。 第四,维持对基础研究的稳健支持,尤其是小型科研团队与大学实验室。虽然大型企业拥有巨额数据和算力,但很多关键的安全性、效率和理论突破仍来自学术界与独立研究者。国家应通过资助、共享基础设施与团队协作平台,确保多元的创新主体能够为AI技术的长期可持续发展贡献力量。 第五,发展务实而有原则的国际合作框架。
AGI焦虑常常导致对抗性的国家政策,但许多AI问题本质上具有跨国特性,例如算法的滥用、跨境数据流动与供应链安全。通过与盟友和合作伙伴建立透明的技术标准、联合研发项目和危机应对机制,各国不仅能共同降低风险,也能在实际应用层面形成合力,推动全球AI治理的稳定与可预见性。 此外,监管应关注现实风险而非仅仅追逐未来恐惧。制定面向现实场景的法规,覆盖可解释性、审计追踪、责任认定与安全测试等方面,能够提高公众信任并促成企业负责任的创新。对高风险用途应实施严格审查和认证机制,而对低风险或明显增效的领域则采取更灵活的鼓励措施,避免一刀切的遏制创新。 工业应用案例能够说明"采纳优先"的策略价值。
许多制造与物流企业通过集成现有AI工具,实现了维护预测、供应链优化和生产排程的显著改进,从而降低成本并提升竞争力。医疗领域在临床影像辅助诊断、药物研发加速和运营管理优化方面也获得可量化的收益。政府如果能够在这些具体场景中率先示范并放大效果,将为全国范围内的企业和机构提供复制路径,而不是单靠概念性赌注推动技术扩散。 在应对地缘政治竞争时,理性的长期主义比短期的"先发制人"更有利。中国近年来强调将AI融入产业与基础设施的做法在某些方面体现了"采纳优先"的战略意图。美国若过分沉迷于追求AGI的绝对优先权,可能在实际应用层面落后,进而在生产效率、机器人化程度和行业数字化转型上失去优势。
因此,美国应在维护创新自由与强化国家能力之间找到平衡,通过投资教育、基础研究与公共基础设施来巩固长期竞争力。 最后,公众沟通与媒体责任也至关重要。对AGI的夸大宣传会驱动恐慌和不切实际的政策诉求,而过度悲观则可能阻碍必要的监管和资金投入。学者、企业家与政策制定者应共同努力,提供清晰且基于证据的公共讨论框架,使社会对风险与机遇有理性预期。 追求AGI不应被视为恶,而应被纳入广泛的技术进步矩阵中审慎对待。真正的挑战在于如何在现实与想象之间找到平衡:既不对潜在长远危害掉以轻心,也不为可能永远不会到来的突破消耗掉当下能够改变生活与国家竞争力的机会。
把注意力从"谁先实现AGI"的竞赛转向"如何更好地应用AI、治理AI与赋能社会"的长期任务,才是避免代价、实现可持续领先的务实之路。 。