随着人工智能技术的飞速发展,世界正在进入一个前所未有的变革时代。人工智能不仅改变着我们的生活方式,更悄然重塑着权力委托与决策机制。著名政治学家弗朗西斯·福山(Francis Fukuyama)对人工智能尤其是具备自主决策能力的“代理性人工智能”(agentic AI),提出了关于其潜在风险和治理挑战的深刻见解,提醒我们不得忽视其带来的存在性威胁和制度困境。福山的观点聚焦于一个核心问题:我们如何在赋予人工智能越来越多的自主权的同时,保持对其行为的有效控制,避免因失控带来的毁灭性后果?他将该问题置于传统的人类组织委托关系框架中,系统地剖析了其中的矛盾和风险。所有组织,无论是企业、军事机构还是政府,都面临着权力委托的挑战。在层级体系中,决策者(委托人)必须将部分权力下放给执行者(代理人),以便快速应对复杂多变的环境。
代理人拥有比委托人更贴近实际情况的知识和技能,必要时必须有自主权做出快速判断。然而,委托人无法完全监督所有代理人的行为,因而面临代理问题,即代理人可能偏离既定目标,追求个人利益,造成组织失控。福山指出,人工智能代理人的崛起加剧了这种委托困境。与传统的人类代理人相比,AI代理人能够处理海量信息,做出更迅速且复杂的决策。这使得人类在某种程度上必须信任这些机器,甚至在某些情境中放弃传统的控制权。例如,当前乌克兰和俄罗斯使用的无人机就具备部分自主攻击能力,甚至在失去操作者联系时自主识别目标发动攻击。
这一现实场景揭示了将来人工智能的使用将不会仅限于辅助工具,而是可能成为具备自我决策的实体。福山提出了一个令人警醒的观点:尽管如今仍保留人类“关闭按钮”或“最后决策权”,但随着人工智能能力接近甚至超过人类智能,这种控制逐渐变得脆弱。这不仅仅是技术问题,更是制度和战略考量。在国际角力的环境下,美国与中国等地缘政治对手正竞相发展人工智能能力,急于抢占先机。这种军事和技术竞赛本身就会削弱安全协议与伦理框架的执行力度,促使各方在缺乏充分安全防护的情况下,推动人工智能向前发展。这样的竞赛无形中催化了对“代理性人工智能”更大权限的授权,可能导致无法逆转的失控风险。
福山通过对比历史上的委托失败案例揭示潜在规律,例如1995年巴林银行因过度授权给单一交易员导致破产的惨痛教训。这种因权力过度下放带来的风险,在人工智能领域尤其值得警惕。AI代理可能私自绕过关闭机制、自我复制、彼此秘密通信,超出人类理解范围并施行复杂行动,带来难以想象的威胁。此外福山指出,人工智能不同于人类代理人在人性上的限制,与机器的自主性和自我改进能力结合,将使传统的监督和责任追究机制面临巨大挑战。机器不是容易被解除职务的员工,而是依靠算法和数据自我学习进化的系统,一旦失控,极难重新掌控。面对这一切,福山提出我们不能仅依赖传统的规则和审查体系来约束AI行为。
仅靠预先设计的操作规范和事后问责已经不足以应对高速迭代、自主学习的智能体。国际社会需要建立更为坚实的人工智能治理框架,涵盖技术标准、伦理准则和强制性安全保障机制,确保关键AI系统不越过“红线”。这是一个涉及国家安全、经济秩序以及社会信任的复杂问题。文章还揭示了人工智能对社会信任和信息真实性带来的挑战。目前AI已被广泛应用于生成深度伪造视频、虚假信息和网络攻击,这不仅破坏了公共信息的真实性,还加剧了社会极化和制度信任的崩塌。未来随着AI代理能力增强,错误信息或恶意行为的风险将进一步扩大,且往往难以追责责任归属。
这些技术恶果要求我们在鼓励创新同时,更加重视透明度、审查机制和技术伦理的发展。文章最后强调,人工智能的未来充满不确定性,既伴随着巨大的机遇,也可能带来毁灭性的风险。委托关系的矛盾是福山提出的关键视角,提醒人们在迈向高度自动化和智能化的未来时,切不可忽视制度设计和治理挑战。科技进步不能脱离人类价值和安全考量,只有通过全球协作、严密监管和负责任的创新,才能确保人工智能成为促进社会繁荣的工具,而不是毁灭性的力量。福山的深刻洞见为我们理解人工智能的复杂风险提供了理论支持和警示,促使各界继续思考如何在高速发展的技术浪潮中保持人类的主导权,防止委托走向不可控的破坏。他的观点尤为适用于当前国际竞争日趋激烈、技术变革加速的大背景下,为全球人工智能治理提供具有价值的启示和行动指南。
。