在当今人工智能飞速发展的时代,隐藏在技术背后的力量与决策同样值得我们认真关注。美国防务高级研究计划局(DARPA)作为世界领先的军事科技研发机构,一直引领着众多前沿科技的突破,其研究成果不仅塑造军事战场的格局,也逐步渗透进普通民众的日常生活。从互联网、全球定位系统GPS,到语音识别技术,许多我们赖以便利生活的科技都可以追溯到DARPA的先驱性工作。然而,当DARPA聚焦于开发具有前所未有决策自权的人工智能自主系统时,社会公众开始提出关键疑问:这些系统是如何设计的?有何安全防范措施?军事人工智能研究具体是如何影响我们日常使用的工具?这些问题正随着技术的发展而日益紧迫。DARPA的人工智能项目涉及多个方面,典型的如人工智能探索(Artificial Intelligence Exploration, AIE),这一项目致力于跨领域的快速原型开发;保证自主性(Assured Autonomy),关注在几乎无监督的情况下信赖系统的运行;即时响应(In the Moment, ITM),开发能在复杂环境中实时决策的AI;以及能自知能力的机器学习(Competency-Aware Machine Learning, CAML),让系统能认知并表露自身能力的边界。这些研究并非局限于军事层面,它们所形成的框架、接口及算法不断浸润到民用技术中,模糊了军事与商业之间的界限。
我们已处于一个军事-民用双重用途技术高度交织的时代,这种交织带来的风险与监管挑战日益凸显。尤其是在信任自主系统上,DARPA的研究不仅是为解决战场的复杂问题,更是在定义未来所有人工智能系统如何被人类信赖的问题。诸如AI如何解释其决策过程、如何设计自主性使系统知道自身能力的限制、又如何校准人类对AI做出生死攸关决策的信赖程度,这些核心问题的答案不仅关乎军事无人机,也关乎智能助手、自动驾驶汽车、医务软件等广泛的民用场景。因为在这些背后,DARPA所探讨的信任机制和自主框架正在成为民用AI的隐形指导原则。随着自主决策的AI系统逐步渗透到医疗诊断、交通控制、金融交易、内容审核以及精神健康辅助等多个社会关键领域,公众的关切从未像今天这样深刻。尤其在医疗和公共安全领域,AI系统常常在很少或无人工干预的情况下做出关键判断,如诊断疾病、调度交通网络、执行股票交易指令、监管网络内容、甚至陪伴心理治疗患者。
DARPA构建的信任机制和自主框架无形中成为了这些领域AI技术的标准和底层规则,但这些规则的制定过程却往往缺乏必要的公共透明度与民众参与。当前,军方研发优先事项主导着民用人工智能的发展,而这一过程并没有经过充分的社会辩论。DARPA与科技巨头之间的合作协调、定义自主性等级与信任标准,以及设定技术发展路线,均是由纳税人资助却缺少公民知情权和监督的黑箱操作。民主社会面临的最大挑战在于双重用途技术的问责真空:政府资助的军事研究成果迅速流入民用市场,然而其监管责任既不完全属于军事体系,也超出民用监管范畴,使得技术滥用及风险控制成为难以追责的灰色地带。更复杂的是,美国国家标准与技术研究院(NIST)、国家科学基金会(NSF)与DARPA形成了一套协同机制,共同塑造人工智能行为分类、学术研究以及军事应用的闭环生态,他们三者联动定义了AI系统如何决策、记忆和构建信任,然而这些运作却大多缺少公众监督和透明公开。《知情权法案》(FOIA)成为推动透明的重要工具,公众团体利用它催促DARPA公布其自主决策框架、信任与解释性相关研究、与民间AI企业的合作文件,以及伦理评审和风险预防措施等核心信息。
社会呼吁民主监督的核心,不是反对AI研发本身,而是要为纳税人的资金和社会整体利益争取应有的话语权。公众要求将自主性框架的设计纳入透明和公众参与的范畴,确保双重用途技术的转移过程公开化,并对如何平衡AI能力与人类监督的权利进行公开辩论。人工智能自主性技术已不再是遥远的科学幻想,它们已经深植于家中、汽车、医院和各种信息流中。决策过程缺乏适当的监督与问责正逐渐成为潜在危机。要求DARPA公开信息,不仅关系到技术发展,更关乎民主价值观能否延续于自主机器时代。未来人工智能治理的核心,应强调公众主体地位与民主参与机制,建立具有法律和伦理约束力的透明监督体制,让技术发展既高效又负责任。
唯有如此,才能让人工智能真正成为服务于全人类福祉的工具,而不是缺乏管控和置于少数人垄断手中的黑箱系统。面向未来,我们需要构建一个开放、包容、问责的社会环境,让人工智能自主性技术的发展在阳光下运行。DARPA作为美国乃至全球科技创新的重要引擎,更应承担起向社会公众全面公开项目信息、保障伦理和安全底线的责任。唯有如此,才能促进技术进步与社会公平、民主监督的良性互动,实现可持续且负责任的科技发展模式。 。