2025年6月,日本防卫装備厅(ATLA)正式发布首个关于人工智能在国防装备研发中负责任应用的指导方针,这标志着日本在人工智能军事应用领域迈出了里程碑式的重要一步。这套新指南意在确保研发过程中的人类有效控制与风险管理,通过明确法律、伦理和操作层面的规则,促进私营企业积极参与国防人工智能系统的研发,同时保障日本自卫队和防卫装备的发展方向符合国内外法律规范和道德期待。近年来,随着人工智能技术的迅猛发展,尤其是在自主武器系统领域,引发了全球范围内对于其使用边界和管理机制的激烈讨论。日本此次发布的人工智能指导方针,将人类主导原则作为核心理念,反对开发所谓的“致命自主武器系统”(LAWS),即那些能够在激活后,在无人干预的情况下识别、选择并实施致命打击的武器。日本不仅明确拒绝研发此类系统,更积极推动在国际社会中禁止其出现。日本的立场强调国际人道法(IHL)在此类技术中的适用,要求所有AI装备研发必须严格遵守相关国际条约和国内法规,同时保证开发过程中人类指挥和控制不可或缺。
新发布的指南设定了一套系统的风险管理流程,分为防御装备分类、法律与政策审查委员会评议以及技术审查委员会评估。这一三级流程确保高风险AI系统在立项之前必须经过严格的法律伦理审查和技术安全评估。所谓“高风险”系统,是指那些AI技术对装备毁伤能力有较大影响的应用,这类系统需详细审查其合规性与操作安全后方可进入研发阶段。法律与政策审查委员会重点关注两个方面,首先必须确保系统符合国际法律和伦理标准;其次,严禁开发完全无人参与、缺乏人类合理判断与控制的致命武器。倘若项目违反上述要求,将被禁止研发。技术审查委员会则从七个技术维度评估系统的合理性,包括操作者责任清晰度、操作者对系统的理解度、AI系统的客观性与偏见缓解、透明度和可验证性、系统的可靠性与有效性、安全机制完善程度,以及法律合规设计。
通过这套行之有效的审核机制,确保每一款AI集成装备都能安全、可靠地服役,并保持在法律和伦理的框架内。值得关注的是,在日本新发布的国防AI应用指导方针中,对技术审查标准的严格程度甚至领先于美国、澳大利亚、英国和法国等国家。这也显示出日本希望成为国际AI军事治理规范的制定者,推动建立以“人为中心”的AI应用准则。日本防卫省还在2024年7月发布了《推动AI利用基本方针》,强调以“负责任的AI”为理念,未来将在目标搜寻、数据分析、指挥控制、后勤支援、无人装备、网络安全及行政效率七个方面优先推动AI技术的研发与应用。日本的新政策在全球范围内具有深远影响。在联合国层面,尽管包括俄罗斯、中国及朝鲜在内的部分国家持保留态度,日本积极参与制定国际对自主武器系统的管控标准,并重申以确保人类控制和国际法遵守为先的原则。
日本外务省于2024年5月向联合国提交的工作文件中,也明确表明其“以人为本”的姿态,展现负责任使用人工智能和自主系统的决心。除政策层面的领先,日本也正与包括美国、澳大利亚在内的盟友密切合作,共同开发AI辅助的自主防御技术,并参与由美国主导的“军事人工智能与自主系统负责任使用政治宣言”,推动集体遵循国际法、保障AI技术在军事领域透明与人控。这一系列动作不仅促进日本国防科技的现代化升级,也为日本企业开辟了在新兴AI国防技术领域的广阔市场与合作机会,提升国家整体创新竞争力。日本防卫省官员曾表示,新发布的指导方针旨在为相关企业提供明确预期,打消研发过程中不确定性,鼓励更多民间力量参与国防AI研发链条,形成安全与效益兼顾的生态系统。通过系统的法规和技术审查,日本政府努力避免陷入道德困境和潜在的国际争议,同时保持在迅速变化的全球安全环境中技术进步的领先地位。整体来看,日本的国防AI新指南立足于法治、伦理和技术多重维度,兼顾创新与安全,引领了亚洲甚至国际社会对人工智能军事化应用的规范化趋势。
未来,随着技术持续演进与国际规则逐步完善,东京有望成为推动全球军事人工智能健康发展的重要角色,促进AI技术在保障和平与安全中的负责任应用,形成一种可持续且以人类价值为核心的国防创新模式。