随着人工智能技术的迅猛发展,其对社会结构、经济形态以及人类生活的各个方面带来了深刻影响,如何在确保技术创新的同时保障人权、维护民主与法治成为全球关注的焦点。2024年9月5日,欧洲理事会推出了历史上首个具有法律约束力的《人工智能框架公约》(简称"框架公约"),这是国际社会在人工智能领域迈出的重要一步,旨在构建一个技术中立且符合基本价值观的治理体系。该公约不仅体现了欧洲理事会在推进人权、民主和法治方面的领导地位,也为其他国家和地区提供了宝贵的规范蓝本。框架公约的核心理念是保持技术创新与社会责任的平衡,强调人工智能系统生命周期内的各项活动必须遵循尊重人类尊严、保障个体自主权、实现平等与非歧视、保护隐私与个人数据、强调透明度与监管、确保责任制以及促进安全创新等原则。通过这些基本原则,公约力图建立一个健全的人工智能治理框架,以应对快速变化的技术带来的法律空白和伦理挑战。制定该框架的历程始于2019年欧洲理事会专门成立的临时人工智能委员会CAHAI,后由专门委员会CAI负责起草和协商文本。
该协商过程展现了高度的多方参与精神,不仅涵盖了欧洲理事会46个成员国,还包括加拿大、日本、墨西哥、梵蒂冈、美国、澳大利亚、阿根廷、哥斯达黎加、以色列、秘鲁和乌拉圭等多个非成员国家。此外,来自学术界、产业界和民间社会的数十名国际代表积极参与了文本的形成,确保公约既具协调性又兼具多元视角。框架公约涵盖了公共权力及其委托的私营部门,也涵盖私营领域的人工智能系统使用。国家可选择直接遵守条款,或采取其他有效措施确保其国内法规与公约原则相符,同时符合其国际人权义务。值得注意的是,国家安全领域活动不在公约的直接管辖范围,但相关活动必须遵守国际法律和民主原则。公约还明确排除与国家防御直接相关的活动,以及研发阶段,除非其测试可能对人权、民主或法治构成潜在影响。
在具体义务方面,框架公约强调了对人工智能风险和影响的持续评估,要求国家采取预防和缓解措施,以避免不良后果的发生。各方应建立行之有效的透明和监督机制,确保受影响的个人能够获得充分信息,有权质疑人工智能系统的决策,并可向具备权力的机构投诉。公约还特别提出「红线」的概念,允许国家针对部分高风险的人工智能应用实施禁令或暂缓措施,以保护社会基本利益。为确保公约的长期实施成效,专门设立了由缔约方政府代表组成的《缔约方会议》,定期评估各成员国落实公约义务的情况,提出建设性建议,推动国际合作并促进公众参与。该机制不仅强化了公约的监督执行,还为技术与伦理间的动态平衡提供了持续改进的空间。框架公约的出台显示了国际社会重新审视人工智能治理的战略视野。
从只关注技术参数和市场利益,逐步转向强调以人为本、尊重公民基本权利的全面治理体系。这种转变反映了人工智能应用日益广泛所带来的复杂性,需要跨国界、多学科的协作共同应对。对于中国等亚太地区国家而言,欧洲理事会的这项努力具有重要的借鉴价值。中国的人工智能产业同样高速发展,相关伦理和法律规范正在逐步完善。参考欧洲理事会框架公约中的基本原则和治理模式,有助于结合本土实际构建符合中国特色的AI治理体系,实现创新发展与社会稳定的双赢。此外,框架公约的多边参与机制亦启示全球范围内加强国际合作,推动构建开放、包容、公正和透明的国际人工智能治理体系。
未来,伴随着新兴技术如生成式AI、自动驾驶、智能医疗等的不断涌现,框架公约所强调的灵活性和技术中立原则将显得尤为重要。它为各国应对未知风险提供了政策空间,使法规保持与技术演进同步。与此同时,持续强化人权保护、民主监督和法治保障仍然是治理工作的核心。总之,欧洲理事会的《人工智能框架公约》标志着全球人工智能治理进入一个新的阶段。它不仅是对技术发展带来挑战的回应,更是人类社会坚持价值优先的宣言。随着越来越多国家和地区加入公约及其实施,人工智能将在安全、负责任和创新的轨道上持续前行,最终实现在尊重人权与促进科技进步间的和谐共融。
这一国际法律文书将为全球AI治理设立标杆,塑造未来数字社会的公平正义与可持续发展蓝图。 。