人工智能(AI)的普及正在改变我们的生活和社会运作方式。然而,面对AI带来的复杂影响,信任问题日益突出。信任作为社会运行的基础,其内涵复杂而深刻,尤其在AI时代,更需要被重新理解和构建。安全专家布鲁斯·施奈尔(Bruce Schneier)就人工智能与信任关系提出了深刻见解,为我们理解AI信任问题提供了宝贵视角。 信任不是一个简单的词汇,而是包含不同维度的多层概念。施奈尔区分了两种信任:人际信任和社会信任。
人际信任强调人与人之间的情感纽带和道德评价,这种信任建立在熟悉和人际关系的基础上,具有一定的亲密性和可靠感。而社会信任则是指在人与陌生人之间基于规则、法律和技术系统形成的可靠性和可预测性。这种信任是大规模社会正常运转的关键,也是AI时代尤为重要的信任形式。 随着AI技术的进步,社会信任的复杂性加剧。我们常常会把AI误解为“朋友”或“伙伴”,但事实上,AI更像是服务工具,由背后的公司操作和控制。公司追求利润最大化,往往暗中利用用户,对AI系统进行操纵和偏见植入,最终使得用户在无形中成为了被监视和控制的对象。
这种“伪信任”的陷阱日益明显,社会信任面临巨大挑战。 施奈尔指出AI信任问题的核心之一是安全,特别是完整性问题。不像传统的信息安全主要关注机密性和可用性,AI安全的重中之重是完整性——即保证数据和算法的真实、准确和不可篡改。完整性的缺失可能导致AI输出偏颇甚至错误,造成严重后果,如误导公众、助长欺诈或被恶意操纵。这种完整性攻击包括对训练数据的操纵、输入指令的篡改(例如提示注入攻击),甚至是AI模型本身的破坏。 AI的独特性在于它与人们的关系更加密切和“亲密”。
未来的个人数字助理将全天候伴随我们,学习我们的喜好、情绪和行为轨迹,以提供定制化的建议和服务。人们自然会将这样具有拟人特征的AI视为朋友或伙伴,赋予它更多信任。然而,这种信任极易被滥用,因为AI背后的商业利益驱动可能导致隐私泄露、利益冲突以及对用户的操控。 因此,构建可信赖的AI必须落实在多个层面。第一,AI的行为、训练流程、数据来源和潜在偏见必须透明和可理解。公众需要知道AI是如何被设计和运作的,才能做出理性的信任判断。
第二,AI系统必须具备强大的安全防护,确保完整性不受侵犯。各种潜在攻击必须被有效识别和防范。第三,法律和监管框架要跟上技术进步,设立最低标准和强制措施,约束AI企业的行为,防止过度监控和滥用权力。 施奈尔强调,监管主体应聚焦于AI背后的人类及组织,而非仅仅针对AI本身。因为AI没有自我意识或独立行动能力,所有行为的责任应归咎于开发和运营这些系统的人类和公司。只有明确责任主体,才能实现真正的管理和问责,推动AI往社会信任的方向演进。
在技术创新方面,施奈尔提出了“完整性”的新范式。他创造了“integrous”一词,用来描述注重完整性保护的系统设计理念。维护数据和计算过程的真实性、可验证性和可追溯性,是下一代AI系统必不可少的特性。相关研究包括可验证传感器技术、审计机制、完整性检测和恢复机制等,这些都是确保AI可信赖的重要手段。 此外,他介绍了“主动钱包”(Active Wallet)等基于标准协议如Solid的个人数据存储方式,强调用户应拥有对数据的控制权和授权权限,让数据使用更加透明、可信。这不仅是技术进步,也是赋能用户、平衡数据权力的重要方向。
然而,信任的建立不仅仅是技术问题,还涉及社会和政治层面。企业本质上是利润驱动的组织,其利益往往与公众利益冲突。因此,信任只能通过政府等公共机构介入,制定法律法规,实现权力和利益的均衡。已有的法律体系为社会信任奠定了基础,如合同法、财产法、消费者保护法等。类似地,AI时代需要专门针对透明度、安全性、责任承担等方面的法律,从而形成可靠、可预测的社会机制。 全球范围内,如欧盟的《AI法案》已开始尝试建立AI监管框架,但施奈尔认为仅仅针对AI本身的立法是远远不够的,应更加突出对人类责任主体的监管。
他还倡导建设由政府、学术界和非营利组织共同推动的“公共AI模型”,它们不仅透明、负责任,还向全社会开放,促进公民权利和创新生态的平衡发展。 整个AI生态的未来依赖于社会信任的确立。它要求三条工作主线并行推进:传统意义上的AI安全,广义的AI完整性,及通过法规和政策调整利益驱动机制。只有这样,AI作为社会服务的一部分,才能赢得大众持久的信任。 总结来说,AI带来了前所未有的信任挑战,但也提供了推动社会信任创新的契机。区分人际信任与社会信任的角色,理解AI作为服务而非朋友的本质,关注完整性问题,加强安全防护和责任追究,建立有效的监管体系,以及推动公共AI模型的发展,都是新时代构建AI信任不可或缺的要素。
未来的社会能否安全、包容、高效地利用人工智能技术,关键在于我们能否以科学和人文智慧共同塑造一个可信赖的AI生态。