在公共讨论中,"人工智能安全"常常被泛化为一个整体话题,但不同类型的AI系统在危险性质、可控性和社会后果方面存在显著差异。Waymo的机器人出租车和OpenAI的ChatGPT都是高知名度的人工智能系统,但它们面临的安全挑战和规制路径大相径庭。从造成实际伤害的直接性、系统可验证性、测试与部署流程、行业监管和商业激励等多个角度看,Waymo的机器人出租车在目前技术和监管框架下很可能比ChatGPT更"安全"。对"更安全"的论断并非意指机器人出租车没有风险,而是强调在可测量性、责任归属和工程化缓解方面的优势。下面从几个关键维度展开分析,厘清两类系统为何呈现出不同的风险画像和社会治理可行性。首先是直接物理危害的特性差异。
Waymo的产品运行于现实道路上,涉及乘客、行人和其他道路使用者的生命安全,因此其风险具有高度直接性和可量化性。事故会产生明确的物理后果,便于通过传感器数据、黑匣子、视频记录等证据进行事故重建和责任认定。相比之下,ChatGPT主要在信息领域产生影响,风险多表现为错误信息、误导性建议、隐私泄露或被用于恶意用途。信息伤害往往更难量化,涉及时间和空间的延迟传播以及复杂的因果链条,责任认定更为模糊。其次,看系统的可验证性与可测试性。自动驾驶系统在工程上需要经过大量传感器标定、仿真测试、封闭道路测试和逐步开放道路试验。
Waymo拥有严格的数据采集与标签化流程,可以在受控环境中反复验证车辆对特定场景的反应。即使面对极端场景,也能通过仿真平台复现并改进。ChatGPT作为大规模语言模型,其行为高度依赖训练数据和模型参数,并且对微小输入变化可能产生不可预期的输出。语言模型在语义层面错误很难通过有限的测试用例覆盖所有边缘情形,具备高维度、开放式输入空间的特征使得全面验证几乎不可能。第三是监管环境与行业规范的差异。自动驾驶车辆是高度监管的产业,涉及车辆安全标准、上路许可、道路测试许可证、以及多层次的政府审查。
监管机构可以要求事故报告、远程黑匣子记录、功能安全认证和冗余系统设计,从而以制度性手段降低风险。机器人出租车公司为进入市场必须满足政府和第三方机构的合规要求。相比较,生成式AI如ChatGPT目前仍处于快速演进和监管滞后的阶段。各国对大规模语言模型的监管逐步推进,但在训练数据许可、输出责任、可解释性和滥用防范方面尚未形成统一的强约束机制,这增加了潜在社会风险的不可控性。第四是可追责性与商业激励结构。Waymo作为一个商业实体,其运营团队对乘客和公众负有明确的法律责任。
事故发生后往往有清晰的责任链,保险和法律体系可以介入赔偿与整改。公司的商业利益也驱动其投资于安全工程、冗余设计和长时间的道路测试。ChatGPT所属的开放AI生态中,责任往往分散在开发者、平台和使用者之间。生成式AI被嵌入到多种第三方应用场景,谁对最终输出负责并不总是清晰可判定。这种责任分散降低了外部对企业进行强制整改的有效性,从而在激励上不如对物理安全高度敏感的自动驾驶公司那样集中。第五是失败模式与缓解措施的差别。
Waymo面临的失败模式多为传感器失效、感知误判、决策延迟或控制执行问题。工程上可以通过多传感器融合、高可靠性硬件、冗余控制回路、实时监控与紧急停止等手段缓解。车辆操作的闭环控制特性和明确的安全边界使得工程补救具有可操作性。ChatGPT的失败模式多表现为幻觉、偏见输出、被对抗样本诱导生成有害内容或被滥用来规模化制造错误信息。缓解手段包括更严格的训练数据筛选、反事实检测、对话限制和人工审查,但这些措施往往会牺牲模型能力或用户体验,同时对抗性和滥用手段会不断演进,使得风险管理呈动态博弈特征。第六是公众感知与信任构建。
上路车辆的安全记录容易被量化并公开,事故率、每公里事故数等指标可以直接呈现给监管者和公众。Waymo通过里程数、安全报告和封闭场景演示逐步构建信任。相反,大型语言模型的错误往往通过信息传播造成后续放大,而公众对语言输出的可信度评估存在主观性,容易被错误信息误导,信任缺乏可靠的量化指标。第七是滥用与规模化风险的不同。ChatGPT类模型被用于自动生成新闻、广告、诈骗邮件与伪造内容,滥用门槛低且易规模化,因而在社会层面可能引发广泛的误导、选举干预或金融诈骗等问题。机器人出租车虽然一旦被远程攻破也可能造成生命危险,但其被滥用进行大规模伤害的门槛通常更高,需要物理接触或较复杂的操作环境。
第八是伦理与治理难题的差异。机器人出租车需要面对瞬间决策中的伦理取舍,例如如何在事故不可避免时选择最小化伤害,但这些伦理问题通常边界明确并可在工程设计中通过规则和冗余减少发生概率。语言模型牵涉到更为抽象的价值观输出、偏见放大与言论监管,伦理治理涉及言论自由、审查与歧视边界等复杂社会议题,容易产生价值冲突且难以用工程手段完全解决。尽管如此,认为Waymo的机器人出租车普遍"更安全"并不意味着可以忽视其固有风险。自动驾驶仍面临感知在极端气候、复杂工况下的失效,法规滞后可能导致责任模糊,黑客攻击和供应链风险也是现实威胁。Waymo和行业同行必须持续投入功能安全、网络安全与透明度提升。
同时,ChatGPT的风险也不可低估,信息领域的危害能以低成本高速扩散,对社会信任和民主机制造成系统性损害。面对两种系统的不同风险,政策制定和企业治理需要差异化策略。对自动驾驶的监管应继续强化对实地测试数据透明度、事故上报机制、独立安全评估和网络安全认证的要求,同时鼓励技术披露与跨企业共享异常场景以提升整体行业安全。对生成式AI的治理应侧重于训练数据来源合法性、输出可追溯性、使用者身份验证、滥用检测与限制以及对高风险应用场景的准入控制,建立明确的责任分配框架和法律边界。企业层面应采用以人为本的设计,结合技术手段与制度安排。Waymo等自动驾驶企业需要在工程上保持保守设计原则,确保冗余和可回退的控制策略;同时在公众沟通上提供透明的安全指标和第三方审计。
生成式AI提供者需要加强实时监管机制、设置使用限制并提供更易理解的输出来源说明,降低模型幻觉和滥用风险。总之,Waymo的机器人出租车之所以"可能"被认为更安全,源自其物理风险可量化、测试路径明确、监管要求严格且责任链条相对清晰的特点。ChatGPT代表的生成式语言模型在风险的抽象性、可验证性和滥用潜力上更具挑战,治理难度更高。未来两类系统的安全性都将依赖于技术进步、法规完善和社会共识的建立。公众和政策制定者应避免将人工智能视作单一风险点,而应根据不同AI系统的功能、后果和治理可行性制定差异化策略,既不过度恐慌,也不盲目乐观,推动在创新与安全之间找到合适的平衡点。 。