随着人工智能技术的不断进步,其生态体系逐渐扩展,涵盖了从自动化工具到复杂的机器学习模型等多种应用场景。然而,伴随AI能力提升的同时,潜在的风险管理问题也日益显现。近期两份由非营利组织SaferAI和未来生命研究所(Future of Life Institute, FLI)发布的研究揭示,目前全球领先的人工智能公司在风险控制和安全承诺方面表现欠佳,面临“不可接受”的风险管理水平。研究引发了业界对AI潜在安全隐患的深刻反思,尤其是在AI滥用、恶意攻击和失控风险等方面的担忧不断升级。根据SaferAI的评估,主导市场的多家AI企业在其负责扩展政策(responsible scaling policies)中表现均不理想。综合评分最高的Anthropic仅获得了35%,OpenAI以33%紧随其后,而Meta和谷歌DeepMind则分别位列22%和20%。
xAI公司虽有一定提升,但得分仍仅为18%。值得注意的是,曾被认为安全措施较为完善的Anthropic和谷歌DeepMind的分数自去年十月的首次评估后反而有所下滑,显示出风险管理能力存在退步的可能。SaferAI创始人Siméon Campos指出,谷歌DeepMind尽管在AI安全研究方面有所投入,但其公司政策缺乏具体且坚实的安全承诺,诸如在未分享安全信息的前提下发布名为Gemini 2.5的前沿模型,构成了严重失误。Anthropic方面,新发布的Claude 4模型相关的调整同样引起风险管理反感,因为公司削减了对内部威胁的应对承诺,缺乏透明和严谨的流程。相比之下,OpenAI自评及行业地位有所上升,现居第二,与谷歌的差距逐渐拉大。在未来生命研究所发布的更为广泛的研究报告中,评估范围涵盖现有风险管理、当前危害治理、终极安全(existential safety)、企业治理及信息分享等多个维度。
该报告依据多位独立专家审查企业公开政策、研究论文以及新闻报道,再结合各公司提供的非公开数据综合评分。Anthropic获得了最高的C+等级,OpenAI紧随其后获得C等级,而谷歌仅为C-,xAI及Meta则均获得D等级。这些分数凸显出即便是业界领先者,也普遍缺乏系统完善的安全策略。尤其是涉及“终极安全”这一关乎AI未来是否可能失控的问题,所有被评分的公司均表现惨淡,分别获得D级或更低。科学家及专家普遍担忧,如果AI技术持续失控,可能导致超出人类掌控范围的局面,却缺乏充分的控制计划或安全保障措施。未来生命研究所主席Max Tegmark指出,尽管企业口头宣称要打造能够超越人类智慧的超级智能机器,却普遍缺乏行之有效的安全和控制方案,凸显了业内风险管理的严重缺陷。
AI技术可能被用于执行网络攻击、制造致命生物武器,甚至成为操控基础设施和关键系统的危险工具。当前的研究数据驱动和深度学习模型,本质上存在被恶意利用的可能,这对全球安全构成潜在威胁。AI风险的复杂性和潜在破坏力使得建立有效的风险管理架构成为实现技术良性发展的必然前提。鉴于此,业内呼吁人工智能公司不仅要提升技术能力,更需在安全研究、信息透明和风险治理投入更多资源。公开共享安全研究结果与模型信息,有助于行业内外形成更为有效的监督和协作机制。教育用户了解风险,强化伦理道德规范和法律法规的制定也亟待加强,以遏制可能的滥用和负面影响。
从监管角度来看,政府与国际组织应加大对AI安全标准的制定与执行力度,推动跨国合作应对全球化风险。科技高速发展的背景下,平衡创新驱动力与安全风险成为关键课题。企业内部需要建立全面的风险识别、监控和缓解体系,注重员工培训、威胁评估、响应计划的持续优化。未来人工智能不仅要技术领先,还需做到负责任的研发,以维护社会公共利益与国际安全。综合来看,现有研究充分暴露了当前顶尖人工智能公司在风险管理方面的显著不足。只有吸纳多方专家意见,强化透明度与责任机制,才能有效控制潜在的威胁风险,保障人工智能的健康发展,避免科技悲剧的发生。
人工智能作为未来社会发展的关键引擎,其安全管理问题绝不能被忽视。未来数年,将是塑造AI安全生态系统和治理框架的关键窗口期,全球科技企业和主管机构必须加快步伐,共同筑牢科技进步的安全防线。