近年来,人工智能技术的快速发展极大地改变了人们获取信息和交流的方式。作为OpenAI推出的热门聊天机器人,ChatGPT凭借其强大的语言理解能力和流畅的对话表现,迅速吸引了全球用户的关注。然而,随着应用的普及,AI模型在生成内容时产生的“幻觉”现象逐渐暴露出潜在的严重问题。所谓“AI幻觉”,即人工智能系统在缺乏事实依据的情况下,自行编造不真实信息。这类虚假信息不仅误导用户,甚至可能对当事人的名誉和隐私造成严重伤害。近期,ChatGPT虚构错误且极具毁灭性的犯罪事实,将一位挪威用户塑造成儿童谋杀犯的事件,引发了社会各界对AI伦理和法律责任的激烈讨论。
事件的主人公是挪威用户阿尔韦·哈尔马尔·霍尔门(Arve Hjalmar Holmen)。他尝试用ChatGPT查询关于自己的信息,却被该AI断言为已被判刑的杀人犯。据ChatGPT描述,霍尔门犯下谋杀两个子女并企图谋害第三个儿子的罪行,甚至包括了他子女的真实数量、性别和其所在小镇的名称。更具震撼力的是,机器还称他被判处了长达21年的监禁。显然,这种近乎定罪的描述完全是AI凭空捏造,与事实毫无关联。这样的错误不仅令个人蒙受毁灭性名誉损失,也暴露了当前AI技术在个人数据处理上的巨大隐患。
针对这一事件,欧洲隐私权保护组织“noyb”迅速采取行动,对OpenAI提出了第二起正式投诉。投诉认为,OpenAI未能保证所处理个人数据的准确性,其行为违反了欧盟通用数据保护条例(GDPR)中有关数据准确性的法律要求。根据GDPR第5条第一款第(d)项,处理者应确保所处理的个人数据真实、准确并当时保持最新状态。OpenAI的产品在未能排除严重错误信息的情况下,向公众传播极具严重后果的误导性内容,无疑构成了法律责任。同时,“noyb”指出,OpenAI仅用一句简单的免责声明来提示ChatGPT可能会出错,这种做法明显不足以履行平台应有的法律义务。免责声明不能替代对侵犯个人权利行为的纠正,更不能减轻企业须对数据准确性负责的义务。
法院和数据保护机构在当今对AI监管的加强已成趋势。AI系统因“幻觉”造成的名誉侵害、虚假指控已不是个别现象。类似制造毫无根据的贪腐指控、性骚扰丑闻甚至刑事犯罪等伪造信息案例屡见媒体报道,给受害者带来深刻影响。令人担忧的是,OpenAI在回应投诉时承认其技术无法完全避免生成虚假信息,且目前只能通过“屏蔽”部分不当提示的方式部分控制错误内容,却无法根除整体模型内置的误导信息。这意味着即使将来用户访问功能中不会出现相关虚假内容,这些错误信息却可能继续“潜伏”在AI训练数据和模型参数内。这也使得用户几乎无法请求彻底删除模型内部的错误个人信息,无法行使GDPR赋予的访问权和更正权。
事实上,数据隐私专家和法律界人士普遍关注AI技术的这一不透明性。现有的AI训练模型规模庞大,训练过程极其复杂,使得用户基于自己数据的具体处理方式难以得知。OpenAI拒绝或无法公开详细数据处理策略,未能严肃对待数据主体保障,进一步加剧用户的担忧和不安。从机构监管角度来看,挪威数据保护局(Datatilsynet)已受理针对OpenAI的正式投诉,或将对其实施行政处罚。除了勒令删除有害数据,该机构还可能要求OpenAI调整模型结构,大幅降低甚至根除误导信息生成的几率。同时,罚款措施旨在督促AI企业高度重视合规性,避免因技术便利而忽视基本的用户数据权利和法律责任。
此外,AI行业的相关规范正在积极酝酿与完善。例如欧盟拟定的《人工智能法案》(AI Act)着眼于建立健全监管体系,强化对高风险AI应用的安全性与透明度要求。与此同时,作为广泛用户信息来源的搜索引擎功能也被整合进ChatGPT,使模型可实时从互联网上获取资料,以降低产生“幻觉”的概率。尽管如此,这一改进并不能从根本上解决长期以来训练集误导信息的遗留问题。更重要的是,人工智能的研发者和运营者必须承担起应有的道德与法律责任。技术的飞速发展不可避免,然而依赖概率预测的语言模型固有的局限性不能被忽视或淡化。
只有通过完善算法设计、强化数据治理、充分尊重用户权利,才能减少虚假内容对个人和社会的伤害。人工智能技术的应用深刻影响社会的方方面面。从商业、医疗、法律到日常生活的交互中,准确的信息生成是公众信任的基石。一旦失信,后果不仅是个人名誉被破坏,更可能导致社会信任的坍塌。因此,监管者、企业和公众必须形成合力,明确边界、完善规则、推动技术负责任地发展。反观ChatGPT制造假“儿童谋杀犯”的事件,无疑为整个人工智能领域敲响了警钟。
它警示我们,在享受尖端科技带来的便捷和丰富内容的同时,亟需建立起更加完善的保护机制。不论是技术研发者,还是法律制定者,都要共同处理好创新与安全之间的平衡,确保技术发展不偏离伦理轨道,更不损害个体的基本权利。总的来说,ChatGPT诱发的数据准确性争议,揭示了当下AI生成内容所面临的困境和挑战。数据保护法规和用户维权意识为AI应用提供了不可或缺的外部约束。未来,只有通过完善监管框架、提升技术透明度及用户参与度,才能逐步消除人工智能幻觉的负面影响,推动人工智能技术向更安全、可信的方向发展,真正实现技术惠及大众而不伤害其利益。