人工智能,尤其是生成式AI,因其强大的文本生成能力而迅速走红于全球。不论是ChatGPT、Gemini还是其他大型语言模型,用户常常被其流畅自然的回答所折服。然而,令人困扰的是这些模型偶尔会输出完全虚构的信息,这种现象被称为“AI幻觉”。这种输出既可能带来误导,也成为限制AI实际应用的障碍。然而,前谷歌AI研究员、Humanloop联合创始人兼首席执行官拉扎·哈比布(Raza Habib)近日在伦敦召开的Fortune Brainstorm AI大会上表示,解决AI幻觉问题是“显然可以实现”的目标,并且乐观估计这一问题将在2024年内得到解决。AI幻觉产生的根源主要在于大型语言模型的训练过程。
根据哈比布的介绍,训练阶段分为预训练、微调和基于人类反馈的强化学习。尽管当前模型在微调之前表现出良好的置信度校准,即模型自身对于答案的准确度有较好的判断,但在微调并强化人类偏好后,这种校准能力反而有所削弱。换言之,模型本质具备区分真假的能力,只是如何在保证模型更易于引导的同时保留这种能力,成为当前面临的主要挑战。哈比布所在的初创公司Humanloop,专注于提升大型语言模型训练的效率和效果,尝试寻找平衡驶向答案准确性与模型可控性的解决方案。直面时间节点,哈比布断言“在一年内”有望实现对幻觉现象的有效遏制。但他同时也坦言,人们不必过于急切地追求完全消除幻觉,因为现代用户已经习惯于容忍一定的技术瑕疵。
以谷歌搜索引擎为例,它并不直接给出明确答案,而是通过链接列表让用户自行甄别信息的真实性。另一方面,部分AI平台则为回答附加引用来源,提升信息的可验证性。哈比布提到,幻觉有时对于推动创造性思维反而是必要的。如果AI希望在未来成为“新知识的创造者”,它需要具备突破数据已有范围的“假设能力”。换句话说,AI必须做出“奇怪且新颖”的推测,并且能在后续阶段进行筛选和验证。这对于科研创新、艺术创作、产品设计等领域尤为重要。
拒绝幻觉的同时,也不能扼杀AI探索未知的潜力。然而,AI幻觉带来的风险依然不可忽视。例如,文章中提及的Air Canada聊天机器人事件便是一个经典案例。2022年,用户Jake Moffatt因计划参加祖母的葬礼,透过该航空公司AI聊天机器人购票。机器人误导他购买全价票,宣称可事后申请部分退款。结果退款请求被拒,航空公司最终需赔偿用户损失。
哈比布强调这是完全可避免的疏忽, airline未设置充分的测试流程和防护机制,允许聊天机器人在未经严格限制的条件下与用户交互,增加了误导风险。服务提供商应当严格审核和限制AI应用的权限,避免公开或商业部门部署未经验证的模型。聊天机器人虽非采用当今最先进的生成式AI,但其缺乏透明度和责任机制启示所有企业必须谨慎推进AI产品。行业内专家们同时也提醒,证明概念(proof of concept)虽重要,但切勿贸然在真实环境大规模应用未经充分验证的系统。一个合理的AI用户体验设计应当具备容错功能,明确告知信息可信程度,允许用户复核与纠错。未来AI系统若能集成多重验证机制、动态调整置信度阈值,并融入人类监督,幻觉问题有望获得突破性改善。
此外,不断扩展训练数据的覆盖面、多模态融合和强化逻辑推理能力,也将助力减轻误导现象。全球科技巨头和新兴创业公司纷纷投入资源竞相攻克这一瓶颈。值得注意的是,技术的演进离不开业界透明交流与监管框架的配合。哈比布本人曾因发布与OpenAI CEO奥特曼的闭门会议内幕而引发话题,这体现了AI发展中信息分享与保密之间的微妙平衡。总的来说,AI幻觉不再被视作不可逾越的障碍,技术革新正朝着“更安全、更可靠、更富创造力”的方向迈进。我们可以期待在不远的未来,AI不仅能够大幅减少虚假信息的生成,也能以合理的方式启发人类探索未知领域。
未来AI的角色将从单纯的信息检索者,转变为有效的知识创造伙伴,为科学发现和实际生产带来深远影响。尽管挑战依然存在,但积极乐观的行业声音为AI的美好前景增添了信心。在这场跨越技术、伦理与应用的变革潮流中,AI幻觉的终结仅是进步的一环,融合创造力与真实性的智能新时代正逐步展开精彩画卷。