近年来,人工智能(AI)在医疗健康领域的应用逐渐成为热点,美国食品药品监督管理局(FDA)也积极拥抱这项技术,推出了名为Elsa的人工智能工具。FDA将其定位为加速新药和医疗器械审批的创新利器,希望借助AI技术减轻繁复的审批负担,提升审批效率,进而优化公众健康医疗资源的配置。然而,虽然这项技术在官方宣传中被描述为革命性的突破,许多FDA内部员工和观察人士却对其实际效果持谨慎甚至担忧的态度。Elsa是FDA近年来快速研发并部署的一款面向监管流程的人工智能助手。其被设计为能够快速获取并整理海量文献资料,生成会议记录,帮助审批人员寻找和汇总药品相关的科学研究及安全性信息。理想情况下,Elsa能够缩短审批周期,避免人力资源重复劳动,提高审批工作的准确度和透明度。
然而,确实问题也随之暴露。多位FDA现任及前任员工在匿名访谈中透露,Elsa在实际工作中的表现并未达到预期。最为严重的问题是所谓的AI“幻觉”现象,即它会凭空“编造”不存在的研究数据或错误解读科学文献。这不仅导致信息失真,还增加了审批人员核实数据的额外工作量。部分员工表示,尽管人工智能能够辅助完成文档整理和会议摘要,但在核心的审评决策中,AI并不可靠,反而可能误导决策过程。除此之外,Elsa目前无法访问许多关键的内部文件和行业提交材料,限制了其对审批流程的支持能力。
比如,无法准确追踪某家公司的审批历史情况,也不清楚该公司相关产品的市场表现,这使得药品风险评估难以依赖该工具提供的信息。针对这些挑战,FDA领导层给出的回应强调,Elsa仍处于不断完善阶段,其局限性正逐步被识别和修正。FDA的AI负责人Jeremy Walsh提到,未来几周内将实现用户自主上传文档至个人资料库的新功能,提升工具的灵活性和实用性。FDA专员Marty Makary同时指出,使用Elsa完全是自愿的,监管人员可以根据需求决定是否采用这项技术。目前,FDA人员多将Elsa用于组织和总结工作,而非直接参与重大审批判断。此外,Makary认为核心审核仍由科学专家主导,AI只是辅助工具,最终决策的责任仍掌握在人类手中。
尽管如此,Elsa的局限性暴露出一个更广泛的问题,即美国对于医疗领域AI应用的监管空白。相较于欧洲2024年实施的《人工智能法案》,美国缺少针对高风险医疗AI系统的明确监管框架。曾于拜登政府期间设立的AI监管工作组在去年解散,国会尽管就AI潜在风险召开了多场听证会,但尚未通过实质性的监管法律。整个AI药品审批系统的运行,处于一种“野蛮生长”状态。一方面,人工智能的快速发展和广泛期望推动政府和行业积极采纳相关技术,另一方面,缺乏规范和安全保障导致潜在风险难以预测和控制。特朗普通胀期间,特朗普政府在推动AI战略方面采取高调宣传,强调美国在人工智能领域的全球领导地位,试图借助AI技术加快创新步伐,提升竞争力。
特朗普本人也公开称人工智能将成为美国科技主导地位的重要支柱。然而,这种迅速推进的背后却受到内部人员对技术稳定性和可靠性的质疑。专家们普遍认为,人工智能尚无法替代人为的复杂判断,尤其在评估药物安全性和疗效等需要综合多方面细致数据的工作中更是如此。机器缺乏临床直觉,无法像专家一样判断数据的微妙关联和潜在风险。美国的人工智能发展面对的唯一不是技术瓶颈,而是监管和伦理的框架建设,确保技术的安全和有效应用。Elsa作为FDA的人工智能尝试,尽管暴露不少缺陷,但其研发过程及应用实践仍然极具价值。
它为未来AI辅助监管工作积累了宝贵经验,也揭示了实现真正智能化审批系统的复杂挑战。针对未来,FDA需要加强内部人才培训,提高员工对AI技术的理解和使用能力,同时持续优化AI模型的准确性和安全性。此外,推进合理的政策与法规制定,建立透明、可信赖的人工智能应用标准是不可或缺的一步。公众和监管者都应意识到,人工智能并非万能,它更多是工具而非决策者,合理利用人工智能可以节省时间和资源,但依然需要人类严密监控和判断。实现药品审批的智能化进程必然是一个渐进的过程,需要技术研发、政策引导和实践反馈的多方协力配合。总的来说,FDA借助人工智能试图革新传统监管流程,代表了医疗创新的未来趋势,但过程并非一帆风顺。
如何规避AI带来的假信息风险,保障审批工作的科学性和公平性,是摆在监管层前的重要课题。只有建立起兼顾创新与安全的监管体系,才能真正实现药品审批的高效与可信,造福广大患者和整个医疗行业。随着技术的不断进步和监管框架的完善,人工智能在FDA药品审批中的角色有望逐步强化,最终实现科技助力公共卫生的理想蓝图。