近年来,人工智能技术的迅猛发展为各行各业带来了革新性的可能,美国食品药品监督管理局(FDA)作为国家重要的医疗监管机构,也积极投入到人工智能的应用中,希望借助这一技术提升审评效率和监管能力。然而,FDA最新推出的全机构大型语言模型(LLM)人工智能工具——Elsa,在急速上线后却面临诸多挑战,受到内部员工的质疑和外界的广泛关注。作为一款由Anthropic的Claude大型语言模型基础打造,并由知名咨询公司德勤负责开发的工具,Elsa本应在临床协议审核、科学评估、风险安全分析等多方面发挥积极作用,然而实际使用体验却显现出许多问题。FDA内部员工测试时发现,这款AI工具在回答关于FDA批准产品和公共信息的问题时,常常产生部分甚至完全错误的回答。该问题不仅暴露了Elsa背后的训练数据和算法准确性不足,也令整个项目的开发和管理流程遭到质疑。FDA员工纷纷指出,这款工具在研发过程中过于匆忙,技术能力被官方大幅夸大。
尤其是在科学领域应用中,Elsa目前只能被视为一种辅助的行政工具,尚不能取代人工审查和专业判断。更有内部人员担忧,FDA在仓促部署AI的同时,未能制定完善的使用规范和安全防护措施,存在潜在的政策风险和操作安全隐患。FDA首席AI官Jeremy Walsh在工具上线的新闻发布会上,称这是FDA迈入数字时代的重要一步,并强调AI将极大激发员工潜能,优化工作效率。FDA专员Marty Makary更是强调该项目超前完成、高效节约预算,展现出机构对AI创新的积极态度。然而,媒体报道揭示了表面光鲜背后的种种困境。据NBC新闻报道,FDA内部试用报告反映出系统漏洞频发,且与机构内部数据库和网络的融合不畅,用户体验欠佳。
中心设备与放射健康部门的员工还反映,先前由该部门独立开发的AI项目CDRH-GPT,在功能完善度和稳定性方面存在明显不足。自2020年以来,德勤接受了数千万美元的合同,负责FDA文件数据库的构建和AI平台的开发扩展,显然此项庞大工程既涉及技术挑战,也承载了巨大的资金投入。财政紧缩与时间压力则进一步加剧了工具研发的复杂度,使得氛围充满紧迫感。然而,匆忙上线并非没有代价。部分团队成员直言,当前版本的Elsa远无法满足科学审查的严格要求,甚至可能误导审评判定,加大药品和医疗器械监管风险。更重要的是,监管机构亟待建立可信赖的AI治理框架,确保透明度、数据安全、责任追究和风险控制,避免技术滥用带来的负面影响。
FDA这一事件也反映了政府机构在拥抱人工智能浪潮时普遍面临的困境。如何在保证科学严谨与公众安全的前提下,合理整合AI辅助工具,是摆在每个公共卫生监管者面前的难题。业内专家建议,除了强化技术测试和质量控制外,制定清晰的使用政策和培训机制,增强员工对AI潜力与局限的认知,更是必不可少的一环。FDA的案例为全球医疗监管领域提供了宝贵的教训:推进AI应用不能一味追求速度与成本效益,而应兼顾科学性、系统性和伦理规范。未来,通过多方合作,持续迭代升级,人工智能才能真正成为服务公共健康和促进创新的有力工具。FDA本次的经验也将激励更多机构谨慎对待AI落地路径,推动更加稳健和透明的技术整合,助力医疗监管水平迈向新高度。
随着AI技术的不断发展和监管需求的演进,FDA及其他机构必将在实践中不断优化人工智能的应用模式,平衡创新和风险,为公众健康保驾护航。