在数字化浪潮的推动下,人工智能技术逐渐融入医学影像领域,引发了放射学的深刻变革。放射学以其数字图像、标准化任务和明确的判定标准为基础,成为人工智能技术应用的理想土壤。早在2017年,一款名为CheXNet的人工智能模型就以超过多位资深放射科医师的准确率,成功检测出肺炎病例。它在基于十万余张胸部X光片训练后,能够在消费级GPU上快速运行,实现几乎实时的扫描分类。随后的几年里,诸如Annalise.ai、Lunit、Aidoc和Qure.ai等公司推出了更加多功能和高效的影像识别模型,涵盖中风、乳腺癌、肺癌等多种疾病,且往往在基准测试中胜过人类医生。这些模型不仅能够筛查疾病,甚至能优化医生的工作流,智能排序紧急病例优先处理,自动生成结构化报告,并无缝接入医院信息系统。
部分产品如LumineticsCore已获美国食品药品监督管理局(FDA)批准,直接实现无人工干预的自动诊断,显示了医疗AI应用的巨大潜力。截至2025年,FDA批准的放射学AI模型已超过700款,约占全部医疗AI设备的75%以上。然而,尽管AI模型在实验室基准测试中表现优异,现实临床环境中的应用效果却未能完全达到预期。首先,影像识别需涵盖极其广泛和复杂的诊断任务,而每个具体问题往往需要专门训练的AI模型,导致医生不得不在数十种模型之间切换,才能覆盖临床日常工作。这种"模型孤岛"现象限制了AI的全方位使用。其次,数据的多样性和复杂性为模型的泛化能力带来了巨大挑战。
训练数据常常来自有限的医院和患者群体,缺乏多样性,使得AI在面对不同医院设备、拍摄技术或患者人群时表现下降。例如,某款用单一医院数据训练的肺炎检测模型,在异地测试时准确率下降了约20个百分点。训练数据普遍偏向诊断明确、影像质量良好的病例,缺少儿童、女性及少数族裔的影像样本,难以保证不同群体的公平性和精准性。此外,现实临床中常见的模糊、角度异常或有伪影的影像也让AI难以应对。再有,医疗行业的监管和保险制度对AI充分替代人类诊断设置了高门槛。FDA将医疗影像AI分为辅助类与自主类两种。
辅助类产品需由人工最终审核诊断,审批要求相对宽松;而自主类产品不需人工介入,必须满足极严格的安全性与适用性标准,如自动拒绝不合格图像。即使获得批准,自主诊断AI仍面临医疗责任保险不愿承保的尴尬局面,保险合同中往往排除对无人工审核诊断的责任承担,限制了其在医院的推广。加上医疗行业对诊断错误的零容忍,AI完全替代人类诊断的落地步伐缓慢。除此之外,放射科医生的工作职责远超影像判读本身。研究显示,影像解读仅占其工作时间的三分之一,剩余时间多用于审核检查过程、与临床医师和患者沟通、教学、审查检查申请及调整扫描策略等。因此,即便AI能够提升诊断效率,医生的角色更可能转向非读片任务,减少了AI替代医生的潜力。
历史经验表明,技术进步往往伴随着工作量的增加而非减少。数字化影像系统普及后,美国医学影像使用频率快速增长,放射科医生的人力需求反而上升。此外,医生对辅助AI的依赖在现实诊疗环境中表现出独特的行为模式。研究发现,面对辅助AI诊断提示时,医生有时过度依赖AI判断,尤其当AI未标记异常时,医生可能放松警惕,导致误诊增加。早期的计算机辅助诊断技术(CAD)曾被寄予厚望,尤其在乳腺癌筛查中取得部分成功。然而广泛临床应用后发现,CAD并未显著提高癌症检出率,反而导致更多不必要的回诊和活检。
2018年,美国医疗保险停止了对使用CAD读片的额外补偿。面对当前AI模型性能和制度环境的双重限制,未来放射学AI的发展趋势显示出"人机结合"而非"人机替代"的模式将是主流。拥有更广泛覆盖和更强泛化能力的多任务基础模型可能逐步出现,突破训练数据不足的瓶颈,同时新兴技术如自监督学习和合成数据生成为解决偏见和多样性问题提供方案。然而,技术提升之外,医疗行业需要修改监管规则,完善责任保险制度,加强临床验证,培养医生对AI的有效使用及协同能力。合理引导医患关系和医疗服务流程调整,也将促使AI更好地发挥价值。放射学的经验也映射到更多知识密集型职业。
尽管大规模互联网公司在内容审核等领域实现机器主导,但涉及高风险、高复杂性的专业判断工作,AI普遍带来的是工作性质变化与补充,而非废弃岗位。总的而言,人工智能为医学影像诊断插上了飞翔的翅膀,极大提升了检测速度与精准度,但其渗透与主导地位的确立还需破解数据、监管、行为及制度多重难题。未来几十年,伴随着技术成熟和医疗体系的逐步适应,放射学与人工智能的结合必将推动医疗服务模式的根本变革,造福亿万患者。与此同时,也提醒社会大众理性看待AI预期,注重人机协同的创新实践,推动医疗科技迈上新台阶。 。