近年来人工智能在医疗影像与内镜领域的应用飞速发展,从计算机辅助检测(CADe)到计算机辅助诊断(CADx)不断提高病变识别的即时性和敏感性。许多临床试验显示,人工智能系统在短期内可以提升腺瘤检出率(adenoma detection rate, ADR)和整体筛查效率,因此被广泛视为提升癌症早期发现的重要工具。然而,一项来自波兰并发表于Lancet Gastroenterology and Hepatology的研究,提出了截然不同且值得警惕的观点:在临床实践中,医生在使用人工智能支持几个月后,其个人在结肠镜中的腺瘤检出能力反而出现显著下降,研究报告指出检出率下降超过20%,研究者将这一现象归结为"技能退化"(deskilling)。 该研究在四个内镜中心展开,对比了在引入AI辅助前后经验丰富的内镜医师的检出率变化。令人不安的是,即便是经验丰富的医生也表现出明显的能力下降,研究作者担忧这种影响在资历较浅的医生中可能更为严重。UCL的Omer Ahmad在配套评论中指出,这是首例在真实临床环境中提供技能退化证据的研究,并警示先前许多关于AI提升性能的研究可能被该复杂的人机互动效应所掩盖或"伪造",强调必须进一步评估这一现象是否普遍存在以及其可逆性。
研究组中也有研究者提出,随着人工智能性能进一步提升,人类技能退化的风险可能会加剧。 为什么会发生技能退化?机制是多方面的。首先是注意力与感知的迁移。长期依赖AI提示,医生的搜索策略会逐步从主动筛查转为被动等待系统提示,导致对未被AI标记的微小病变注意力下滑。其次是信任校准失衡。若AI系统在多数情况下表现优异,医生可能产生过度信任,倾向于接受AI结论而减少自主判断或复核。
再次存在"报警疲劳"与界面依赖问题。频繁的AI提示或视觉叠加可能改变内镜师的视野和操作习惯,进而影响手动探查的彻底性。除此之外,培训与持续教育机制不足也会放大问题:当临床日常由AI承担部分识别任务时,医师在实际操作中缺少必要的训练频次,技能便容易随时间流失。 这种技能退化并非仅仅是个体能力的损失,它还带来系统性风险与伦理、法律挑战。对于患者而言,长期依赖AI而导致的检出率下降可能延误早期癌变的发现,影响预后与存活率。对于医疗机构与监管者而言,需要重新审视AI的引入方式、认证标准与质量监控指标。
如果AI介入改变了诊疗流程,医疗质量评价指标(如ADR)是否应调整以反映人机协同的真实风险?如果AI引发能力下降并最终造成漏诊,责任如何界定:制造商、医院、还是操作医生?这些问题都需要在政策层面和临床实践中明确答案。 面对这一困境,采取单一技术替代并不可取。人机协作应被设计为既利用AI优势又保护并提升医生技能的模式。首先,实施严密的监测与审计制度至关重要。医院应在引入CADe/CADx系统前后,持续跟踪医生个人与团队的ADR与其他质量指标,一旦出现下降趋势立即触发调查与干预。其次,需要建立有意识的训练机制,确保医生在使用AI的同时保持独立诊断技能。
模拟训练、定期无AI操作的练习回合以及高强度的案例讨论都可以帮助巩固手动检测能力。第三,AI系统设计应强调可解释性与透明度。若AI只以"有/无"或显著标记输出结果,会促使医生形成机械依赖。更理想的系统应提供原因性指示、病变特征提示以及置信度信息,帮助医生理解AI判断的依据,从而促进合适的信任校准。第四,人机界面需要优化以减少视觉干扰与提示过载,提示应为辅助而非主导,灵活可配置以适应医生经验水平。 监管层面也需跟进。
医疗AI产品的监管审批不应仅基于算法在静态数据集或受控试验中的表现,还要考虑引入后对临床工作流程与医师能力的长期影响。监管机构可以要求制造商在试验中包含"真实世界使用后效"评估,或要求进行随访研究,报告引入AI后对关键质量指标和技能保留的影响。医院在采购时应审视供应商是否提供持续教育支持、是否允许科研与质量改进项目并共享原始系统性能数据。 研究方法学方面,当前研究多集中于AI直接性能提升效果,但应扩展为长期随访、随机对照设计以及心理学与行为学交叉研究。需要回答的关键问题包括技能退化的时间曲线、不同经验层次医生的敏感性、AI性能阈值与退化程度的关系、以及哪些界面与提示策略可以最小化退化。多学科研究团队应融合临床内镜学、认知心理学、人机工程学和健康政策学,设计能同时评估临床结局与操作行为变化的研究方案。
临床实践中可采取多种可操作的缓解措施以降低风险。医院管理层应将AI视为质量改进工具的一部分,而非替代人类专业判断的"黑盒"。引入AI的项目应伴随培训计划、定期技能考核与质量反馈循环。对于新手医生,应限制AI引导的学习阶段并确保其在导师监督下进行传统训练,以免早期形成对AI的依赖。对于经验医生,应鼓励间隔性"AI禁用"自检,以维持手动搜索与识别的敏感性。同时,同行对照与复审机制有助于及时发现因AI引发的检出率下降。
从患者沟通的角度来看,医疗机构应在使用AI辅助诊疗时,向患者明确说明AI的角色、潜在收益与风险,保障患者知情权。透明沟通不仅是伦理责任,也有助于建立信任,减少因AI错误或能力下降引发的法律纠纷。 技术发展不可阻挡,但我们可以选择如何引导这股力量。若不及时应对技能退化问题,AI可能在初期带来表面上的绩效提升,却在长期侵蚀医疗队伍的核心能力,最终反噬患者安全。反之,通过谨慎的设计、监管、培训与持续研究,人工智能有望成为放大医生能力而非替代其判断的工具。未来的目标应是实现真正的"增强医学",在守护患者安全与提升早期癌症筛查效果的同时,确保医生技能得到维护与传承。
结语:波兰研究提供了一个重要警示 - - 在拥抱人工智能带来的便捷与效率时,医疗界不能忽略对专业技能的保护。建立以证据为基础的人机协作标准,强化培训与质量监控,并推动跨学科研究,是避免技能退化、保障筛查质量与患者生命安全的必由之路。只有在科学、伦理与制度的共同约束下,人工智能才能真正成为医疗领域的助力而非隐患。 。