国际疾病分类(ICD)编码作为全球医疗体系中的重要组成部分,承担着将患者健康记录中的诊断和治疗信息转化为标准化代码的关键任务。这些代码不仅关系到医疗费用的结算,更是医疗数据分析和公共卫生决策的重要基础。然而,传统的人工临床编码过程费时费力,容易出现错误,亟需借助先进技术实现自动化。大型语言模型(LLM)作为近年来人工智能领域的重大突破,正逐步展现其在临床编码领域的潜力与价值。国际疾病分类编码系统由世界卫生组织维护,拥有大约七万五千个细分代码,覆盖范围极其广泛且层级复杂。编码工作要求对诊断的准确理解,并结合病变部位、症状等背景信息,加以细致划分。
人为编写这些编码不仅需要专业的临床知识及编码经验,且流程繁琐,容易因细节疏漏导致医疗账单错误和临床数据失真。自动化编码系统必须克服诸多挑战,首先是标签空间极其庞大。ICD编码中细微的差异可能体现为不同的代码,例如同一疾病根据受影响部位不同而编号各异。此外,存在大量罕见病种标签,这些标签在训练数据中出现率极低,传统深度学习模型难以准确捕捉。其次是新代码的快速迭代。随着医疗实践和疾病分类的演进,ICD持续更新,新代码不断加入。
依赖历史数据训练的模型往往面临无法识别新标签的问题,导致需要频繁重新训练,成本高昂且耗时。信息提取与上下文关联是第三大难点。医疗文本内容丰富,包含多层次、复杂的诊断信息,编码过程中不仅要识别基本疾病名称,更需挖掘附加信息,如病变部位、严重程度、相关症状,这一过程类似于关系抽取。大型语言模型借助其强大的上下文理解及自然语言处理能力,为自动化临床编码带来了新的机遇。LLM具备零样本和少样本学习能力,能够在无须大量标注数据的前提下,通过合理提示完成复杂任务。结合检索增强生成(RAG)技术,LLM能动态访问外部知识库,实现对新兴及罕见ICD代码的快速适应。
在关系抽取任务中,LLM展现出卓越的性能,能够无需专门训练即识别文本中不同实体间的语义联系,从而精准地为诊断建立必要的上下文,保障编码准确无误。近期研究中,一种基于LLM的树状结构搜索算法尤为引人注目。ICD编码体系层级分明,算法从根节点开始,逐层展开各级子编码节点。每一层将当前层代码描述与医疗文本共同作为提示输入给LLM,模型预测相关代码,进而继续向下遍历子节点,直至叶节点确定最终诊断编码。这种方法无需对模型进行专门微调,充分利用了LLM对于文本理解和分布式知识的优势。实验中,该方法在稀有代码识别和宏观指标上表现优于传统预训练语言模型,同时超越了直接令LLM基于其内在知识库进行编码的简单方案,证明了将语言模型与结构化知识树结合的巨大潜力。
不过,该方法也存在局限,首先由于树结构层级较多,每层均需调用模型,导致调用次数及响应时间增加,带来较高的计算成本和延迟。其次,一旦在中间层出错,无法顺利抵达正确叶节点,将直接影响最终编码结果。此外,由于数据敏感性,现有大型公开临床数据集难以被上传到外部API进行评估,影响方法的广泛验证和推广。结合实际落地需求,研究者们对该算法进行了复现,采取了合理的prompt设计和翻译策略,使用了多模态模型GPT-3.5与Llama-2 70B Chat进行对比测试。实验显示算法在微观评估指标上达到或略高于原论文表现,尽管宏观指标略有下降,但整体效果令人鼓舞,说明模型提示设计和外部知识联动在临床编码中的重要性。展望未来,将大型语言模型作为智能代理,结合生物医学知识图谱和文献数据库,实时参考额外信息,实现细粒度医疗文档分析,或将成为推动临床编码智能化深化的关键路径。
强化内存机制和动态决策流程也有望解决模型调用繁重和层级误判的问题,促成高效且准确的自动化临床编码解决方案。当然,当前大型语言模型的计算资源需求和安全隐私合规仍是广泛应用的关键障碍。医疗系统对数据保密性的高度要求往往限制云端服务的使用,未来需要发展本地化和低延迟部署技术,提升系统的稳定性与安全性。总之,结合ICD编码领域自身的复杂性及大型语言模型的先进特性,探索将其双重潜力融合开发的自动临床编码系统,无疑是当今医疗信息技术的前沿课题。持续优化算法设计、提升模型效率与驾驭能力,必将为医疗数据管理、病案质量提升和医保精准计费奠定坚实基础,助力构建更智能、高效且以患者为中心的现代医疗生态。 。