2023年是中国医疗大模型发展的元年,各种医疗大模型已广泛应用于临床辅助决策、医学研究、健康管理等多个场景。未来,医疗大模型有望实现多模态AI与医疗实践全流程的深入链接,应用于医疗教育和临床培训,提高药物研发和药物反应监测等方面的能力。但在实际应用中,医疗大模型仍面临一些挑战,如准确度、透明度和可解释性等问题,以及对数据隐私和安全问题的担忧。本文主要探讨医疗大模型在医疗领域的应用及其面临的挑战。

 

 

大模型技术在医疗领域的应用

(一)医疗大模型的逻辑框架

医疗大模型一般指在医疗健康领域应用的大规模预训练语言模型(LLM),其训练数据集包含大规模的医疗科研文献、电子病历、医学图像等,参数量通常在百万级到亿级,远超过普通深度学习模型,因而能够获取更强的特征提取和学习能力等。

医疗大模型的典型运作逻辑主要包含三个层面:

从数据层看,大模型可构建医疗数据集,收集包括电子病历、文献报告、医学知识图谱、医学图像等多源异构的医疗数据,同时进行数据清洗、标注、统一编码,构建规模化的医疗语料库。

从模型层看,可使用Transformer、BERT等框架,输入大规模医疗语料,通过Masked LM、Next Sentence Prediction等方式进行无监督预训练。

从应用层看,预训练模型微调,结合医学知识图谱、规则库等知识源增强医学专业性,使用知识蒸馏、参数剪枝等技术压缩模型并在真实临床环境中评估、调优。经验证的模型可部署到医疗信息系统、移动设备等,提供智能服务。

(二)医疗大模型的主要应用场景和适用范围

医疗大模型在医疗领域的应用广泛,涵盖疾病预测、辅助诊断、个性化治疗、药物发现等各个方面,同时还可用于医疗咨询和患者教育,提供相关信息和建议。

在医疗实践场景中,大模型可以协助分析临床文本以提取关键信息,从而加快医生的诊断和治疗建议。此外,大模型还可辅助分析医学影像,帮助检测肿瘤并进行疾病分型。通过分析DNA测序数据,大模型能识别与疾病相关的基因突变,从而制定个性化治疗方案。同时,大模型还能学习最新的医学知识,为医生提供治疗建议和决策支持。例如,腾讯健康发布的混元通用大模型针对医疗领域升级了多个AI产品,包括智能对话、病例结构化与检索、影像报告和辅助诊断等。这些医疗大模型产品已被整合到患者就诊全流程中,从而提高了医疗服务的效率和质量。

在患者护理和保健过程中,医疗大模型可助力实现以下几方面工作:一是远程监测患者健康,特别是慢性病患者,分析生理参数、设备数据和健康记录,帮助医生管理疾病,减少住院和急诊;二是分析健康记录、生活方式和基因信息,识别风险因素和早期疾病迹象,实现个体化健康管理和疾病预防;三是减轻家庭照护负担,提供远程医疗建议和护理指导,改善远程护理体验。如,讯飞医疗诊后康复管理平台基于星火认知大模型,专注于康复指导和诊后管理,提供个性化康复计划,服务延伸至患者日常生活。

在医院管理流程中,医疗大模型可实现以下功能:一是优化患者流程管理,根据患者需求和临床优先级合理分配医院资源,涵盖排队、资源分配和病房管理,提高患者满意度和医疗效率;二是分析患者反馈、社交媒体评论和医疗调查数据,发掘患者意见和需求,为医疗机构提供建议,助力医疗服务改进和患者体验提升。如,东软针对医疗领域推出添翼大模型,全方位融合医疗行业解决方案、产品与服务,添翼的多模态数据融合能力可为医院管理者提供对话式交互和数据洞察,简化数据应用,实现精细化医院管理。

在药物研发过程中,医疗大模型可预测药物-蛋白质相互作用和药物毒性等信息,从而评估新药的功效和安全性,有助于缩减研发周期,加速新药发现。如,清华系初创团队水木分子推出新一代对话式药物研发助手ChatDD,涵盖药物立项、临床前研究、临床试验各阶段,作为制药专家的AI助手,提升药物研发人员的工作效率。

 

 

医疗大模型的应用场景展示了其在医学领域的多样性和重要性,可改善诊断、治疗和疾病预防,提高医疗保健质量和效率。其应用涵盖临床、管理、教育、公共卫生等多个方面,突显了医疗大模型的全流程应用,有望推动医疗保健的创新和进步。

 

人工智能技术
在医疗领域的优势与挑战

(一)医疗大模型超越传统方法的优势特征

大语言模型(Large Language Model)在医疗领域相对传统方法具有多方面的优势,不仅体现在知识的提取整合上,也体现在医疗实践的各个环节之中。

在自动化的知识提取与整合方面,传统医疗信息整合通常需要大量人工努力,涉及文献检索、数据抽取和手工整理,是一个费时费力的过程。大模型可以自动从大量医学文献中提取知识,识别重要的疾病信息、治疗方法和疾病-基因关联等,迅速整合多个数据源,提供有价值的医学知识。

在临床文本分析与诊断支持方面,传统的临床文本分析通常依赖于规则引擎或浅层机器学习方法,对复杂的医学文本难以处理。大模型可以处理自然语言文本,分析临床病例和医学报告,帮助医生更快速地做出诊断和制定治疗方案。它可以理解上下文,处理模糊信息,并且能自我学习和更新知识,这使得它在处理复杂和变化的医疗问题时具有优势。

在医学影像分析方面,传统医学影像分析需要专业的放射科医生或病理学家进行手工解读,耗时且存在主观性。随着人工智能技术的发展,ChatGPT目前已经可以分析多模态信息,在未来有望能够分析X光、CT扫描、MRI等医学影像,自动检测异常或疾病迹象,提供快速的初步诊断。此外,它还可以学习大量样本,提高准确性和一致性。

在医学研究和知识发现领域,传统医学研究依赖于繁琐的实验和文献回顾,速度较慢。大模型可以分析大规模文献数据,发现新的疾病关联、药物靶点和治疗方法,加速医学研究的进展,为科学家提供重要洞察。

大模型在医疗领域相较于传统方法具有自动化、高效性、多模态数据处理和个性化医疗的优势。这些优势使医疗大模型成为医疗人工智能领域的有力工具,有望提高医疗保健的质量和效率。

 

 

(二)医疗大模型面临的技术挑战与局限

尽管大模型在医疗领域应用有着巨大的发展潜力和广阔的发展前景,但与此同时也必须充分认识到技术层面以及应用层面上的挑战和局限。

在准确度方面,模型仅学习单词间概率关联,缺乏真正的理解能力,且训练数据质量参差不齐,准确性有待提升。大模型训练过程中需加强数据验证、增加不确定性指标、优化医疗精度,并通过智能提示等方式自我改进。医疗大模型要求更高的准确度,且医疗领域数据相对稀缺。

在透明度与可解释性方面,模型如何从输入查询和数据结构生成答案(“黑箱”问题)尚不明确,也不清楚训练数据集中哪些部分在结果响应中使用。解决这一问题需在模型输出时引用对答案贡献的数据部分,并深入研究和开发可解释AI。

大模型在医疗领域的应用面临着知识不足、可解释性和准确度受限、连贯性交叉口、模型幻觉等多个技术挑战和局限。克服这些问题需要跨学科合作、强化数据管理和保护、研究可解释的AI方法,并不断改进模型的性能和安全性,以确保其在医疗实践中的可靠性和有效性。

(三)医疗大模型训练数据的质量提升

保证训练数据的质量和数量是训练大模型的关键。这需要通过严格的数据采集、清洗和标注过程,以及合理的数据管理和保护策略来实现。

在数据采集与清洗方面,应确保收集的数据来自可靠、合规的数据源,如医疗机构的电子健康记录、医学文献数据库和临床试验数据。消除数据中的错误、噪音和冗余信息,确保数据的一致性和准确性,包括处理缺失数据和异常值。

在数据标注和注释方面,对于监督学习任务,需要进行标注和注释以生成带有标签的数据。这需要医学专家的参与,确保标签的准确性。利用半监督学习或主动学习方法,最大程度地减少标注成本,同时提高数据质量。

在多模态数据整合方面,收集不同类型的医学数据,如文本、图像、基因组数据等,以提供更全面的信息。整合多模态数据可以增加训练数据的丰富性。开发模型能够有效地处理多模态数据,从而融合不同数据源的信息。

 

 

在数据增强方面,利用数据增强技术生成额外的训练样本。这可以通过旋转、翻转、裁剪图像或引入小幅度扰动来实现,以增加数据多样性。在自然语言处理任务中,可以使用同义词替换、句子重组等方法进行文本数据增强。

在数据共享和合作方面,与其他医疗机构、研究团队或合作伙伴分享数据,以扩大数据集规模。数据共享和合作可以加速模型的训练和研发。使用数据共享协议和隐私保护措施,确保患者敏感信息的保密性。

在主动数据收集方面,设计医学研究或临床试验,有针对性地收集数据,以满足特定任务的需求,包括患者招募、数据采集和监控。利用远程监测和医疗设备来实时收集患者数据,能够有效提高数据的时效性和质量。

在数据质量监控方面,建立数据质量监控系统,定期检查和评估数据的质量。如果发现问题,及时采取纠正措施,使用数据质量指标和可视化工具,以便监测数据的准确性和完整性。

综合利用这些方法和策略,可以提高训练数据的质量和数量,从而增强医疗大模型的性能和可靠性。同时,确保数据的合规性和隐私保护至关重要,需要遵守相关法规和伦理准则,保护患者和研究对象的权益。

 

医疗大模型的
伦理风险与安全监管

(一)医疗大模型应用的伦理隐忧

尽管大模型在医疗领域的应用展现出极大的发展潜力,但飞速发展的同时也可能涉及数据隐私、信息安全、医疗决策的责任等伦理和法律问题,这些也正是在临床一线工作的医务工作者所关心的问题。

在数据隐私和安全方面,在医疗领域,大模型需处理大量敏感个人健康信息。应确保数据隐私和安全得到保护,防止泄露或未授权访问。训练所需病历数据及实际应用中的敏感信息需进行严格脱敏处理和隐私保护。

在透明度和解释能力方面,医生作为专业人士,应对大模型“黑箱”性质加以关注。医生和患者需理解并信任AI系统的决策过程,要求系统具有透明度和解释能力。有医生表示,目前期望大模型作为医疗助手、科研助手、患者教育工具,而非独立做出医疗决策。

在责任归属和问责制度方面,当大模型参与医疗决策时,若出现错误,需明确责任归属。确定医生、AI系统或开发者承担责任是复杂的法律和伦理问题。如患者因AI错误决策受害,责任归属需慎重考虑。北京市卫健委发布《北京市互联网诊疗监管实施办法(试行)》,禁止使用AI自动生成处方,规范互联网诊疗活动,降低AI技术潜在风险。

许多一线医生对AI在医学领域,特别是临床诊断和治疗中的应用持谨慎态度。尽管AI具有辅助诊断和治疗潜力,医生仍需保持批判性思维,不能完全依赖这些工具。医疗大模型引发的伦理和法律问题需要跨学科合作和全面解决方案,确保安全、公平、可靠和合规使用。这些问题涉及患者隐私、权益,以及医疗从业者责任和医疗质量提升。

(二)医疗大模型中数据的隐私和安全性保障

医疗大模型的应用与发展也带来了对数据隐私保护和数据安全性的重要关切,面临着伦理、法律和安全挑战。大模型无论在训练还是在使用的过程中,都需要保障隐私和数据安全,本地化部署、数据加密、增强数据多样性等都是保障隐私和数据安全性的重要措施。

在本地化部署与隐私计算方面,医疗大模型微调过程需用大量患者敏感隐私数据,直接训练存在潜在风险。隐私计算技术降低信息泄露风险,结合多种技术路线实现高效本地计算。这可以确保模型在安全计算环境中运算,提高模型安全性,且不影响效果。

在数据加密与匿名化方面,先进加密技术(如同态加密和多方计算)确保数据传输和存储安全,仅授权用户可解密和访问。降低数据关联性风险需采用数据匿名化策略,通过去标识化、脱敏和泛化等技术保护患者身份和敏感信息,同时保留数据实用性。建立严格的访问控制机制,确保仅通过身份验证的医疗专业人员可访问数据,采用基于角色的访问控制和双因素身份验证降低非授权访问风险。

在增强数据多样性方面,当前我国医疗大模型领域面临数据质量不足问题。训练数据包括半公开数据(如医学知识库、知识图谱等)以及非公开数据(如临床脱敏数据、电子病历、检测报告、医生反馈等)。使用这些数据训练大模型可降低内容失真、数据安全和隐私泄露风险。

在规范开发与使用方面,大模型的开发者和使用者需遵守医疗数据隐私法律法规,如HIPAA、GDPR等,确保数据处理和共享合法。进行伦理审查,保护患者和医疗从业者权益。遵循伦理准则,优先考虑患者利益,并在研究和应用中考虑伦理问题。

(三)通过有效监管保证大模型在医疗领域安全合规应用

制定监管措施时需考虑大模型特性和医疗领域需求,包括设定模型开发应用标准和流程,设立结果验证和监测机制,建立清晰责任和后果规定等。世卫组织发布的《健康领域人工智能伦理与治理指南》提供了负责任的治理建议,包括符合伦理要求的透明AI技术设计、公众参与机制、诚信展示机制以及AI应用影响评估等。

在建立有力的伦理审查制度方面,医疗大模型涉及多个研究领域,如医学、生命科学、AI、大数据等。开展伦理审查需跨领域协作,由专业伦理委员会进行,确保患者和医疗从业者权益不受损害。伦理审查需考虑患者权利、数据隐私和公平性等因素,制定医疗数据伦理指南,帮助从业者和开发者理解伦理问题并提供指导。

在明确医疗数据的所有权、使用和共享权限方面,确保只有经过授权的用户可以访问和使用数据。实施数据审计和追踪机制以监控数据的使用情况,有助于检测潜在的滥用和非法访问。建立定期的数据备份和灾难恢复计划,以防止数据丢失或损坏,并确保系统的可用性。采用强大的数据加密、匿名化和访问控制技术,确保医疗数据的隐私得到充分保护。

在患者知情同意与应用教育培训方面,为医疗从业者和技术人员提供安全培训,帮助他们了解最佳实践和安全标准,减少使用过程中可能发生的错误和风险。与医疗机构、监管机构和患者团体进行密切合作,确保医疗大模型的合规性和安全性。

在持续改进和反馈机制上,根据用户反馈和新的安全挑战来改善医疗大模型的安全性和合规性。建立投诉处理机制,允许患者和医疗从业者报告任何与医疗大模型相关的问题或担忧,推动用户参与医疗和技术社区,分享最佳实践和经验,推动医疗大模型的安全发展。鼓励独立第三方机构对医疗大模型的安全性和合规性进行审查和验证,增加透明度和可信度。

 

医疗大模型的
未来发展前景与趋势

随着技术的进步和医疗数据的增加,大模型在医疗领域的应用将越来越广泛。未来的大模型可能会更加精确和个性化,能够处理更复杂的问题,提供更高质量的医疗服务。

在临床医疗助理应用方面,AI技术具有强大医疗服务能力。天津市基层数字健共体接入基于医疗大模型的睿医AI平台后,在高龄人群慢病诊治中,大模型根据患者历史就医和检查情况推荐检验、检查,节省了询问既往检查环节。未来,AI技术可承担更多临床医疗助理工作,减轻医生重复性工作负担,提升工作效率。

在作为科研助手与诊断顾问方面,在大型医院,医生需要实时跟进最新科研动向,为诊断和治疗疑难杂症提供权威参考。对于遇到疑难杂症或罕见病例的专科医生,大模型能提供知识支持,进行检索、翻译、自动综述,提炼总结知识,提高医疗决策准确性。未来,大模型在辅助临床决策方面的应用将扩展,医生可借助其提供的知识和建议做出更明智的治疗选择。

在多模态AI深入链接医疗实践全流程中,未来医疗AI平台可能迈向多模态通用化发展,处理和理解多种医疗数据类型,如图像、文本和声音。随着通用大模型升级加入图像处理功能,医疗大模型在影像及临床应用场景中具有巨大潜力。基于多模态数据库开发的各种垂直专病大模型将成为未来医疗大模型的重要发展方向。

在医疗教育与临床培训领域,大模型技术处于AI医疗前沿,具有临床、教育和研究潜力。尽管面临障碍,也揭示了进一步开发可能性。未来医疗大模型或可用于开发虚拟培训环境和模拟手术,生成虚拟病例、手术模拟和临床案例,帮助医学生和医疗专业人员提高技能。

在药物研发与药物反应监测方面,医疗大模型未来或可通过预测药物-蛋白质相互作用、药物毒性等信息来预测新药物的功效和安全性,有助于缩短药物研发的周期,加速新药的发现。此外,模型还可用于监测和评估药物的不良反应和副作用。

在提高全球医疗效率和资源配置上,医疗大模型可用于流行病学研究和疫情监测,分析大规模健康数据,如病例报告、病毒基因组和人口统计数据,预测传染病传播趋势、制定干预措施和优化疫苗分发策略。全球合作成为重要趋势,医疗大模型的开发和应用需制定全球标准,确保安全、可靠和合规。

随着大模型技术的不断发展,它在临床医疗、慢性病管理、药物研发和医学教育等方面表现出巨大的潜力。到2023年,我国在医疗大模型领域已取得显著进展,展现出多元化的趋势。在国内,这些大模型已广泛应用于医疗实践、行政管理和患者教育等领域,实现了技术和应用场景的重要突破。未来,为满足临床需求,医学大模型发展需转向多模态,深入挖掘更多医疗领域,以减轻医生负担,惠及更多患者。

然而,我们也应注意到,尽管国内医学大模型层出不穷,但多数仅在现有大模型基础上进行微调训练并重新包装,导致国内自研大模型在数量和质量上相对较低。此外,医学领域大模型的广泛应用缺乏相应的伦理监管和针对性法律法规,特别是在处理患者隐私数据安全方面。

大模型在开发、训练、测试和实际应用中需要适应医疗实践的真实场景。尽管有报道和研究声称“大模型在某些方面超越真实医生”,但这些“超越”大多仅适用于特定医学考试和测试数据集。医疗大模型的发展涉及数据科学和医学科学,其最终服务对象为一线医务工作者、科研人员和患者。因此,在看到医疗大模型发展潜力的同时,我们需要保持冷静和审慎的态度。

原文刊于《中国发展观察》杂志2024年第1期

 

本文作者:

牛福莲、王强 腾讯研究院高级研究员、资深专家

安梦瑶 清华大学临床医学院博士后研究员

王少程 北京清华长庚医院内分泌科副主任医师