AI 诊疗现状:来自顶刊新研究与 CPU 落地实践
当大模型踏入医疗行业与人类医生一较高下时,它能达到什么水平?
就在最近,医学顶刊 BMJ 便给出了这样一个结论:在遵循公认的临床抑郁症治疗标准方面,先进大模型可能比医生要强!
从研究结果上来看,大语言模型(LLM)在轻度和重度抑郁症治疗方面,已经达到了公认的治疗标准。不仅如此,它们还不会被患者的外在因素所影响(包括性别、社会阶层等等),这就比人类初级医生还要强上一点。
这是否就意味着类 LLM 选手们现在可以'持证上岗'了呢?非也。考虑到抑郁症治疗的持续性和患者病情的多样性,这项研究认为,真正的治疗过程还是需要人类医生来进行。不过研究同样指出,LLM 对于现阶段医疗可以起到辅助决策的帮助:有可能加强初级卫生保健的决策,提高精神卫生服务的质量和公正性。
LLM,已然深扎医疗
一直以来,医疗行业都被视为 AI 落地的重要领域。在深度学习浪潮刚刚兴起之时,深度学习三巨头之一 Hinton 就说出了名言:5 年内 AI 可以取代放射科医生。
尽管这个表达有些激进,但它揭露了一个事实,至少在科研层面,AI 和医疗的结合是非常被看好的。在过去一段时间以来,AI 医疗场景不断开拓,比如利用 CV 算法识别病灶、检测心电图等。科技巨头们都紧跟趋势,如微软、谷歌、IBM 等都在持续投入资金,推进 AI 医疗落地。
尤其在 ChatGPT 趋势到来以后,LLM 更强的学习能力、更好的迁移能力以及更深的理解能力,都为 AI 医疗落地打开新局面。而且这会是一个很确定的趋势,因为技术、应用落地和行业发展都准备好了。
技术、应用与行业准备就绪
首先技术方面,今年是大模型爆发的一年,目前国内已经形成'百模大战'格局。诸多大模型厂商都主打 To B 路线,正在加速推动大模型在各个行业的应用。还有一些厂商直接推出面向医疗的行业大模型,比如谷歌推出的 Med-PaLM 2 就已经在诊所实测。
其次,大模型和医疗领域也天生非常契合。在常见的问诊、病历生成、患者病史分析等场景,都需要医生基于历史信息进行整合总结、分析判断,这正是大模型的长项。比如利用大模型的总结摘要能力,可以快速对多类数据进行总结并形成摘要,帮医生完成繁琐、重复性高的工作,提升效率。
并且实际落地上,只需以基座大模型为底,应用专业医疗数据训练,就能得到一个强大的医疗大模型,这能从根本上加速 AI 医疗落地。还能在一个系统中集成多个子模型,即可快速覆盖更多场景。
再来看行业发展方面,以国内情况为例,数字化医疗、AI 医疗逐渐发展为一个独立赛道,玩家们利用数据分析、自然语言处理(NLP)、结构化数据等技术,已经成功将 AI 引入临床诊断决策、病例数据管理等。
如惠每科技开发的面向医院的核心应用 Dr.Mayson。简单理解,这是一个能优化医院看诊、决策、预警、管理等方面的智能应用,核心目标就是让医院数字化系统运行更加丝滑流畅,提高医生诊疗效率。
它主要融入了 PDCA 过程管理和 CDSS(临床决策支持系统)。利用机器学习、深度学习、大数据挖掘等技术,可以智能识别分析病历文书、LIS/RIS 报告等患者完整病历数据;为医院构建专门的医学知识库;给医生、医技、护士、管理方提供实时智能参考与建议。
在惠每科技最新发布的 CDSS 3.0 架构中,新一代 AI 大数据处理平台已集成了医疗大模型,并已经在某合作医院的病历生成等场景中获得了医生的认可。
综上,医疗大模型应用落地路径已经比较明确。但是落地的过程却没有想象中的那般容易。
医疗大模型落地,怎么解?
医疗大模型落地目前遇到的两大核心问题,都非常具有原生性:
- 为保证患者数据安全,医院数据仅能内网使用
- 当前 GPU 算力紧张,医院很难负担如此高昂的采购成本
这意味着,医疗大模型需要进行私有化部署,且需要寻找一条能够针对于提升大模型算力的'性价比'道路。所以,AI 加速成为了近来业界备受关注的领域。
比如刚刚提到的惠每科技便携手英特尔,在基于第四代英特尔® 至强® 可扩展处理器的基础上,打造了量化和非量化两种大模型推理加速方案。
量化与非量化加速方案
先来看量化部分,也就是通过降低模型精度来实现加速。以 FP32 量化到 INT8 为例,它能让 GPU 或 CPU 适应更快、更低成本的 8 位张量来计算卷积和矩阵乘法,可有效提高计算吞吐量。还能减少模型数据搬运所需的时间和资源,这是数据从内存移动到计算单元的必然消耗,精度从 32 位降低到 8 位,能实现 4 倍减少量。
同时量化也能减少内存的使用,让模型需要更少的存储空间、参数更小、缓存利用率更高。
具体实现方案上,惠每科技引入了英特尔开发和开源的 BigDL-LLM 大语言模型加速库,其提供对各种低精度数据格式的支持与优化,同时配合不同型号和代际的英特尔处理器内置指令集(如英特尔® AVX-512_VNNI、英特尔® AMX 等)在大模型应用中可以实现较优推理加速。
使用方面,此方案提供了便捷命令和编程接口两种方法,能方便预览量化后模型性能是否符合预期;另外在性能达标的情况下,凭借 BigDL-LLM 提供的 HuggingFace API/Langchain API,用户可以轻松将优化性能整合到部署推理服务中去。
对于非量化技术路径,英特尔也能提供键值(KV)缓存、算子融合的 OpenVINO™ 加速方案。


