大模型如何颠覆医疗行业
前言
近年来,AI 大模型在知识、数据、算法和算力等关键要素的共同推动下,呈现爆发式增长,增强了人工智能的泛化性与通用性,开启了人工智能发展的新范式。
同时,大模型正逐渐变成医疗保健领域的一股不可阻挡的力量。2023 年,Google 推出的 Med-PALM 2 已经能够做到输入一幅 X 光片,自动对患者的病情进行分析和诊断。一个模型能够覆盖 14 个应用场景,平均准确率高达 92.6%。

甚至在回答临床问题中,Med-PaLM 2 在临床实用性方面优于医生,包括事实性、医学逻辑推理能力和风险可能性。可以说,大模型的更新将 AI 从医学生水平提升到了高年资医生水平。

一位资深 AI 应用专家表示:'不是我们选择了开发大模型,而是没有选择。'表现的跃升一方面代表产品迎来落地的机会,另一方面,传统的深度学习 AI 一定会被大模型取代。现在正是拐点,不拥抱大模型,就意味着淘汰。
01 小模型:多年以来痛点显著,发展受限
自然语言小模型
-
小模型理解能力较弱,难以准确解析复杂多变的医疗术语。医疗文献、报告和病例中通常包含大量的专业术语、详细的病症描述以及复杂的治疗方案。例如,在一份描述心脏病的电子病历中,可能包含诸如'心绞痛'、'心肌梗死'、'心功能不全'等专业术语,以及关于心脏病理生理过程的详细描述。对于小模型来说,要准确理解这些术语和描述,并将其与具体的病症和治疗方案联系起来,是一项极具挑战性的任务。
-
小模型的文本生成能力有限,难以满足使用者对详细、准确和逻辑清晰的要求。在医疗领域,电子病历需要详细记录病人的症状、诊断结果、治疗方案等信息,以便医生能够全面了解病人的病情并制定恰当的治疗计划。然而,小模型在生成长文本时,大多会出现逻辑不连贯、表达不清晰的问题,导致病历的可读性和专业性降低。同时,小模型在与患者沟通、提供健康教育材料方面也存在困难,难以满足患者对于清晰、易懂信息的需求。
-
小模型的泛化能力和更新效率令人堪忧。医疗领域的知识更新速度非常快,但小模型在适应新知识时却显得力不从心。每当有新的医疗研究、新的治疗方案或新的药物出现时,小模型就需要大量的数据和计算资源来进行重新训练和优化,以保持其性能和准确性。
计算机视觉小模型
相较于语言小模型,计算机视觉小模型的兴起较晚。直至 2010 年代初期,计算机视觉小模型,例如 AlexNet、VGGNet 等深度卷积神经网络模型,才在医疗影像识别与自动分析方向得到应用,后又拓展到药物发现领域。然而,小模型的实际使用中也存在一些显著的痛点:
首当其冲的是数据获取和人工标注极端困难。 传统的 MIL-CNN(多示例学习 + 卷积神经网络)架构要求有足够的标记数据集进行训练。然而,医学领域的数据往往涉及严格的隐私保护和伦理规范,使得数据收集尤为困难。另一方面,即便能够收集到数据,其标注工作也需要资深医学专家的介入,标注过程既耗时又昂贵,对于大量的医学图像数据来说,几乎是一项不可能完成的任务。因此,尽管 AI 在医学图像分析领域的潜力巨大,但数据获取与标注问题是其主要发展障碍。
受限于模型的规模和算法深度,小模型的准确性和稳定性常常不尽如人意。医学图像的复杂性、噪声和干扰要求算法必须具备高度的精确性和鲁棒性。但小模型往往难以达到这样的标准,特别是在标注成本高昂、训练数据有限的情况下,其性能更是大打折扣。
02 大模型:不只是大
2017 年 Transformer 架构的引入打破了这一僵局,大模型应运而生,从根本上解决了传统语言小模型在该领域所面临的诸多问题。
起初,Transformer 应用于语言方向,通过深层次架构,对海量的医疗文献和数据进行学习,使其具备强大的语言理解能力。2020 年,Google 团队提出 ViT 架构,尽管这不是第一个将 Transformer 应用在视觉任务的案例,但是因为其模型'简单'且效果好,可扩展性强,成为了 Transformer 在 CV 领域应用的里程碑,也引爆了后续相关研究与应用落地。










