AI医生来了,你敢信它的诊断吗
来源: | 作者:2023-08-18 | 发布时间 :2023-08-22 | 1847 次浏览 | 分享到:


  相比之下,春雨医生布局更谨慎。5月,春雨医生将大模型在线问诊产品春雨慧问开放免费使用。不同于MedGPT开检查单、给诊断,慧问在较少轮次问询后会告知患者症状可能对应的多种疾病及对策,之后,以“如果您情况比较严重,建议您及时就医,寻求专业医生的帮助”为结束语。


  “就像自动驾驶,很难一上来就做到完全自动驾驶,但我们是不是可以有自动停车、辅助倒车功能?这些功能本身也很好用,研发难度会低很多,对使用安全性的要求也会低很多。”对于暂时不做精准诊断和治疗方案的原因,春雨CTO曾柏毅解释说。


  曾柏毅坦言,慧问更像是春雨在探索大模型运用场景过程中的一个实验品,定位并不明确,“我们也想看市场里面用户到底想要什么,愿意怎样使用AI问诊产品,会对AI提什么样的问题。”后台数据显示,从5月上线到7月底,共有5000多人使用慧问,其中5%左右在使用过程中转向了向真人医生求助。曾柏毅称,春雨在开发询问过程更加详细的AI问诊产品,计划用于真人医生问诊场景。


  医疗大语言模型的另一落地模式是直接与医院合作,和线下诊疗过程相结合。商汤智能产业研究院院长田丰对《中国新闻周刊》介绍,商汤与郑州大学第一附属医院、上海交通大学医学院附属新华医院合作,医疗大语言模型“大医”的参数从十亿到千亿不等,已使用在一些医院的随访过程中。田丰表示,基于大模型的随访系统比传统的AI电话随访机器人,有更强理解力、更人性化的交互和更全面的信息收集能力。


7月6日,上海世博展览馆,2023世界人工智能大会上的中山眼科中心AI+医疗展区。图/视觉中国7月6日,上海世博展览馆,2023世界人工智能大会上的中山眼科中心AI+医疗展区。图/视觉中国

  最难获取的是真实的问诊数据


  如何让问诊AI少出错甚至不出错,是所有研发团队要解决的首要难题。


  大语言模型的本质是通过统计分析预测对话中可能的下一个词,存在生成不准确或误导信息的可能性,但在严格要求准确性的医疗领域,AI的错误也意味着患者将承受风险。


  2021年,密歇根大学医学院研究人员发现,由美国电子健康记录公司Epic Systems 研发的败血症AI预警系统没能识别出67%的败血症住院患者,只识别出7%被医生遗漏的败血症患者。Epic公司称,漏检与系统阈值有关,需要设置一个平衡患者假阴性与假阳性的警报阈值。


  高质量数据是保证准确性的基础。医疗大语言模型会被额外“投喂”医学书籍、临床诊疗指南、医学论文等专业知识。其中最重要、也最难获取的是优秀的真实问诊数据,既包括顶级专家对该疾病的诊断记录,也包括患者身体特征、检测数据、家族史、环境信息等多维度的信息,同时,还需要覆盖各年龄层、性别、地域的患者。


  多位受访专家和从业者表示,已有问诊数据尚不能完全满足研发需求。国家远程医疗与互联网医学中心医学人工智能专家委员会主任委员、呼吸病学专家刘国梁告诉《中国新闻周刊》,即使能收集到目前医院的临床数据,其质量也未达到能够用于AI训练的水平,需要专门去生产符合AI训练标准的临床问诊数据。


  更多的临床经验可能未被记录成文本。“特别是疑难病领域,很多知识是在医生脑子里,甚至医院里面可能也没有,都是口口相传。”曾柏毅说。


  王仕锐介绍说,医联共使用三类真实问诊数据,包括公开数据、医联独有的问诊数据,以及通过搭建专门的数据平台收集的数据。对于第三类数据,医联从协会、医院、专家处采集,“这一过程好像将石油从地底勘察并最终加工运输到油箱,中间有漫长且复杂的工序。”


  前述高校学者强调,数据质量对研究非常重要,但前提是要保障数据安全。对数据的采集、筛选必须建立在保护数据安全的基础上,个人信息脱敏,保护患者隐私是首要步骤。医联、春雨医生和商汤均表示对数据进行了脱敏处理,并在使用前取得了患者同意。


  除了数据,模型设计也能提升医疗AI的准确率。田丰说,商汤成立了一支近百人的医学专家团队,参与数据标注、模型训练及测试,保证AI能够完成多轮问诊、不回答患者非医疗问题等。商汤还训练了一套“智能评判系统”,对大语言模型输出的答案进行评判,让模型输出更符合临床专业要求以及人类价值观的回答。


  不过,再怎样调试医疗AI,其本身存在一定局限性。刘国梁认为AI与真人医生最根本的差异在于,二者在诊疗过程中的原则可能不相同。目前尚不能确定AI在诊断时,是以患者生命长度为重要衡量,还是以更好的生命质量为先,抑或根本与人类福祉无关。一名优秀的医生能够在关注患者治疗方案的同时,照顾其情绪、花费、家庭情况,目前医疗AI还难以做到。


  另外,医疗AI主要依靠患者的问诊数据,缺少查体过程。一方面,躯体类疾病可能会影响患者的感觉,使其表述出来的感受与病情严重程度不相符;另一方面,不同疾病也有相似症状,只靠询问很难得到准确结果。


  北京大学人民医院骨科主任医师薛峰告诉《中国新闻周刊》,很多医学问题尚未有明确答案,许多医生也是依靠经验,达不到100%的准确率,更何况依靠人类经验来进行推理的AI,“现阶段让它来看病只是作为一种咨询、一种辅助,最后判断还是要交给真人医生,AI还需持续学习和调优”。