大模型之家讯 10月22日,百川智能发布循证增强医疗大模型Baichuan-M2 Plus,同步升级配套应用百小应并开放API。这是百川自8月开源Baichuan-M2以来的又一次重要动作。评测显示,M2 Plus的医疗幻觉率较通用大模型显著降低,相比DeepSeek低约3倍,优于美国最火医疗产品OpenEvidence,可信度比肩资深临床医生水准。
通用大模型固有的幻觉问题导致其在严肃医疗场景中难以真实应用。国内众多医院虽积极尝试部署和优化DeepSeek,但实际效果不尽人意。反观大洋彼岸的现象级医疗大模型产品OpenEvidence,能给我们重要的启示。该产品因符合医学认知的循证增强,已有40%美国医生在临床场景中注册使用,每月咨询量达1650万次。两天前,该公司C轮融资2亿美金,估值达60亿美元。
百川M2 Plus首创六源循证推理(EAR)范式,打造“医生版ChatGPT”,让大模型技术在辅助临床诊疗场景迈过“敢用、可用”关键门槛,不仅适合中国医疗环境,在美、日、英的医疗评测中均超过OpenEvidence,代表中国在世界大模型擂台上再下一城。
首创六源循证推理范式,把循证做“全”、检索做“准”、推理做“对”
循证医学(Evidence-Based Medicine, EBM)作为现代医学知识体系的核心范式,是确保医疗决策可信的关键。
通用大模型像一个“博学但不可靠”的专家,即便有搜索增强,也会因为知识来源混杂不符合循证医学范式。
百川不仅主动屏蔽了互联网的非专业信息来源,只使用权威来源的医学证据,还在此基础上构建了从证据、到实践、再到真实世界反馈六层证据类型的知识体系:
- 原始研究层: 索引海量医学期刊论文4000余万篇,超过PubMed收录数量,涵盖基础与临床研究成果,是循证链条的起点;
- 证据综述层: 整合系统评价和Meta分析等高等级证据,提供经过汇总的研究结论;
- 指南规范层: 引入国际和国内权威机构发布的临床指南、专家共识和行业标准,确保回答符合最新规范;
- 实践知识层: 包含临床病例报道、一线专家经验和诊疗技巧等实用知识,贴近医疗实践场景;
- 公共健康教育层: 汇集权威科普和公共卫生知识,如疾病预防宣教、健康指导等内容,服务大众健康教育;
- 监管与真实世界层: 涵盖药监部门公告、临床试验登记及大规模真实世界研究数据等信息,以反映最新的监管动态与人群研究结果;

这个金字塔形的“六源”,是一层一层演化而来:原始层回答“事实是否存在”、证据层回答“结论是否一致”、指南层回答“行业如何规范”、实践层回答“医生应如何决策”、公共层回答“患者应如何理解”、真实世界层回答“是否存在新风险”。这让模型从“生成答案”走向“据实回答”,实现了从语言可信度到知识可信度的跃升。
(二)循证检索:从“找得到”跃升到“找得准”
传统的RAG检索往往追求“找得到”,而循证检索追求“找得准”。
M2 Plus采用PICO框架(人群Population、干预Intervention、对照Comparison、结局Outcome)思维,将查询转化为结构化医学问题,并在六源数据库中进行分层匹配。例如:当输入“老年OSA患者使用CPAP能否改善高血压?”时,系统优先在高等级证据(系统综述、RCT元分析)中搜索,并自动辨识研究质量、样本量、置信区间与结局指标。
这种方法克服了通用RAG的两大缺陷:一是缺乏医学语义理解(无法区分CPAP疗效与依从性分析);二是无法辨别文献可靠性(新闻与指南同权)。在此基础上,M2 Plus能够三步精准锁定“铁证”:
第一步,智能提问:自动将用户问题拆解成多个专业的PICO查询,进行“地毯式”证据搜索,兼顾精度与广度。
第二步,精准锁定:通过自研的Medical Contextual Retrieval技术,完整保留文献的临床因果链,避免信息割裂。
第三步,证据排序:内置“审稿人”模型,自动评估证据等级(如RCT、Meta分析),将最可信、最相关的“铁证”优先呈现。
(三)循证推理:让模型“像医生一样思考”
如果说“六源循证”解决了医疗AI知识从哪来的问题,“PICO智能检索”解决了如何快速找到正确证据的问题,那么最关键的一步是如何确保AI在手握证据时,不会“自由发挥”、脱离事实胡乱回答。
百川智能在M2 Plus中引入“循证增强训练”机制,为模型的回答过程“上了一道锁”,从根本上改变了其生成逻辑,让它学会“引用,而非臆测”。
首先,在训练中奖励“引用”,惩罚“臆测”,准确引用权威来源(如指南、文献)时会获得高分,一旦回答脱离了检索到的证据就会受到惩罚;
其次,内置“证据评估器”,模型被训练得能够自动评估检索到的证据质量,优先采纳高可信度的信息(如RCT、Meta分析),并将其无缝嵌入到推理链中;
第三,句句有据,可回溯、可验证:经过训练,M2-Plus的回答风格发生了根本性改变,在输出关键结论时,会自动附上参考文献、指南出处等来源,这赋予了AI回答更高的可解释性与可信赖度。
幻觉最低,达到与人类资深临床专家同等可信度
这种“循证驱动”的生成逻辑,让M2 Plus几乎杜绝了无中生有的内容。在多场景评测中,其综合幻觉率在所有大模型当中最低,相较DeepSeek R1最新版降低3倍,显著领先OpenEvidence。不仅如此,在病史分析、诊断思路、治疗方案等真实复杂的核心医疗场景中,达到了与人类资深临床专家同等的可信度。

301医院的姜医生提问,“目前公认最有效的基因治疗药物靶向足细胞递送方案有哪些?”很多通用大模型回答这个问题时都产生了明显幻觉,而M2 Plus的回答不仅查到了全球最新研究成果,还能按纳米系统 / AAV病毒载体等维度分类。姜医生赞叹:“引用文献非常具有专业性、且信息源紧贴顶刊ERA等最新进展,对足细胞基因治疗这么前沿的方向,能帮我快速了解国际热点技术路线,少走弯路。”
北京天坛医院的熊医生,在研究目前PACAP在偏头痛中的研究进展如何时发现,头痛相关的研究越来越多,想找到真正有价值的文献并不容易,多数大模型给出的答案都因幻觉问题而不可用。他试用百小应时看到,“能梳理全球PACAP偏头痛研究,从机制到III期临床试验自动串联证据链,不仅回答问题,更让医生站在未来看科研进展。”

无论是专业医疗问题还是常规医疗问答 M2 Plus都会引用权威医学证据
多国医学考试断崖领先,医学知识运用能力超越人类医生
美国执业医师资格考试(USMLE)是评估临床知识和推理能力的黄金标准,即便是经验丰富的临床专家,要突破90分也极具挑战。在此项考试中,M2-Plus取得了惊人的97分,不仅远超人类考生平均水平,更与GPT-5的成绩持平,稳居全球第一梯队,展示了其世界级的临床问题解决能力。

中国执业医师资格考试(NMLE)及格线为360分,对于广大医学生而言,能考到450分以上已是高分,超过500分则被视为“学神”级别。M2 Plus取得了568分的“碾压级”成绩,在所有公开测试的主流大模型中位列第一,充分证明其对中国临床指南和医疗实践的掌握已炉火纯青。
如果说执医考是“从业门槛”,那么中国硕士研究生招生考试临床医学综合能力(西医)考试则是顶尖医学生竞争的“华山论剑”。该考试不仅知识面广,且题目设计极为复杂,对临床思维要求高。通常,能考到280分以上的考生,都是协和、北医等顶尖学府的头部学霸。M2 Plus在此项考试中取得了282分。同时,在日本、英国、澳大利亚等国高级医师职称晋升考试中,准确率85%以上,远超各国及格线。
这些压倒性的成绩充分说明,M2 Plus 在复杂医学知识运用上的能力,已经超越了人类医生水准。
“医生版ChatGPT”推动医疗AI迈入可信可用阶段
接入M2 Plus的百小应已在各大手机应用商店更新,成为”医生版ChatGPT”。为方便电脑端使用,网页版(ying.ai)也同步上线。
除了需要高效地辅助临床决策,医生还开始面对新的挑战:患者用DeepSeek自诊和带着DeepSeek就医的现象越来越多。虽然知道大模型可能有幻觉和偏颇,但没有时间和精力去甄别哪句对哪句错。通过百小应,医生有了面对通用模型挑战的“专属武器”。
对于希望深入理解诊断、治疗、预后、病因、检查等背后科学逻辑的患者及家属,面对复杂的就医环境和不同医生给出的诊疗方案,百小应让他们有机会获得最新最权威的知识、顶尖专家的思维和视角,得到无限耐心的专业解答。
Baichuan-M2 Plus也提供了标准化API接口,医院信息化部门、互联网医疗、大健康服务等各类泛医学机构,以及从事医疗AI行业的开发者,则可以通过API将循证推理接入服务场景,提升AI服务的医学专业性。
通过开源Baichuan-M2、发布Baichuan-M2 plus、百小应,开放API,百川致力于持续提升AI医疗在真实临床场景的可用性,推动大模型在严肃医疗场景进入落地可用新阶段。
原创文章,作者:志斌,如若转载,请注明出处:http://damoai.com.cn/archives/13343