标题:仲景——首个实现从预训练到 RLHF 全流程训练的中文医疗大模型

不愧是中了博后基金的佬团队的成果。与之前发过的TCMChat等相比,主要应用领域为中文医学而非中医药,但选取的基座模型LLaMA在中文NLP任务上的性能可能并非最优。

代码地址:https://github.com/SupritYoung/Zhongjing

大语言模型在医药健康领域的应用_大模型

发表日期:2023-08-07(AAAI 2024)

摘要:大语言模型(LLM)的最新进展在理解和响应用户意图方面取得了显著突破。然而,在某些专业领域,如中文医学领域,它们的性能却落后于一般用例。将中文医学纳入 LLM 的现有努力依赖于使用单轮和精炼对话数据的监督微调(SFT)。这些模型缺乏类似医生的主动询问和多轮理解能力,也无法使回答与专家的意图对齐。在这篇论文中,我们介绍了首个基于中文医学 LLaMA 的 LLM–“仲景”,它实现了从预训练、SFT 到从人类反馈中强化学习(RLHF)的整个训练流水线。此外,我们还构建了一个包含 70,000 个真实医患对话的中文多轮医学对话数据集 CMtMedQA,这大大增强了模型处理复杂对话和主动发起询问的能力。鉴于生物医学领域的独特性,我们还定义了细化的注释规则和评估标准。广泛的实验结果表明,尽管参数是 ChatGPT(175B) 的 100 倍,但仲景在各种能力上都优于基线,并在某些能力上与 ChatGPT 不相上下。消融研究也证明了每个组件的贡献:预训练增强了医学知识,而 RLHF 则进一步提高了遵从指令的能力和安全性。

大语言模型在医药健康领域的应用_人工智能_02

论文地址:https://arxiv.org/abs/2308.03549