前言
本书旨在为对大语言模型感兴趣的读者系统地讲解相关基础知识、介绍前沿技术。作者团队将认真听取开源社区以及广大专家学者的建议,持续进行月度更新,致力打造易读、严谨、有深度的大模型教材。并且,本书还将针对每章内容配备相关的Paper List,以跟踪相关技术的最新进展。
本书第一版包括传统语言模型、大语言模型架构演化、Prompt工程、参数高效微调、模型编辑、检索增强生成等六章内容。为增加本书的易读性,每章分别以一种动物为背景,对具体技术进行举例说明,故此本书以六种动物作为封面。
当前版本所含内容均来源于作者团队对相关方向的探索与理解,如有谬误,恳请大家,多多赐教。后续,作者团队还将继续探索大模型推理加速、大模型智能体等方向。相关内容也将陆续补充到本书的后续版本中,期待封面上的动物越来越多。
1 语言模型基础
- 1.1 基于统计方法的语言模型
- 1.2 基于RNN的语言模型
- 1.3 基于Transformer的语言模型
- 1.4 语言模型的采样方法
- 1.5 语言模型的评测
2 大语言模型架构
- 2.1 大数据+大模型→新智能
- 2.2 大语言模型架构概览
- 2.3 基于Encoder-only架构的大语言模型
- 2.4 基于Encoder-Decoder架构的大语言模型
- 2.5 基于Decoder-only架构的大语言模型
- 2.6 非Transformer架构
3 Prompt工程
- 3.1 Prompt工程简介
- 3.2 上下文学习
- 3.3 思维链
- 3.4 Prompt技巧
- 3.5 相关应用
4 参数高效微调
- 4.1 参数高效微调简介
- 4.2 参数附加方法
- 4.3 参数选择方法
- 4.4 低秩适配方法
- 4.5 实践与应用
5 模型编辑
- 5.1 模型编辑简介
- 5.2 模型编辑经典方法
- 5.3 附加参数法:T-Patcher
- 5.4 定位编辑法:ROME
- 5.5 模型编辑应用
6 检索增强生成
- 6.1 检索增强生成简介
- 6.2 检索增强生成架构
- 6.3 知识检索
- 6.4 生成增强
- 6.5 实践与应用