微调方式
在大模型的下游应用中,可以有两种微调方式
- 增量续训
即无监督的方式,让模型学习一些新知识,比如某些垂直领域的新知识
使用的数据有:书籍,文章,代码等 - 有监督微调
为了让模型学会理解指令进行对话,或者注入少量的领域知识
使用的数据为高质量的对话和问答的数据
全量参数微调
部分参数微调 (lora等)
扩展上下文长度
必要性:
1. 检索增强生成(RAG)需要检索的时候返回很长的上下文
2. Agent应用时,用户的历史对话数据很长
LLaMA的transformer的更新
- 将 LayerNorm (Ba et al., 2016) 替换为 RMSNorm (Zhang & Sennrich, 2019)
- 将激活函数设置为 SwiGLU (Shazeer, 2020)