大语言模型的三阶段训练

为了训练专有领域模型,选择LLaMA2-7B作为基座模型,由于LLaMA模型中文词表有限,因此首先进行中文词表的扩展,然后进行三阶段训练(增量预训练,有监督微调,强化学习)。

代码将全部上传到github:

https://github.com/hjandlm/LLM_Train

1. 中文词表扩展

原生词表大小是32K,在词表扩展后,词表大小是63608。

2. 增量预训练

为了防止模型的通用能力减弱或消失,将通用数据和领域数据混合,经过调研决定设置5:1的数据配比进行增量预训练。由于资源有限,显卡是一块A100,40G,因此训练较慢。

目前还处于预训练阶段,情况如下:

训练集损失曲线:

测试集损失曲线:

后续将继续研究如何“炼丹“,敬请期待!

3. 有监督微调

4. 强化学习

最近更新

  1. TCP协议是安全的吗?

    2023-12-07 09:00:07       19 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2023-12-07 09:00:07       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2023-12-07 09:00:07       19 阅读
  4. 通过文章id递归查询所有评论(xml)

    2023-12-07 09:00:07       20 阅读

热门阅读

  1. 主流开源大语言模型的微调方法

    2023-12-07 09:00:07       37 阅读
  2. MongoDB归并连续号段-(待验证)

    2023-12-07 09:00:07       34 阅读
  3. 讲解机器学习中的 K-均值聚类算法及其优缺点。

    2023-12-07 09:00:07       35 阅读
  4. OpenFeign远程调用实例

    2023-12-07 09:00:07       33 阅读
  5. vue3+ts自定义插件

    2023-12-07 09:00:07       35 阅读
  6. Nginx实现(缓冲区)

    2023-12-07 09:00:07       37 阅读
  7. go - 计算CIDR的主机数量

    2023-12-07 09:00:07       43 阅读
  8. RefCell 数据类型

    2023-12-07 09:00:07       31 阅读
  9. Linux下打包Qt-使用linuxDeployQt+appimageTool

    2023-12-07 09:00:07       32 阅读
  10. Ubuntu下应用软件安装

    2023-12-07 09:00:07       45 阅读
  11. Ubuntu20.24 安装ecCodes,包括 tar.gz 和 python(笔记)

    2023-12-07 09:00:07       39 阅读
  12. 使用lxml解析本地html文件报错?

    2023-12-07 09:00:07       34 阅读
  13. Docker build 命令

    2023-12-07 09:00:07       33 阅读