Xtuner微调笔记

Xtuner学习视频

两种微调范式

在这里插入图片描述
在指令微调的过程中,需要高质量的对话数据。
而构建高质量的对话(指令)数据,则涉及到以下流程
在这里插入图片描述

  1. 先通过system/user/assistant的json格式来构造对话模板,把问题和期望模型做出的回答通过这样的格式进行封装
  2. 不同的模型有不同的模板来区分system/user/assitant的字段,即一些特殊字符在这里插入图片描述
    真正喂给模型的东西是经过chat template包装后的内容
    在这里插入图片描述
    模型只会对【输入的信息里的assitant输出的答案进行loss计算】

微调方案

lora

在这里插入图片描述

Qlora

全参数微调是整个模型加载到内存中,并且所有参数的优化器状态也会加载
lora微调是整个模型参数加载到内存中,但是只加载lora的部分参数的优化器状态
qlora是整个模型的参数都以4bit的形式加载
在这里插入图片描述

相关推荐

最近更新

  1. TCP协议是安全的吗?

    2024-04-29 11:12:03       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-04-29 11:12:03       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-04-29 11:12:03       18 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-04-29 11:12:03       20 阅读

热门阅读

  1. 【机器学习与流体力学交叉领域的期刊】

    2024-04-29 11:12:03       10 阅读
  2. 机器人抓取综述

    2024-04-29 11:12:03       12 阅读
  3. NDK 入门(四)—— 静态缓存与 Native 异常

    2024-04-29 11:12:03       12 阅读
  4. css代码的定位及浮动

    2024-04-29 11:12:03       10 阅读
  5. 【c++】【贪心】排队接水

    2024-04-29 11:12:03       13 阅读
  6. 算法:不同的二叉搜索树

    2024-04-29 11:12:03       9 阅读
  7. springboot全局处理sql异常

    2024-04-29 11:12:03       7 阅读