书生·浦语大模型--第四节课笔记--XTuner大模型单卡低成本微调

在这里插入图片描述

Finetune简介

增量预训练和指令跟随
在这里插入图片描述
通过指令微调获得instructed LLM
在这里插入图片描述

指令跟随微调

一问一答的方式进行
在这里插入图片描述
对话模板
在这里插入图片描述
计算损失
在这里插入图片描述

增量预训练微调

不需要问题只需要回答,都是陈述句。计算损失时和指令微调一样
在这里插入图片描述

LoRA QLoRA

不需要太大的显存开销。增加旁路分支Adapter。
在这里插入图片描述
比较:

  • 全参数微调:整个模型加载到显存中,所有模型的参数优化器也要加载到显存中
  • LoRA微调:模型也需要加载到显存中,但是参数优化器只需要LoRA部分
  • QLoRA微调:加载模型时就4bit量化加载,参数优化器还可以在CPU和GPU之间调度,显存满了可以在内存里跑
    在这里插入图片描述

XTuner介绍

在这里插入图片描述

快速上手

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

8GB显卡玩转LLM

动手实战环节

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-01-24 18:24:06       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-01-24 18:24:06       100 阅读
  3. 在Django里面运行非项目文件

    2024-01-24 18:24:06       82 阅读
  4. Python语言-面向对象

    2024-01-24 18:24:06       91 阅读

热门阅读

  1. c# 抽象类

    2024-01-24 18:24:06       54 阅读
  2. 卸载 MariaDB:

    2024-01-24 18:24:06       46 阅读
  3. 几种Map和set的区别

    2024-01-24 18:24:06       54 阅读
  4. 2401llvm,clang的重构引擎

    2024-01-24 18:24:06       57 阅读
  5. 前端工程化之 webpack <一>

    2024-01-24 18:24:06       40 阅读
  6. 企业面临的典型网络安全风险及其防范策略

    2024-01-24 18:24:06       43 阅读
  7. Acwing845 八数码

    2024-01-24 18:24:06       56 阅读