开源模型应用落地-qwen1.5-7b-chat-LoRA微调代码拆解

一、前言

    本篇文章将解析 QWen1.5 系列模型的微调代码,帮助您理解其中的关键技术要点。通过阅读本文,您将能够更好地掌握这些关键技术,并应用于自己的项目中。

    开源模型应用落地-qwen1.5-7b-chat-LoRA微调(二)


二、术语介绍

2.1. LoRA微调

    LoRA (Low-Rank Adaptation) 用于微调大型语言模型 (LLM)。  是一种有效的自适应策略,它不会引入额外的推理延迟,并在保持模型质量的同时显着减少下游任务的可训练参数数量。

2.2.参数高效微调(PEFT) 

    仅微调少量 (额外) 模型参数,同时冻结预训练 LLM 的大部分参数,从而大大降低了计算和存储成本。


三、前置条件

3.1.下载完整qwen1.5项目

方式一:直接下载

地址:
GitHub - QwenLM/Qwen1.5: Qwen1.5 is the improved version of Qwen, the large

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-07 08:08:02       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-07 08:08:02       101 阅读
  3. 在Django里面运行非项目文件

    2024-04-07 08:08:02       82 阅读
  4. Python语言-面向对象

    2024-04-07 08:08:02       91 阅读

热门阅读

  1. 举个例子说明联邦学习

    2024-04-07 08:08:02       38 阅读
  2. 从零开始实现一个RPC框架(二)

    2024-04-07 08:08:02       38 阅读
  3. ArcGIS10.8保姆式安装教程

    2024-04-07 08:08:02       29 阅读
  4. js的check函数

    2024-04-07 08:08:02       39 阅读
  5. 【00150】2024 金融理论与实务试卷二

    2024-04-07 08:08:02       36 阅读
  6. 方格画(C/C++)

    2024-04-07 08:08:02       39 阅读
  7. CSS3

    CSS3

    2024-04-07 08:08:02      46 阅读