【LLM】基于ColossalAI-0.3.6对llama2-7B-Chat做全参数微调

环境

操作系统:

  • ubuntu22.04

机器规格:

  • CPU:96c;
  • 内存:736 GiB;
  • GPU:8 * NVIDIA V100 (32GB)

软件信息:

  • Python 3.11.5;
  • ColossalAI 0.3.6;
  • cuda_11.8;
  • pytorch 2.1.0+cu118
  • transformers 4.34.1

准备工作

下载llama2-7B

国内用户使用ModelScope下载会友好些,模型下载地址为:

https://modelscope.cn/models/modelscope/Llama-2-7b-chat-ms/files

SDK下载

#模型下载
from modelscope import snapshot_download
model_dir = snapshot_download('modelscope/Llama-2-7b-chat-ms')

Git下载

请确保 lfs 已经被正确安装

git lfs install
git clone https://www.modelscope.cn/modelscope/Llama-2-7b-chat-ms.git

下载ColossalAI

Colossal-AI 是一个集成的大规模深度学习系统,具有高效的并行化技术。该系统可以通过应用并行化技术在具有多个 GPU 的分布式系统上加速模型训练。该系统也可以在只有一个 GPU 的系统上运行。

关于ColossalAI的更多介绍:https://colossalai.org/zh-Hans/

Git地址:https://github.com/hpcaitech/ColossalAI

img

下载后上传至服务器解压,进入根目录,执行:

pip install .

至此,所有依赖已准备完毕。

接下来会基于ColossalAI项目中的applications->ColossalChat下的实例做模型的训练。

img

数据集准备

准备原始数据集

训练数据集为JSONL格式,每行是一个独立的JSON,示例如下:

{"messages": [{"from": "human", "content": "问题1"}, {"from": "assistant", "content": "回答1"}]}
{"messages": [{"from": "human", "content": "问题2"}, {"from": "assistant", "content": "回答2"}]}

数据集处理

低版本的Colo

相关推荐

  1. [大模型]Atom-7B-chat 微调

    2024-07-18 19:44:03       40 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-07-18 19:44:03       67 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-07-18 19:44:03       71 阅读
  3. 在Django里面运行非项目文件

    2024-07-18 19:44:03       58 阅读
  4. Python语言-面向对象

    2024-07-18 19:44:03       69 阅读

热门阅读

  1. 光伏储能剑指何方

    2024-07-18 19:44:03       20 阅读
  2. Web前端-Web开发CSS基础5-浮动

    2024-07-18 19:44:03       18 阅读
  3. 【J1期末测试】学习之星

    2024-07-18 19:44:03       24 阅读
  4. MySQL 溢出页、页分裂、表空间碎片

    2024-07-18 19:44:03       23 阅读
  5. mysql8和mysql5版本在使用mybatis框架时的注意事项

    2024-07-18 19:44:03       24 阅读
  6. C++基础语法:STL之容器(3)--序列容器中的deque

    2024-07-18 19:44:03       18 阅读
  7. 一文搞懂C语言

    2024-07-18 19:44:03       22 阅读
  8. Go语言 字典(map)

    2024-07-18 19:44:03       25 阅读