fastllm将chatglm3-6b转成flm文件的正确方式

 fastllm将chatglm3-6b转成flm文件的正确方式:
from modelscope import AutoTokenizer, AutoModel, snapshot_download
import torch2flm
model_dir = snapshot_download("ZhipuAI/chatglm3-6b", revision = "v1.0.0")
tokenizer = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)
model = AutoModel.from_pretrained(model_dir, trust_remote_code=True).half().cuda()
model = model.eval()


torch2flm.tofile("/mnt/workspace/chatglm3-6b-int4.flm", model.to("cpu") , tokenizer, dtype="int4")

 

相关推荐

  1. 【工程记录】ChatGLM3-6B微调实践更新说明

    2024-03-31 00:48:03       33 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-03-31 00:48:03       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-03-31 00:48:03       100 阅读
  3. 在Django里面运行非项目文件

    2024-03-31 00:48:03       82 阅读
  4. Python语言-面向对象

    2024-03-31 00:48:03       91 阅读

热门阅读

  1. 基于easyx库的C/C++游戏编程实例-飞机大战

    2024-03-31 00:48:03       49 阅读
  2. 如何处理Redis服务器宕机的情况

    2024-03-31 00:48:03       43 阅读
  3. C++ | filesystem file not found

    2024-03-31 00:48:03       48 阅读
  4. brctl 命令

    2024-03-31 00:48:03       44 阅读
  5. ChatGPT写作攻略:完善学术论文技巧指南

    2024-03-31 00:48:03       42 阅读
  6. Linux IRC

    Linux IRC

    2024-03-31 00:48:03      41 阅读
  7. 工作日志- 不定期更新

    2024-03-31 00:48:03       44 阅读
  8. P19:注释

    2024-03-31 00:48:03       37 阅读