paddla模型转gguf

在使用ollama配置本地模型时,只支持gguf格式的模型,所以我们首先需要把自己的模型转化为bin格式,本文为paddle,onnx,pytorch格式的模型提供说明,safetensors格式比较简单请参考官方文档,或其它教程。

1.paddle2onnx
paddle需要在训练结束后将模型保存为onnx格式。具体代码略

2.onnx2bin

import onnx
import onnxruntime
import onnx2fst
# 加载 ONNX 模型
model = onnx.load("E:\\nlp\PaddleNLP-develop\examples\dialogue\dgu\model\intent\intent0704\model.onnx")
# 保存为二进制文件
onnx.save_model(model, "pytorch_model.bin")

现在我们获得了bin模型文件,接下来可以将其转化为gguf文件。
首先进入llamacpp官网并下载
ggerganov/llama.cpp: LLM inference in C/C++ (github.com)
可以看到有很多文件,其中这两个是我们要用的。
在这里插入图片描述

第一步
vim convert-hf-to-gguf-update.py
现在可能改名字了,改成你的名字即可。
第二步
找到models这个列表,初始的时候列表中有很多值,在其中添加我们的模型,格式如图所示,其余的可以删掉不影响结果。
保存之后执行
python convert-hf-to-gguf-update.py
中括号里的hf token换成自己的,可以在hugging face个人主页中申请一个。
在这里插入图片描述

第三步
python convert-hf-to-gguf.py /root/… --outfile /root…/model.gguf
即可转化为gguf格式
说明
如果出现报错,说明update更新失败。
在这里插入图片描述
根据报错信息在convert-hf-to-gguf.py文件中手动添加
在这里插入图片描述

之后重新运行,即可成功转化。

相关推荐

  1. 安装Paddle-ChatDocuments大模型

    2024-07-13 05:38:02       47 阅读
  2. 如何将Paddle(Lite)模型转换为TensorFlow(Lite)模型

    2024-07-13 05:38:02       36 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-07-13 05:38:02       67 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-07-13 05:38:02       72 阅读
  3. 在Django里面运行非项目文件

    2024-07-13 05:38:02       58 阅读
  4. Python语言-面向对象

    2024-07-13 05:38:02       69 阅读

热门阅读

  1. qt 的布局

    2024-07-13 05:38:02       28 阅读
  2. 《每天十分钟》-红宝书第4版-函数

    2024-07-13 05:38:02       22 阅读
  3. 【Scrapy】Scrapy 中间件等级设置规则

    2024-07-13 05:38:02       24 阅读
  4. 智能运维提升企业长期安全防御能力

    2024-07-13 05:38:02       23 阅读
  5. Linux上如何安装ffmpeg视频处理软件

    2024-07-13 05:38:02       25 阅读
  6. Xcode多任务处理指南:释放iOS应用的并发潜能

    2024-07-13 05:38:02       21 阅读
  7. 力扣题解( 最长定差子序列)

    2024-07-13 05:38:02       26 阅读
  8. npm和yarn清理缓存命令

    2024-07-13 05:38:02       21 阅读