PaddleOCR将自己训练的模型转换为openvino格式模型

1 训练模型

CUDA_VISIBLE_DEVICES=0 nohup python train_steelseal_det.py >> steel_seal_det.log 2>&1 &
CUDA_VISIBLE_DEVICES=1 nohup python train_steelseal_rec.py >> steel_seal_rec.log 2>&1 &

2 checkpoints模型转换为inference 模型

加载配置文件ch_PP-OCRv4_det_student_steelseal.yml,从./output/ch_PP-OCRv4/best_model/目录下加载model模型,inference模型保存在./output/ch_PP-OCRv4/best_model/目录下

python export_model_steelseal_det.py -c configs/det/ch_PP-OCRv4/ch_PP-OCRv4_det_student_steelseal.yml -o Global.pretrained_model="./output/ch_PP-OCRv4/best_model/model" Global.save_inference_dir="./output/ch_PP-OCRv4/best_model/"

在这里插入图片描述


3 inference 模型转换ONNX模型

inference 模型(paddle.jit.save保存的模型) 一般是模型训练,把模型结构和模型参数保存在文件中的固化模型,多用于预测部署场景。 训练过程中保存的模型是checkpoints模型,保存的只有模型的参数,多用于恢复训练等。 与checkpoints模型相比,inference 模型会额外保存模型的结构信息,在预测部署、加速推理上性能优越,灵活方便,适合于实际系统集成。

使用 Paddle2ONNX 将Paddle静态图模型转换为ONNX模型格式:

paddle2onnx --model_dir ./output/ch_PP-OCRv4/best_model/ --model_filename inference.pdmodel --params_filename inference.pdiparams --save_file ./output/ch_PP-OCRv4/best_model/det.onnx --opset_version 12 --enable_onnx_checker True

在这里插入图片描述


4 ONNX模型转为ov模型

onnx转为ov模型

mo --input_model ./output/ch_PP-OCRv4/best_model/det.onnx --output_dir ./output/ch_PP-OCRv4/best_model

在这里插入图片描述


最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-01-26 17:26:03       91 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-01-26 17:26:03       97 阅读
  3. 在Django里面运行非项目文件

    2024-01-26 17:26:03       78 阅读
  4. Python语言-面向对象

    2024-01-26 17:26:03       88 阅读

热门阅读

  1. 如何设计一个可靠UDP

    2024-01-26 17:26:03       59 阅读
  2. Acwing---788.逆序对的数量

    2024-01-26 17:26:03       50 阅读
  3. 常见的网络安全攻击类型

    2024-01-26 17:26:03       61 阅读
  4. 蓝桥杯练习题

    2024-01-26 17:26:03       56 阅读
  5. fbx格式转换

    2024-01-26 17:26:03       56 阅读