YOLOV5 TensorRT部署 BatchedNMS(转换engine模型)(上)

YoloV5使用tensorRT部署时,模型推理是放在cuda上操作,得到的结果需要在cpu上执行nms操作,但是当图像中的目标较多,或者检测出来的框较多时,nms耗时较长。
TensorRT 官方提供了batchedNMSPlugin的cuda操作,将yolov5的nms集成到tensorrt的engine中,不用在cpu上执行nms操作,并且减少了device to host的数据拷贝,提升整体的计算速度。
TensorRT batchedNMSPlugin

1.修改yolo detct层

    def forward(self, x

最近更新

  1. CSS 样式链接的多方面应用与最佳实践

    2024-04-28 23:54:03       0 阅读
  2. 西门子7MB2335-0AL00-3AA1

    2024-04-28 23:54:03       0 阅读
  3. How to Describe Figures in a Research Article

    2024-04-28 23:54:03       1 阅读

热门阅读

  1. 在Docker中为Nginx容器添加多端口映射的详细指南

    2024-04-28 23:54:03       10 阅读
  2. 描述一下PHP中的MVC设计模式

    2024-04-28 23:54:03       12 阅读
  3. Linux系统使用命令来查看本地端口的使用情况

    2024-04-28 23:54:03       14 阅读
  4. Linux Makefile编写之可执行程序

    2024-04-28 23:54:03       53 阅读
  5. 先出发再思考怎么解决问题

    2024-04-28 23:54:03       42 阅读
  6. IDEA那些牛X的插件

    2024-04-28 23:54:03       16 阅读
  7. 安全运营之通行字管理

    2024-04-28 23:54:03       32 阅读
  8. vue项目使用tsx

    2024-04-28 23:54:03       17 阅读