【trition-server】pytorch 文档:使用 Triton 提供 Torch-TensorRT 模型

Serving a Torch-TensorRT model with Triton

在有关机器学习基础设施的讨论中,优化和部署是密不可分的。一旦完成网络级优化以获得最大性能,下一步就是部署它。

然而,提供这种优化模型也有其自身的一系列考虑和挑战,例如:构建基础设施以支持并发模型执行、通过 HTTP 或 gRPC 支持客户端等等。

Triton推理服务器 解决了上述问题以及更多问题。让我们逐步讨论使用 Torch-TensorRT 优化模型、将其部署在 Triton 推理服务器上以及构建客户端来查询模型的过程。

  • PyTorch 提供了 TensorRT仓库: 编译以支持 TensorRT

PyTorch/TorchScript/FX compiler for NVIDIA GPUs using TensorRT

相关推荐

  1. [python][whl]python模块triton的whl文件下载地址汇总

    2024-07-09 18:48:10       35 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-07-09 18:48:10       67 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-07-09 18:48:10       72 阅读
  3. 在Django里面运行非项目文件

    2024-07-09 18:48:10       58 阅读
  4. Python语言-面向对象

    2024-07-09 18:48:10       69 阅读

热门阅读

  1. pytorch通过 tensorboardX 调用 Tensorboard 进行可视化

    2024-07-09 18:48:10       25 阅读
  2. PHP框架详解 - symfony框架

    2024-07-09 18:48:10       29 阅读
  3. PyTorch简介

    2024-07-09 18:48:10       32 阅读
  4. Apache AGE vs Neo4j

    2024-07-09 18:48:10       27 阅读
  5. 数据库基础

    2024-07-09 18:48:10       27 阅读
  6. centos7系统如何使用GPT分区

    2024-07-09 18:48:10       30 阅读
  7. GeoServer改造Springboot源码十一(样式管理代码)

    2024-07-09 18:48:10       26 阅读
  8. 高阶面试-写缓存

    2024-07-09 18:48:10       26 阅读
  9. 深度分析 Apache Hudi:大数据实时处理的利器

    2024-07-09 18:48:10       29 阅读
  10. el-row和el-col

    2024-07-09 18:48:10       25 阅读