vLLM部署Qwen1.5-32B-Chat

vLLM部署Qwen1.5-32B-Chat

部署环境

操作系统:Ubuntu 20.04.2 LTS

Docker:v24.0.0

Docker Compose:v2.17.3

GPU:NVIDIA A100-SXM4-80GB

Nvidia Driver Version: 535.154.05

CUDA Version: 12.2

部署过程

模型文件下载

下载地址:通义千问1.5-32B-对话 · 模型库 (modelscope.cn)

下载方法:

  • SDK下载
    #模型下载
    from modelscope import snapshot_download
    model_dir = snapshot_download('qwen/Qwen1.5-32B-Chat', cache_dir='/path/to/your/model/dir/') # cache_dir指定模型保存目录
    
  • Git下载
    git clone  https://www.modelscope.cn/qwen/Qwen1.5-32B-Chat.git
    

docker镜像构建

克隆Qwen1.5仓库:

git clone https://github.com/QwenLM/Qwen1.5.git

构建镜像:

相关推荐

  1. vLLM部署Qwen1.5-32B-Chat

    2024-04-13 13:44:03       21 阅读
  2. 本地部署 Qwen-Audio-Chat

    2024-04-13 13:44:03       40 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-04-13 13:44:03       19 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-04-13 13:44:03       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-04-13 13:44:03       19 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-04-13 13:44:03       20 阅读

热门阅读

  1. Linux环境下的C/C++开发学习之旅

    2024-04-13 13:44:03       54 阅读
  2. Vue中的.env文件:配置、用法和注意事项

    2024-04-13 13:44:03       14 阅读
  3. linux下c++实现音乐播放软件

    2024-04-13 13:44:03       13 阅读
  4. 统一登陆实现简化流程

    2024-04-13 13:44:03       14 阅读
  5. linux c UDP 应用

    2024-04-13 13:44:03       13 阅读
  6. 作业第二次

    2024-04-13 13:44:03       15 阅读
  7. SpringBoot项目快速打印controller类的URL

    2024-04-13 13:44:03       16 阅读
  8. Nginx-调度器、优化

    2024-04-13 13:44:03       21 阅读
  9. openjudge_2.5基本算法之搜索_1792:迷宫

    2024-04-13 13:44:03       15 阅读
  10. Django序列化常用字段与参数

    2024-04-13 13:44:03       18 阅读