[书生·浦语大模型实战营]——LMDeploy 量化部署 LLM 实践

1.基础作业

1.1配置 LMDeploy 运行环境

创建开发机

创建新的开发机,选择镜像Cuda12.2-conda;选择10% A100*1GPU;点击“立即创建”。注意请不要选择Cuda11.7-conda的镜像,新版本的lmdeploy会出现兼容性问题。其他和之前一样,不赘述。

创建conda环境

studio-conda -t lmdeploy -o pytorch-2.1.2

安装LMDeploy

#激活虚拟环境
conda activate lmdeploy
#安装0.3.0的imdeploy
pip install lmdeploy[all]==0.3.0

1.2以命令行方式与 InternLM2-Chat-1.8B 模型对话

在这里插入图片描述
在这里插入图片描述

2.进阶作业

2.1 设置KV Cache最大占用比例为0.4,开启W4A16量化,以命令行方式与模型对话。

在这里插入图片描述
在这里插入图片描述

2.2 以API Server方式启动 lmdeploy,开启 W4A16量化,调整KV Cache的占用比例为0.4,分别使用命令行客户端与Gradio网页客户端与模型对话。

命令行:
在这里插入图片描述
在这里插入图片描述
网页客户端:
在这里插入图片描述

2.3 使用W4A16量化,调整KV Cache的占用比例为0.4,使用Python代码集成的方式运行internlm2-chat-1.8b模型。

在这里插入图片描述

2.4 使用 LMDeploy 运行视觉多模态大模型 llava gradio demo。

在这里插入图片描述
在这里插入图片描述

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-06-10 17:24:04       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-06-10 17:24:04       100 阅读
  3. 在Django里面运行非项目文件

    2024-06-10 17:24:04       82 阅读
  4. Python语言-面向对象

    2024-06-10 17:24:04       91 阅读

热门阅读

  1. GMT legend设置

    2024-06-10 17:24:04       38 阅读
  2. docker-compose部署mysql+nginx+redis

    2024-06-10 17:24:04       36 阅读
  3. vue面试题三

    2024-06-10 17:24:04       35 阅读
  4. C语言考试内容

    2024-06-10 17:24:04       26 阅读
  5. 881救生艇

    2024-06-10 17:24:04       32 阅读
  6. 音视频主要概念

    2024-06-10 17:24:04       33 阅读
  7. Dubbo的Cluster策略与Directory实现

    2024-06-10 17:24:04       28 阅读
  8. 单节点离线部署TiDB 6.1用于测试

    2024-06-10 17:24:04       25 阅读
  9. AtCoder Beginner Contest 355

    2024-06-10 17:24:04       37 阅读
  10. Docker镜像加速

    2024-06-10 17:24:04       28 阅读
  11. Redis的基本数据类型

    2024-06-10 17:24:04       25 阅读