CogVLM & CogAgent模型部署

   
 

     CogVLM & CogAgent       下载地址                                                                                                                  

CogVLM & CogAgent 的 Github 官方仓库:https://github.com/THUDM/CogVLM

CogVLM & CogAgent体验地址

只是完成传统CV任务中例如目标检测定位, VQA 任务,我们CogVLM模型就可以胜任任务

需要完成多模态的指令任务,例如 跨模态指令图文指导工具调用任务,我们推荐使用CogAgent模型

如下测试:

   SwanHub      模型下载                                                始智AI社区   

   OpenXLab    模型下载                                                ModelScope 魔塔社区                                                 

   HuggingFace 社区

源码安装

  • 从 Swanhub 下载源码

git clone https://swanhub.co/ZhipuAI/CogVLM.git

开发者可以通过以下方式下载模型文件

  • 下载模型文件前请先确保`git lfs`命令已安装,安装教程请参考这里

  • 模型文件已上传至 Huggingface, Modelsope , SwanHub 三个平台,用户可以快速安装模型。

  • 若使用 Modelscope 下载模型

git lfs install
# CogVLM
git clone https://www.modelscope.cn/ZhipuAI/cogvlm-chat.git
# CogAgent
git clone https://www.modelscope.cn/ZhipuAI/cogagent-chat.git

  • 若使用 SwanHub 下载模型

git lfs install
# CogVLM
git clone https://swanhub.co/ZhipuAI/cogvlm-chat.git
# CogAgent
git clone https://swanhub.co/ZhipuAI/cogagent-chat-hf.git

安装依赖

使用 pip 安装依赖:

cd CogVLM
pip install -r requirements.txt
python -m spacy download en_core_web_sm

如果配置不满足最低配置,你可以访问环境配置和检查获取更多信息

运行demo

使用我们提供的命令行交互来完成命令行与 CogAgent & CogVLM 的对话。

python basic_demo/cli_demo_hf.py中运行代码

# CogAgent
python cli_demo_hf.py --from_pretrained THUDM/cogagent-chat-hf --bf16
python cli_demo_hf.py --from_pretrained THUDM/cogagent-vqa-hf --bf16

# CogVLM
python cli_demo_hf.py --from_pretrained THUDM/cogvlm-chat-hf --bf16
python cli_demo_hf.py --from_pretrained THUDM/cogvlm-grounding-generalist --bf16

如果你使用的是sat模型,请使用cli_demo_sat.py来完整这个步骤

# CogAgent
python cli_demo_hf.py --from_pretrained THUDM/cogagent-chat-hf --bf16
python cli_demo_hf.py --from_pretrained THUDM/cogagent-vqa-hf --bf16

# CogVLM
python cli_demo_hf.py --from_pretrained THUDM/cogvlm-chat-hf --bf16
python cli_demo_hf.py --from_pretrained THUDM/cogvlm-grounding-generalist --bf16

运行 WebDemo (使用官方在线DEMO)

在本仓库中,我们为开发者提供了一个可以直接运行的完整 Web Demo。

用户可以直接在Web Demo中可视化的与模型进行交互。

启动代码

首先,按照要求下载必须的配置。

pip install -r composite_demo/requirements.txt

接着,在composite_demo/client.py中将修改以下代码

# 将这两行替换为你模型的实际位置
MODEL_PATH = os.environ.get('MODEL_PATH', 'your cogagent-chat-hf path')
TOKENIZER_PATH = os.environ.get('TOKENIZER_PATH', 'your vicuna-7b-v1.5 path')

接着,运行代码

 streamlit run composite_demo/main.py

相关推荐

  1. llama大模型部署

    2024-04-22 23:36:09       48 阅读
  2. YOLOv8模型部署

    2024-04-22 23:36:09       57 阅读
  3. 模型部署

    2024-04-22 23:36:09       28 阅读
  4. 模型部署之——ONNX模型转RKNN

    2024-04-22 23:36:09       52 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-22 23:36:09       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-22 23:36:09       101 阅读
  3. 在Django里面运行非项目文件

    2024-04-22 23:36:09       82 阅读
  4. Python语言-面向对象

    2024-04-22 23:36:09       91 阅读

热门阅读

  1. OWASP 发布十大开源软件风险清单(详解版)

    2024-04-22 23:36:09       36 阅读
  2. prompt

    2024-04-22 23:36:09       37 阅读
  3. Day 19 NAS 网络附加存储

    2024-04-22 23:36:09       32 阅读
  4. 图的遍历算法模板

    2024-04-22 23:36:09       29 阅读
  5. C语言 流文件

    2024-04-22 23:36:09       27 阅读