本地部署google大模型并编写程序调用流式输出

ollama

本地安装ollama

gemma

下载并部署模型 本机资源有限,可以下个2b的相对较小的模型
执行命令

 ollama run gemma:2b

在这里插入图片描述

客户端调用

import requests
import json

data = {
  "model": "gemma:2b",
  "messages": [
    { "role": "user", "content": "hi, who are you?" }
  ]
}

response = requests.post('http://localhost:11434/api/chat', json=data,stream=True)

result = ''
for line in response.iter_lines():
    if line:
        json_data = json.loads(line)
        content = json_data.get('message', {}).get('content', '')
        print(content, end='')
        

输出:

在这里插入图片描述

相关推荐

  1. 【一】Mac 本地部署模型

    2024-04-10 06:12:03       35 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-10 06:12:03       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-10 06:12:03       101 阅读
  3. 在Django里面运行非项目文件

    2024-04-10 06:12:03       82 阅读
  4. Python语言-面向对象

    2024-04-10 06:12:03       91 阅读

热门阅读

  1. 高并发环境下的实现与优化策略

    2024-04-10 06:12:03       42 阅读
  2. 百度机器学习算法春招一二三面面经

    2024-04-10 06:12:03       33 阅读
  3. 基于Flask测试深度学习模型预测

    2024-04-10 06:12:03       40 阅读
  4. Vscode使用教程

    2024-04-10 06:12:03       34 阅读
  5. 【hive】单节点搭建hadoop和hive

    2024-04-10 06:12:03       32 阅读
  6. Hadoop 源码中使用ServiceLoader

    2024-04-10 06:12:03       39 阅读
  7. vscode 关键字记录

    2024-04-10 06:12:03       31 阅读
  8. Ajax、Fetch、Axios三者的区别

    2024-04-10 06:12:03       41 阅读
  9. 在 Vue 3 中使用 Axios 发送 POST 请求

    2024-04-10 06:12:03       37 阅读
  10. BERT的训练过程解析:从数据准备到fine-tuning

    2024-04-10 06:12:03       37 阅读
  11. WPF —— 动画缩放变换

    2024-04-10 06:12:03       40 阅读