第二十四篇-Ollama-在线安装

ollama-在线安装,运行速度相当不错

环境

系统:CentOS-7
CPU: 14C28T
显卡:Tesla P40 24G
驱动: 515
CUDA: 11.7
cuDNN: 8.9.2.26

安装

curl -fsSL https://ollama.com/install.sh | sh
等待下载

下载运行模型

ollama run qwen:0.5b-chat-v1.5-q4_1
国内也可以下载的

看到如下内容
success 
>>>
可以输入对话内容了
比如
	介绍自己

open-api请求

curl http://localhost:11434/api/chat -d '{
	"model": "qwen:0.5b-chat-v1.5-q4_1",
	"messages": [
		{ "role": "user", "content": "介绍一下北京景点?" }
	]
}'
curl http://localhost:11434/api/generate -d '{
	"model": "qwen:0.5b-chat-v1.5-q4_1",
	"prompt":"介绍一下北京景点?"
}'

性能

1C2G服务器上运行qwen0.5b-v1.5速度超快,1.8B就不行了很慢,如何升级更高
4c8G服务器上运行

模型版本信息获取

https://ollama.com/library
可以在这里找打所有模型,并查看指定版本命令

相关推荐

  1. 第二-Ollama-在线安装

    2024-04-27 11:24:04       35 阅读
  2. 第二-Ollama-监听本地IP与端口

    2024-04-27 11:24:04       38 阅读
  3. 第二-ZincSearch-安装部署

    2024-04-27 11:24:04       33 阅读
  4. 第三-Ollama-TeslaP40-Ollama-Qwen2-57B等速度

    2024-04-27 11:24:04       36 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-27 11:24:04       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-27 11:24:04       106 阅读
  3. 在Django里面运行非项目文件

    2024-04-27 11:24:04       87 阅读
  4. Python语言-面向对象

    2024-04-27 11:24:04       96 阅读

热门阅读

  1. SystemServer启动SystemUI

    2024-04-27 11:24:04       33 阅读
  2. 支持向量机(SVM)详细介绍

    2024-04-27 11:24:04       31 阅读
  3. 对于C# 任务并行库(TPL)的一些理解

    2024-04-27 11:24:04       35 阅读
  4. [C++] 小游戏 斗破苍穹 2.10.5 版本 zty发布

    2024-04-27 11:24:04       28 阅读
  5. Python项目开发实战:怎么删除恶意代码

    2024-04-27 11:24:04       35 阅读
  6. 【笔记】非Transformer结构

    2024-04-27 11:24:04       25 阅读
  7. 安全作业-1

    2024-04-27 11:24:04       28 阅读
  8. DevOps(十六)Nexus二进制仓库与Jenkins

    2024-04-27 11:24:04       35 阅读
  9. 商城数据库(33-36)

    2024-04-27 11:24:04       34 阅读
  10. ModuleNotFoundError: No module named ‘pyautogui‘

    2024-04-27 11:24:04       27 阅读