本地用ollama部署开源大模型最简单教程(不需要安装docker) Windows, Linux, Mac

  1. 去官网下载安装 Ollama ,然后运行, windows和mac只要右下角或者标题栏有图标即可。
  2. 安装ollama-gui
用python安装:
python -m pip install ollama_gui
python -m ollama_gui

或者没有python可以下载安装: 
https://github.com/chyok/ollama-gui/releases/tag/v1.2.0

3.打开上面的GUI程序, 选择想部署在本地的模型:library模型列表 ,如qwen2:0.5b, ,进入模型管理,输入qwen2:0.5b,点击download:
在这里插入图片描述

4.开始对话
在这里插入图片描述

参考自
https://zhuanlan.zhihu.com/p/706279041

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-07-20 02:38:02       52 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-07-20 02:38:02       54 阅读
  3. 在Django里面运行非项目文件

    2024-07-20 02:38:02       45 阅读
  4. Python语言-面向对象

    2024-07-20 02:38:02       55 阅读

热门阅读

  1. UDP checksum calculation

    2024-07-20 02:38:02       20 阅读
  2. 设计模式总结

    2024-07-20 02:38:02       19 阅读
  3. Android gradle groovy改为kotlin总结

    2024-07-20 02:38:02       16 阅读
  4. 大模型日报 2024-07-18

    2024-07-20 02:38:02       16 阅读
  5. SpringBoot如何限制请求访问次数

    2024-07-20 02:38:02       17 阅读
  6. CSS简介

    2024-07-20 02:38:02       16 阅读
  7. C++ STL is_partitioned 用法和实现

    2024-07-20 02:38:02       16 阅读
  8. Python基础学习Day_06

    2024-07-20 02:38:02       16 阅读