Mac环境下ollama部署和体验

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos

关于ollama

  • ollama和LLM(大型语言模型)的关系,类似于docker和镜像,可以在ollama服务中管理和运行各种LLM,下面是ollama命令的参数,与docker管理镜像很类似,可以下载、删除、运行各种LLM
Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command
  • 官网:https://ollama.com/
  • 非常简洁
    在这里插入图片描述

本篇概览

  • 作为入门操作的笔记,本篇记录了部署和简单体验ollama的过程,并且通过docker部署了web-ui,尝试通过页面使用大模型
  • 本次操作的环境如下
  1. 电脑:macbook pro m1,Sonoma 14.4.1
  2. ollama:0.1.32

安装

  • 在官网首页点击Download即可下载,得到zip安装包,解压后就是应用程序了
    在这里插入图片描述
  • 会提示是否移动到应用程序目录,回车确认
    在这里插入图片描述
  • 打开后是个简单的页面
    在这里插入图片描述
  • 完成安装,会有一个提示,告诉你如何安装指定模型
    在这里插入图片描述

关于模型

  • ollama支持的全量模型在这里:https://ollama.com/library
  • 官方给出的部分模型
Model Parameters Size 下载命令
Llama 3 8B 4.7GB ollama run llama3
Llama 3 70B 40GB ollama run llama3:70b
Phi-3 3.8B 2.3GB ollama run phi3
Mistral 7B 4.1GB ollama run mistral
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
LLaVA 7B 4.5GB ollama run llava
Gemma 2B 1.4GB ollama run gemma:2b
Gemma 7B 4.8GB ollama run gemma:7b
Solar 10.7B 6.1GB ollama run solar
  • 另外需要注意的是本地内存是否充足,7B参数的模型需要8G内存,13B需要16G内存,33B需要32G内存

运行8B的Llama3

  • 我的mac笔记本内存16G,所以打算运行8B的Llama3,命令如下
ollama run llama3
  • 第一次运行,因为没有模型文件,所以需要下载,等待下载中
    在这里插入图片描述- 下载完毕后就可以问答了

在这里插入图片描述

  • 退出的方法是输入/bye

Linux版本

  • 如果操作系统是Linux,安装命令如下
curl -fsSL https://ollama.com/install.sh | sh
  • 安装完成后还要启动
ollama serve

webui

  • 如果电脑上装有docker,请执行以下命令来启动ollama的webui
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 出现登录页面,需要点击右下角的Sign up先注册
    在这里插入图片描述
  • 完成注册后,第一次登录会出现特性介绍
    在这里插入图片描述
  • 可以在这里修改系统语言
    在这里插入图片描述
  • 接下来试试聊天功能,先是选择模型,由于刚才已经下载过模型了,这里只要选择即可,如下图
    在这里插入图片描述
  • 然后就可以对话了
    在这里插入图片描述
  • 在设置页面可以管理模型
    在这里插入图片描述
  • 至此,最基础的操作已经完成,如果您正处于初步尝试阶段,希望本文可以给您一些参考

你不孤单,欣宸原创一路相伴

  1. Java系列
  2. Spring系列
  3. Docker系列
  4. kubernetes系列
  5. 数据库+中间件系列
  6. DevOps系列

相关推荐

  1. 基于Mac M1[ARM64]环境Docker部署大数据集群

    2024-05-03 11:14:10       17 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-05-03 11:14:10       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-05-03 11:14:10       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-05-03 11:14:10       18 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-05-03 11:14:10       20 阅读

热门阅读

  1. LeetCode——滑动窗口

    2024-05-03 11:14:10       16 阅读
  2. centos 中使用 kubekey 安装 k8s v1.22.12 支持 GPU 调用

    2024-05-03 11:14:10       12 阅读
  3. Django框架之模型层

    2024-05-03 11:14:10       11 阅读
  4. CentOS:增加网桥可以通过brctl命令

    2024-05-03 11:14:10       13 阅读
  5. RISC-V异常处理相关内容

    2024-05-03 11:14:10       11 阅读
  6. 云计算技术概述_2.云计算的服务方式

    2024-05-03 11:14:10       12 阅读
  7. 3DMax中场景太大如何优化?

    2024-05-03 11:14:10       9 阅读
  8. 【CSS】基础

    2024-05-03 11:14:10       10 阅读
  9. rust可变全局静态数组用法

    2024-05-03 11:14:10       12 阅读
  10. C# Solidworks二次开发:枚举应用实战(第十三讲)

    2024-05-03 11:14:10       10 阅读
  11. 游戏名台词大赏

    2024-05-03 11:14:10       11 阅读
  12. springboot-WebSocket

    2024-05-03 11:14:10       14 阅读
  13. 从零开始精通RTSP之传输H264视频流

    2024-05-03 11:14:10       11 阅读
  14. 04.25_111期_C++_map&set

    2024-05-03 11:14:10       13 阅读
  15. 03.磁盘管理与维护命令

    2024-05-03 11:14:10       12 阅读