在Mac M1笔记本上跑大语言模型llama3的4个步骤?(install、pull、run、ask)

要点

  • Ollama一个功能强大的本地大语言模型LLM运行工具,支持很多模型,并且操作极其简单
  • 快速回忆步骤:
下载ollama工具:https://ollama.com/download
下载模型:ollama pull llama3 #根据libs列表直接指定名字
运行模型:ollama run llama3
测试:直接问他问题(可以关闭网络)

步骤

Step1. 下载ollama(根据平台选择)

https://ollama.com/download
在这里插入图片描述
下载后将软件安装,解压后拷贝到应用程序:
在这里插入图片描述
安装用户态命令:(点击install)
在这里插入图片描述

Step2:下载模型文件

支持的模型列表:https://ollama.com/library
比如llama3:
在这里插入图片描述
安装步骤:命令行直接安装

ollama pull llama3

实操:
在这里插入图片描述

这里需要耗费一些时间,具体根据网络和模型大小确定,模型大小参考:

Model Parameters Size Download
Llama 3 8B 4.7GB ollama run llama3
Llama 3 70B 40GB ollama run llama3:70b
Mistral 7B 4.1GB ollama run mistral
Dolphin Phi 2.7B 1.6GB ollama run dolphin-phi
Phi-2 2.7B 1.7GB ollama run phi
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
Llama 2 13B 13B 7.3GB ollama run llama2:13b
Llama 2 70B 70B 39GB ollama run llama2:70b
Orca Mini 3B 1.9GB ollama run orca-mini
LLaVA 7B 4.5GB ollama run llava
Gemma 2B 1.4GB ollama run gemma:2b
Gemma 7B 4.8GB ollama run gemma:7b
Solar 10.7B 6.1GB ollama run solar

官方的参考资源:
8 GB 内存跑 7B models
16 GB to run the 13B models
32 GB to run the 33B models
比如M1有16G内存,可以跑7B的模型。

Step:运行模型

ollama run llama3

实操:(在M1的笔记本大概是s级别的,其他比如intel笔记本可能需要十几秒,M3等笔记本应该非常快)
并且测试的时候可以尝试关闭网络。
比如让他回答一个 gcc编译的问题:
gcc
再来一个:“python如何使用list,举一个实际的例子”
py

Step:退出聊天

Ctrl + d 或者 /bye退出聊天

其他

  • ollama的github:https://github.com/ollama/ollama
  • ollama在mac本地是以类似git的方式存储的,存储的模型都是以blobs的形式,和git底层原理类似。
    在这里插入图片描述- ollama在mac上模型存储的地址: ~/.ollama/models/blobs/
  • 在models/manifests中存储了配置信息,比如llama的blob是哪个等信息
  • 运行以后会自动启动RESTful的接口,也就是可以通过局域网访问,端口是11434,比如:
    在这里插入图片描述
  • 可以通过curl使用restful方式访问:比如:
curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt":"Why is the sky blue?"
}'
  • 端侧的模型也具有记忆能力,还能反馈错误并且修改正
  • 查看当前使用的模型等信息 /show info
    在这里插入图片描述

最后

实操下来,因为ollma非常简单,只需要3个步骤就能使用模型,更多模型只需要一个pull就搞定。一台稍微不错的笔记本+网络,就能把各种大模型都用起来,快速上手吧。

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-26 08:42:04       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-26 08:42:04       106 阅读
  3. 在Django里面运行非项目文件

    2024-04-26 08:42:04       87 阅读
  4. Python语言-面向对象

    2024-04-26 08:42:04       96 阅读

热门阅读

  1. mysql全量备份及数据恢复实践

    2024-04-26 08:42:04       42 阅读
  2. unity中压缩文件与解压文件

    2024-04-26 08:42:04       34 阅读
  3. web3 入门记录

    2024-04-26 08:42:04       28 阅读
  4. LVS + KeepAlived实现高可用负载均衡

    2024-04-26 08:42:04       39 阅读
  5. ToPrimitive原理

    2024-04-26 08:42:04       37 阅读
  6. 深度学习--RNN循环神经网络和LSTM

    2024-04-26 08:42:04       29 阅读
  7. 【后端学习笔记·Golang】邮箱登陆验证

    2024-04-26 08:42:04       41 阅读
  8. [C++][算法基础]完全背包问题(动态规划)

    2024-04-26 08:42:04       35 阅读
  9. 永恒之蓝ms17-010的利用

    2024-04-26 08:42:04       28 阅读