总结一下ollama library中不错的大语言模型

《【快捷部署】016_Ollama(CPU only版)》 介绍了如何一键快捷部署Ollama,今天就来看一下受欢迎的模型。


image.png


模型 简介
gemma Gemma是由谷歌及其DeepMind团队开发的一个新的开放模型。

参数:2B(1.6GB)、7B(4.8GB)
llava LLaVA是一种多模式模型,它结合了视觉编码器和Vicuna,用于通用视觉和语言理解,实现了模仿多模式GPT-4精神的令人印象深刻的聊天功能。

参数:7B(4.7GB)、13B(8.0GB)、34B(20GB)
qwen Qwen是阿里云基于transformer的一系列大型语言模型,在大量数据上进行预训练,包括网络文本、书籍、代码等。

参数:0.5B、1.8B、4B (default)、7B、14B、 32B (new) 、 72B
llama2 Llama 2由Meta Platforms发布。该模型默认情况下支持4096的上下文长度。Llama 2聊天模型根据超过100万条人工注释进行了微调,专为聊天而设计。

参数:7B(3.8GB)、13B(7.4GB)、70B(39GB)
deepseek-coder DeepSeek编码程序是从零开始训练的87%的代码和13%的英语和中文自然语言。每个模型都在2万亿个tokens上进行了预训练。

参数:1.3B(0.8GB)、6.7B(3.8GB)、33B(19GB)
yi 零一万物出品

参数:6B(3.5GB)、34B(19GB)
phi 由微软研究公司开发的2.7B语言模型,展示了卓越的推理和语言理解能力。

参数:2.7B(1.6GB)
grok-1 Grok-1,马斯克xAI,314B,这个的使用门槛就比较高了。

点击模型文字,进入ollama library。选择对应的模型,就可以看到下载的命令。

image.png


注意:运行7B模型至少需要8 GB RAM, 13B 模型至少需要16 GB RAM, 33B 需要 32 GB。

更多模型请参见:
https://ollama.com/library
https://huggingface.co/models



往期精彩内容推荐

👉 【快捷部署】016_Ollama(CPU only版)
👉 【快捷部署】015_Minio(latest)
👉 【快捷部署】014_elasticsearch(7.6)
👉 「快速部署」第一期清单
👉 云原生:5分钟了解一下Kubernetes是什么

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-11 10:02:04       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-11 10:02:04       106 阅读
  3. 在Django里面运行非项目文件

    2024-04-11 10:02:04       87 阅读
  4. Python语言-面向对象

    2024-04-11 10:02:04       96 阅读

热门阅读

  1. Shell 输入输出:从 Read 到管道的奇妙旅程

    2024-04-11 10:02:04       36 阅读
  2. zsh常用插件安装教程

    2024-04-11 10:02:04       35 阅读
  3. CentOS 7中的ifconfig命令详解及实践

    2024-04-11 10:02:04       41 阅读
  4. 设计模式之创建型模式---建造者模式

    2024-04-11 10:02:04       36 阅读
  5. Linux基本命令

    2024-04-11 10:02:04       36 阅读
  6. iOS-壳工程调试SDK集成方bug

    2024-04-11 10:02:04       40 阅读
  7. SpringCloudAlibaba-整合sentinel(四)

    2024-04-11 10:02:04       36 阅读
  8. .NET 设计模式—桥接模式(Design pattern)

    2024-04-11 10:02:04       37 阅读
  9. Css3梳理篇——animation(动画)

    2024-04-11 10:02:04       40 阅读