本地部署 Ollama

0. Ollama 能帮我们做什么

在本地启动并运行大型语言模型。

运行 Llama 2、Code Llama 和其他模型。自定义并创建自己的。

1. 下载 Ollama

访问 https://ollama.ai/download,根据你使用的系统,下载相应版本。

这里以 Linux 为例。(20240107时点,还未支持 Windows)

在这里插入图片描述

2. 安装 Ollama

curl https://ollama.ai/install.sh | sh

3. 使用 Ollama

访问 https://ollama.ai/library,检索你想使用的模型,然后执行下面命令运行,以 llama2 为例

ollama run llama2

4. Ollama 和 Langchain 的集成

后续有需要时,在补充详细说明。

参考地址:

完结!

相关推荐

  1. Ollama+AnythingLLM搭建部署本地大模型AI知识库

    2024-01-07 21:30:03       44 阅读
  2. ollama集成open-webui本地部署大模型应用

    2024-01-07 21:30:03       14 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-01-07 21:30:03       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-01-07 21:30:03       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-01-07 21:30:03       18 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-01-07 21:30:03       20 阅读

热门阅读

  1. Spring之事务

    2024-01-07 21:30:03       40 阅读
  2. 【LeetCode-402】移掉K位数字

    2024-01-07 21:30:03       46 阅读
  3. MyBatis中的XML文件中SQL的<=判断符号处理

    2024-01-07 21:30:03       42 阅读
  4. Unity2D学习笔记 | 《勇士传说》教程 | (六)

    2024-01-07 21:30:03       38 阅读
  5. ARM 链接器优化功能介绍

    2024-01-07 21:30:03       43 阅读
  6. 【机器学习前置知识】共轭分布

    2024-01-07 21:30:03       37 阅读
  7. Vue中用watch一次监听两个值的变化

    2024-01-07 21:30:03       34 阅读
  8. 写字母(文件)

    2024-01-07 21:30:03       35 阅读
  9. ubuntu2204,mysql8.x安装

    2024-01-07 21:30:03       40 阅读
  10. 【spring之条件评估器】

    2024-01-07 21:30:03       35 阅读