【AI】本地部署可以与文件沟通的GPT:Llama 2 + GPT4All + Chroma

【背景】

还是继续致力于实践可以保护数据隐私的本地化LLM部署。
这次用的是Llama 2 + GPT4All + Chroma实现RAG。

【概念】

基于LangChain模板的各个部分的作用:

  1. Llama2-》语言模型管理
  2. GPT4ALL-》embedding
  3. Chroma-》文件内容的向量存储,作为内部知识库,不需要网络就可以存储。

【环境构建】

  1. 安装Ollama
    在Linux或Windows的WSL下,使用命令:
curl https://ollama.ai/install.sh | sh
  1. 利用Ollama下载一款LLM模型
    比如,下载一个llama2 7b chat模型:
ollama pull llama2:7b-chat
  1. 安装LangChain命令行工具CLI:
pip install -U langchain-cli

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-21 06:10:05       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-21 06:10:05       100 阅读
  3. 在Django里面运行非项目文件

    2024-04-21 06:10:05       82 阅读
  4. Python语言-面向对象

    2024-04-21 06:10:05       91 阅读

热门阅读

  1. mysql like 查询包含%

    2024-04-21 06:10:05       39 阅读
  2. PostgreSQL 窗口函数汇总

    2024-04-21 06:10:05       33 阅读
  3. 个人练习之-jenkins

    2024-04-21 06:10:05       31 阅读
  4. MyBatis可以如何实现分页查询?

    2024-04-21 06:10:05       28 阅读
  5. Swift中协程与异步编程

    2024-04-21 06:10:05       39 阅读