Ollama、FastGPT大模型RAG结合使用案例

参考:
https://ollama.com/download/linux
https://doc.fastai.site/docs/intro/

https://blog.csdn.net/m0_71142057/article/details/136738997
https://doc.fastgpt.run/docs/development/custom-models/m3e/

Ollama作为后端大模型加载运行
FastGPT作为前端页面聊天集成RAG框架

1、Ollama linux运行

ollama linux安装:
curl -fsSL https://ollama.com/install.sh | sh

在这里插入图片描述

ollama服务启动停止

sudo systemctl status ollama    # check the status of the service
sudo systemctl stop ollama     # kill
sudo systemctl start ollama   # restart

远程访问需要服务器提前设置

相关推荐

  1. 语言模型RAG vs. 长文本

    2024-04-13 07:34:05       37 阅读
  2. 模型RAG(二)向量化(embedding)

    2024-04-13 07:34:05       110 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-13 07:34:05       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-13 07:34:05       106 阅读
  3. 在Django里面运行非项目文件

    2024-04-13 07:34:05       87 阅读
  4. Python语言-面向对象

    2024-04-13 07:34:05       96 阅读

热门阅读

  1. 【Apache】Apache 如何使用其他端口

    2024-04-13 07:34:05       42 阅读
  2. 使用cloudflare之后IP不对的问题

    2024-04-13 07:34:05       134 阅读
  3. C#:24小时制和12小时制之间的转换

    2024-04-13 07:34:05       32 阅读
  4. OneFlow深度学习框架介绍

    2024-04-13 07:34:05       37 阅读
  5. Python3 标准库,API文档链接

    2024-04-13 07:34:05       44 阅读
  6. 多分类逻辑回归

    2024-04-13 07:34:05       36 阅读
  7. 正则表达式

    2024-04-13 07:34:05       39 阅读