[2024-06]-[大模型]-[Ollama]- WebUI

主要涉及要部署的前端webui是来源于:https://github.com/open-webui/open-webui

正常就使用:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

运行就好,依赖于docker,这个是ollama和webui需要同一台机器上。之后通过127.0.0.1:3000访问,这个3000端口安装需要可以改变。
在这里插入图片描述

其余的webui和ollama需要不同的设备上,就用项目里的其余命令。

如果还是操作有问题,参考

相关推荐

  1. ollama集成open-webui本地部署模型应用

    2024-06-11 12:48:01       28 阅读
  2. Ollama+Open WebUI部署模型在linux平台

    2024-06-11 12:48:01       36 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-06-11 12:48:01       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-06-11 12:48:01       106 阅读
  3. 在Django里面运行非项目文件

    2024-06-11 12:48:01       87 阅读
  4. Python语言-面向对象

    2024-06-11 12:48:01       96 阅读

热门阅读

  1. 矩阵的运算及数组的创建

    2024-06-11 12:48:01       26 阅读
  2. spring最常用的注解

    2024-06-11 12:48:01       31 阅读
  3. 注解 - @CookieValue

    2024-06-11 12:48:01       29 阅读
  4. Linux网络命令——netstat

    2024-06-11 12:48:01       29 阅读
  5. 针对私域流量的营销策略该如何制定?

    2024-06-11 12:48:01       32 阅读
  6. 为Ubuntu 14.04升级 Kernel V4.4的内核

    2024-06-11 12:48:01       35 阅读
  7. kaggle-abalone

    2024-06-11 12:48:01       27 阅读
  8. JVM面试

    JVM面试

    2024-06-11 12:48:01      28 阅读