LLM使用方法介绍,持续更新

LLM使用方法介绍,持续更新

1. LLM本地搭建与运行

1. Ollama的安装

  1. 网址:https://ollama.com/
  2. 点击Download选择对应的操作系统下载安装软件,软件默认安装在C盘无法选择路径;
    image-20240423001240049
  3. 安装完成后,Win+R进入终端执行:ollama,出现如下图所示表示安装成功
    image-20240423001339414

2. Llama 3的安装与运行

  1. 打开:https://github.com/ollama/ollama,找到下载对应版本的运行命令
    image-20240423001359709
  2. 在终端执行对应命令即可下载,下载完成即可在终端输入对话;
    image-20240423001418480
  3. 输入对话测试即可
    image-20240423002412593

3. Open WebUI的安装与运行

Open WebUI 是一个仿照 ChatGPT 界面,为本地大语言模型提供图形化界面的开源项目,可以非常方便的调试、调用本地模型。你能用它连接你在本地的大语言模型(包括 Ollama 和 OpenAI 兼容的 API),也支持远程服务器。

2. Colab微调大模型

待更新 。。。

3. 百度千帆大模型的API调用

1.创建应用

https://console.bce.baidu.com/qianfan/ais/console/applicationConsole/application

image-20240423005351821

2.开通大模型服务

根据自己需要开通对应大模型,当然也可以不开通。在后续的体验中心和代码在线调试中选择免费的大模型即可;

image-20240423005110349

3.体验中心

https://console.bce.baidu.com/qianfan/ais/console/onlineTest

4. 示例代码在线调试

https://console.bce.baidu.com/tools/#/index,复制示例代码到自己工程即可使用;

image-20240423004808915

相关推荐

  1. Sping常见注解使用方法----持续更新中20240116

    2024-04-26 23:28:01       59 阅读
  2. VScode使用持续更新中。。。

    2024-04-26 23:28:01       33 阅读
  3. 常用工具方法--持续更新

    2024-04-26 23:28:01       54 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-26 23:28:01       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-26 23:28:01       106 阅读
  3. 在Django里面运行非项目文件

    2024-04-26 23:28:01       87 阅读
  4. Python语言-面向对象

    2024-04-26 23:28:01       96 阅读

热门阅读

  1. 38 事件

    2024-04-26 23:28:01       37 阅读
  2. 【MySQL面试题】经典面试题之“b+树”

    2024-04-26 23:28:01       41 阅读
  3. Nest.js项目小结2

    2024-04-26 23:28:01       35 阅读
  4. 机器学习模型保存和导出pmml文件(python代码)

    2024-04-26 23:28:01       38 阅读
  5. 贪吃蛇项目实践!(下)

    2024-04-26 23:28:01       44 阅读
  6. git 缓冲区查看与设置

    2024-04-26 23:28:01       30 阅读
  7. PostgreSQL恢复系列:pg_filedump恢复字典构造---惜分飞

    2024-04-26 23:28:01       39 阅读
  8. C++中的STL——stack类的基本使用

    2024-04-26 23:28:01       38 阅读