AMD CPU加 vega 显卡运行ollama本地大模型

显卡是VEGA56,这个卡代号是gfx900 虽然ollama页面上写着这个卡可以,但是实际是不可以的

报错如下:

level=WARN source=amd_windows.go:97 msg="amdgpu is not supported" gpu=0 gpu_type=gfx900:xnack 

它认为的GPU型号是   gfx900:xnack  但是 没有GPU叫这个!

那如何解决?

set HSA_OVERRIDE_GFX_VERSION=9.0.0
ollama serve
 

Ok

至于ROCM 是不用安装的,显卡驱动用游戏驱动最新版就行。

但是 必须保证  \AppData\Local\Programs\Ollama\rocm  rocblas.dll 里有这个显卡,要是喜欢自己编译可以自己编译 否则去搜下 <<AMD显卡全系列解锁Ollama支持,llama3运行更优雅!>> rocBLAS-HIP5.7.1-win.rar 用人家编译好的也可以

3700X

 

相关推荐

  1. AMD CPU vega 运行ollama本地模型

    2024-07-14 15:24:01       23 阅读
  2. OLLAMA:如何像云端一样运行本地语言模型

    2024-07-14 15:24:01       41 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-07-14 15:24:01       67 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-07-14 15:24:01       72 阅读
  3. 在Django里面运行非项目文件

    2024-07-14 15:24:01       58 阅读
  4. Python语言-面向对象

    2024-07-14 15:24:01       69 阅读

热门阅读

  1. 面试经验总结

    2024-07-14 15:24:01       25 阅读
  2. 14. DDL-约束的管理

    2024-07-14 15:24:01       19 阅读
  3. Spring Cloud

    2024-07-14 15:24:01       25 阅读
  4. 微信小程序 2024年更新内容汇总

    2024-07-14 15:24:01       17 阅读
  5. vite.config.js文件配置指南

    2024-07-14 15:24:01       23 阅读
  6. 学习和理解C语言可以编写的一些项目

    2024-07-14 15:24:01       20 阅读