M2 运行 llamafile

安装llamafile很简单,进入官网,按照步骤安装运行即可。
https://github.com/Mozilla-Ocho/llamafile

  1. 下载 llava-v1.5-7b-q4.llamafile
  2. 赋予运行权限chmod +x llava-v1.5-7b-q4.llamafile
  3. 运行 ./llava-v1.5-7b-q4.llamafile -ngl 9999
    在这里插入图片描述
    速度确实是比 ollama 快,ollama 用 qwen 1.5 7B 的模型。llamafile运行的是LLaVA 1.5,也是 7B 模型。下次试试能不能把 qwen 模型接入。

运行时遇到了一个问题
the cpu feature AVX was required at build time but isn’t available on this system,解决这个问题,首先用 arm64 的 shell,然后用 root 启动 llamafile。

arch -arm64 sh
su
./llava-v1.5-7b-q4.llamafile -ngl 9999

相关推荐

  1. <span style='color:red;'>M</span><span style='color:red;'>2</span>-DIA

    M2-DIA

    2024-04-13 16:08:02      45 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-13 16:08:02       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-13 16:08:02       106 阅读
  3. 在Django里面运行非项目文件

    2024-04-13 16:08:02       87 阅读
  4. Python语言-面向对象

    2024-04-13 16:08:02       96 阅读

热门阅读

  1. ubuntu 部署redis

    2024-04-13 16:08:02       33 阅读
  2. js获取本周,本月,本季度开始结束时间

    2024-04-13 16:08:02       43 阅读
  3. JDBC高级篇-JDBC工具类、DAO封装和BaseDAO工具类

    2024-04-13 16:08:02       31 阅读
  4. 如何取安全的密码?

    2024-04-13 16:08:02       36 阅读
  5. 进阶MySQL使用指南

    2024-04-13 16:08:02       96 阅读
  6. 链表——双向链表

    2024-04-13 16:08:02       44 阅读