【个人开发】llama2部署实践(一)——基于CPU部署

1. Anaconda安装

mkdir -p /opt/anaconda
cd /opt/anaconda
# 参考链接:https://repo.anaconda.com/archive/index.html
wget https://repo.anaconda.com/archive/Anaconda3-2023.07-2-Linux-x86_64.sh
sh Anaconda3-2023.07-2-Linux-x86_64.sh

2.安装git

yum install git
yum install git-lfs # 安装依赖
git lfs install 

3.安装g++

yum install gcc-c++
## 升级版本,否则会报错
sudo yum install centos-release-scl
sudo yum install devtoolset-9-gcc*
scl enable devtoolset-9 bash

## 查看版本
gcc -v

4.llama2 安装


# 1.下载项目
git clone https://github.com/ggerganov/llama.cpp
pip3 install -r requirements.txt
make

# GPU编译方式。

## 2.获取 下载链接、下载模型 
#  注意代理节点跟所选地址的关系。
# https://llama.meta.com/llama-downloads/
git clone https://github.com/facebookresearch/llama.git

## 下载(输入邮箱链接)
./download.sh 
## 得到模型文件 llama-2-7b

# 3.文件转化
## 将llama中的文件tokenizer.model 复制到模型的位置 llama-2-7b,否则会报错
## Found vocab files: {'tokenizer.model': None, 'vocab.json': None, 'tokenizer.json': None}      FileNotFoundError: spm vocab not found.

## 模型转化
cd llama.cpp
mkdir -p models/7B/
mkdir -p models/13B/
python3 convert.py --outfile models/7B/ggml-model-f16.bin ../llama-2-7b/
python3 convert.py --outfile models/13B/ggml-model-f16.bin ../llama-2-13b/

python3 convert.py --outfile /data/opt/llama2_model/llama-2-7b-bin/ggml-model-f16.bin /data/opt/llama2_model/llama-2-7b


## 模型量化(q4_0为原始的量化)
./quantize ./models/7B/ggml-model-f16.bin ./models/7B/ggml-model-q4_0.gguf q4_0
## 启动服务
./server -m ./models/7B/ggml-model-q4_0.gguf  -c 2048 -ngl 1 --host localhost --port 8080 
## 终端对话
./main -m ./models/7B/ggml-model-q4_0.gguf -n 256 --repeat_penalty 1.0 --color -i -r "User:" -f prompts/chat-with-bob.txt 
## 服务调用
curl --request POST \
    --url http://localhost:8080/completion \
    --header "Content-Type: application/json" \
    --data '{"prompt": "Building a website can be done in 10 simple steps:","n_predict": 128}'

以上,End!

相关推荐

  1. 基于llama.cpp学习开源LLM本地部署

    2024-03-10 06:46:02       40 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-03-10 06:46:02       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-03-10 06:46:02       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-03-10 06:46:02       19 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-03-10 06:46:02       20 阅读

热门阅读

  1. 【Spring Boot `@Autowired` Annotation】

    2024-03-10 06:46:02       17 阅读
  2. 为什么接口测试工具不跨域

    2024-03-10 06:46:02       22 阅读
  3. 修改uboot连接的主机的ip地址

    2024-03-10 06:46:02       23 阅读
  4. 前端框架的发展史

    2024-03-10 06:46:02       21 阅读
  5. 【快捷键】Mac如何打出数学符号和希腊字母

    2024-03-10 06:46:02       31 阅读
  6. 前端框架的发展史

    2024-03-10 06:46:02       25 阅读
  7. 网络延迟导致终端卡顿

    2024-03-10 06:46:02       27 阅读
  8. LVS集群

    LVS集群

    2024-03-10 06:46:02      25 阅读
  9. LVS集群

    LVS集群

    2024-03-10 06:46:02      18 阅读