Closed
Description
# fork官方仓库 https://github.com/ggerganov/llama.cpp.git 并下载项目至本地
git clone git@github.com:{your_own}/llama.cpp.git
# 进入项目,从master分支创建个人开发分支
cd llama.cpp
git checkout -b local_npu_support
# 编译
mkdir build
cd build
cmake .. -DCMAKE_BUILD_TYPE=debug -DLLAMA_CANN=on && make -j32
# 单算子精度测试
./bin/test-backend-ops test -b CANN0 -o {OP_NAME}
# e.g.
./bin/test-backend-ops test -b CANN0 -o CONT
# 单算子性能测试,性能测试不会测试精度
./bin/test-backend-ops perf -b CANN0 -o {OP_NAME}
# 模型推理
./bin/llama-cli -m /home/wangshuai/models/hermes_gguf/Hermes-2-Pro-Llama-3-8B-F16.gguf -p "Building a website can be done in 10 simple steps:" -ngl 32 -sm none -mg 0 -t 0
官方仓库贡献代码
欢迎广大开发者在模型支持及设备支持上贡献代码,当前支持的模型及设备列表请参考:ggml-org#8867
PR题目请添加 [CANN]
前缀,commit 信息使用 cann: commit message
的格式,reviewer: @hipudding,@wangshuai09
具体请参考:ggml-org#8822