Skip to content

Latest commit

 

History

History
83 lines (74 loc) · 6.57 KB

FAQ_zh.md

File metadata and controls

83 lines (74 loc) · 6.57 KB

在windows上执行bash run.sh时报错:/bin/bash^M: bad interpreter: No such file or directory,或'\r': command not found

  • 原因:在windows下创建编辑的shell脚本是dos格式的,而linux却是只能执行格式为unix格式的脚本,所以在windows上编辑过的文件在linux上(windows下执行wsl后的环境通常也是linux)执行时会报错。
  • 解决方案:将回车符替换为空字符串
# 通过命令查看脚本文件是dos格式还是unix格式,dos格式的文件行尾为^M$ ,unix格式的文件行尾为$:
# 可通过 cat -A scripts/run_xx.sh  # 验证文件格式
sed -i "s/\r//" scripts/run_for_local_option.sh
sed -i "s/^M//" scripts/run_for_local_option.sh
sed -i "s/\r//" scripts/run_for_cloud_option.sh
sed -i "s/^M//" scripts/run_for_cloud_option.sh
sed -i "s/\r//" scripts/run.sh
sed -i "s/^M//" scripts/run.sh

在windows 上执行bash run.sh时提示端口占用:Error response from daemon: Ports are not available: exposing port TCP 0.0.0.0:5052 -> 0.0.0.0:0: listen tcp 0.0.0.0:5052: bind: An attempt was made to access a socket in a way forbidden by its access permissions.

  • 原因:windows 上5052端口被Hyper-V随机占用
  • 验证:在powershell中输入 netsh int ipv4 show excludedportrange protocol=tcp 列出的端口中包含5052所在的端口范围
  • 解决方案:重新设置tcp动态端口范围,执行下面的命令,然后重启windows
 netsh int ipv4 set dynamic tcp start=11000 num=10000

选择Qwen-7B-QAnything大模型启动,在前端页面输入问题后,返回结果报错:Triton Inference Error (error_code: 4)

  • 原因1:显存不够了,目前在问答过程中大模型和paddleocr占用的显存会逐渐上升且不释放,可能造成显存溢出。
  • 解决方案:重启服务,或换成更小的大模型,比如3B或1.8B或OpenAI API
  • 原因2:如果发现显存够用,则是因为当前显卡型号不支持默认的triton后端,需要切换到vllm后端,或者hf后端
  • 解决方案如下:
# 算力查询:请对照/path/to/QAnything/scripts/gpu_capabilities.json
# 高算力卡(>=8.0)推荐vllm后端:
cd /path/to/QAnything/assets/custom_models
git lfs install
git clone https://huggingface.co/netease-youdao/Qwen-7B-QAnything
cd - 
bash run.sh -c local -i 0 -b vllm -m Qwen-7B-QAnything -t qwen-7b-qanything -p 1 -r 0.85
# 低算力高显存卡推荐hf后端:
cd assets/custom_models
git lfs install
git clone https://huggingface.co/netease-youdao/Qwen-7B-QAnything
cd - 
bash run.sh -c local -i 0 -b hf -m Qwen-7B-QAnything -t qwen-7b-qanything

WIN10无法使用默认配置bash run.sh启动服务

  • 原因:WIN10系统下无法使用默认的Qwen-7B-QAnything模型(qwen的微调模型),可以尝试替换成qwen-7b-chat(官方qwen模型),具体步骤请查看:docs /QAnything_Startup_Usage_README.md

启动前端时提示跨域问题

  • 解决方案:目前部分浏览器启动时会存在这个问题,可以在登陆时将云服务器端口映射到本地机器端口,然后使用local模式启动服务即可,映射命令如下:
    ssh -L 8777:localhost:8777 -L 5052:localhost:5052 root@{ip}  # ip示例 47.98.120.77
    # 输入密码后登录
    # 重新启动服务,当询问是否采用上次ip时选择否:Do you want to use the previous ip: $ip? (yes/no) 是否使用上次的ip: $host?(yes/no) 回车默认选yes,请输入: | 选择no
    # 并选择在本地机器上启动:”Are you running the code on a remote server or on your local machine? (remotelocal) 您是在云服务器上还是本地机器上启动代码?(remote/local) | 选择local“
    # 然后在本地机器上访问localhost:5052/qanything/即可访问
    

服务启动报错,在api.log中显示:mysql.connector.errors.DatabaseError: 2003 (HY000): Can't connect to MySQL server on 'mysql-container-local:3306' (111)

  • 原因:将之前的QAnything代码拉取下来后,复制了一份代码到其他的地址,其中有一个volumes是mivlus和mysql默认的本地数据卷,复制后可能导致了mysql的数据卷冲突,导致mysql无法启动。
  • 解决方案:删除冲突的数据卷volumes,重新启动服务,在容器外可能会提示没有权限删除,请进入容器内再删除volumes

服务启动报错:ERROR: for qanything-container-local Cannot start service qanything_local: could not select device driver "nvidia" with capabilities: [[gpu]]

执行bash run.sh时报错:The command 'docker-compose' could not be found in this WSL 2 distro.

  • 报错信息:
The command 'docker-compose' could not be found in this WSL 2 distro.
We recommend to activate the WSL integration in Docker Desktop settings.
  • 原因:Docker Desktop 未正确配置,需要手动打开 WSL 集成开关
  • 解决方案:如果你希望在 WSL 中使用 Windows 的 Docker Desktop,请确保 Docker Desktop 配置为允许 WSL 2 集成。这可以通过 Docker Desktop 的设置中的“Resources” -> “WSL Integration”部分进行配置。

执行run.sh时拉取镜像失败: ⠼ error getting credentials - err: exit status 1, out: error getting credentials - err: exit status 1, out: A specified logon session does not exist. It may already have been terminated.``

  • 解决方案:尝试手动拉取镜像,如执行:docker pull milvusdb/milvus:v2.3.4,然后再重新执行bash run.sh

执行run.sh时报错:Illegal instruction (core dumped),或OCR服务无法启动

# If you want to install the Paddle package with avx and openblas, you can use the following command to download the wheel package to the local, and then use python3 -m pip install [name].whl to install locally ([name] is the name of the wheel package):
python3 -m pip download paddlepaddle==2.6.0 -f https://www.paddlepaddle.org.cn/whl/linux/openblas/avx/stable.html --no-index --no-deps