Open
Description
Describe your problem
平台:Windows 11 + RAGFlow 0.17.0 Full
问题:使用命令行+Ollama 推理时,模型被加载到GPU使用,但通过RAGFlow 调用 Ollama模型解析文档时,模型被加载到CPU+内存。OCR解析文档的模型使用的是 minicpm-v:latest 模型文件大小 5.5GB
模型被加载到CPU+内存而不是GPU 会导致稍大的文件(比如30多MB的PDF文件)解析时因内存不足而entrypoint.sh 被kill,而且目前WINDOWS 11上的WSL2最多只能设置为系统内存的50%,无法调大docker可用内存
[Update]
使用ollama模型提取知识图谱时可以将模型加载到GPU使用,此时使用的模型是deepseek-r1:7b-qwen-distill-q4_K_M 模型文件大小4.7GB