Skip to content

[Question]: GPU is not used when using ollama? #5775

Open
@stevenhe1988

Description

@stevenhe1988

Describe your problem

平台:Windows 11 + RAGFlow 0.17.0 Full
问题:使用命令行+Ollama 推理时,模型被加载到GPU使用,但通过RAGFlow 调用 Ollama模型解析文档时,模型被加载到CPU+内存。OCR解析文档的模型使用的是 minicpm-v:latest 模型文件大小 5.5GB

模型被加载到CPU+内存而不是GPU 会导致稍大的文件(比如30多MB的PDF文件)解析时因内存不足而entrypoint.sh 被kill,而且目前WINDOWS 11上的WSL2最多只能设置为系统内存的50%,无法调大docker可用内存

Image


[Update]
使用ollama模型提取知识图谱时可以将模型加载到GPU使用,此时使用的模型是deepseek-r1:7b-qwen-distill-q4_K_M 模型文件大小4.7GB

Image

Metadata

Metadata

Assignees

No one assigned

    Labels

    Type

    No type

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions