Skip to content

请问可以将LLM的运行和使用分离吗? #536

@yanhuixie

Description

@yanhuixie
  • [ x] I checked to make sure that this is not a duplicate issue

简而言之,能否考虑支持外部的LLM服务?
比如可以使用ollama运行shibing624/chinese-text-correction-7b,这个经验证是没问题的。
然后在pycorrector调用ollama的HTTP接口使用模型的服务。

Metadata

Metadata

Assignees

No one assigned

    Labels

    enhancementNew feature or request

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions