-
``部署方式 pip install rapidocr_onnxruntime + 简单测试入口文件读取本地图片 https://github.com/RapidAI/RapidOCR/blob/f6865413acea7798c882637c0b45c24a0ba4217f/python/rapidocr_onnxruntime/utils.py 看了没有发现读取config 来配置onnx的线程数,默认让onnx自动处理,这...在腾讯云函数跑不起来,不知道是不是和这块有关... 关键问题在于 paddle ocr + PaddlePaddle 官方很重的部署在云函数能运行,而且一次运行推理只需要400mb+左右内存,RapidOCR 尝试在云函数部署,直接破1G内存被云函数平台强制熔断.. 求解... 大佬可有尝试过在云函数平台部署过? 然后买了台阿里的轻量云服务器,docker化部署也是直接卡死服务器...只能通过控制台强制重启 --
|
Beta Was this translation helpful? Give feedback.
Replies: 1 comment 5 replies
-
哈喽,可以帮忙测试一下,在以下位置添加以下两个参数,是否可以在云函数平台正常使用呢? 添加示例: class OrtInferSession:
def __init__(self, config):
sess_opt = SessionOptions()
sess_opt.log_severity_level = 4
sess_opt.enable_cpu_mem_arena = False
sess_opt.graph_optimization_level = GraphOptimizationLevel.ORT_ENABLE_ALL
# From https://onnxruntime.ai/docs/api/python/api_summary.html#onnxruntime.SessionOptions.inter_op_num_threads
sess_opt.intra_op_num_threads = 2
sess_opt.inter_op_num_threads = 2 如果可以的话,我这里再考虑添加这个配置到全局config中,感谢 |
Beta Was this translation helpful? Give feedback.
已经在
rapidocr_onnxruntime>=1.3.14
中实现了,具体可参见docs