Open
Description
📦 部署环境
Docker
📦 部署模式
服务端模式(lobe-chat-database 镜像)
📌 软件版本
v1.79.7
💻 系统环境
macOS
🌐 浏览器
Chrome
🐛 问题描述
问题
若 uni-api 中的 Google 系列模型思考时间过长,会导致如图错误,比如我使用 uni-api 中的 gemini-2.5-pro-exp-03-25 模型,发送了 Prompt(具体见复现步骤),

查看 uni-api 日志发现 uni-api 运行正常, 且发现 lobechat 提交的请求是非流式的,故我用 curl 非流式请求 uni-api 同一个问题,结果正常输出,是 lobechat 的问题。
相关的问题
希望能实现第三方 Custom AI Provider 中每个模型的具体配置与官方模型的配置同步:对于第三方 Custom AI Provider 中的很多模型(比如 Google 系列),功能(Support)不能与官方同步,而联网功能自己是无法开启的(没有这个选项框),如下图所示

📷 复现步骤
我发送的 Prompt with gemini-2.5-pro-exp-03-25
$\Delta u + b_i u_i = f$, $b_i, f \in C^1\left(\overline{\Omega}\right)$. Prove: $\exists C_0 \sim n,b,f$, s.t. $\sup_{\Omega'} |Du| \le \frac{C_0}{d} \left(1 + \sup_{\overline{\Omega}} u^2 \right)$. (hint: $P := \xi^2 |Du|^2 + \alpha u^2 + e^{\beta x_1}$).
🚦 期望结果
对于问题
- 功能实现:首先加一个全局开关流式和非流式的按钮,意思就是除非模型本身有限制,默认就按用户的选择发送请求;其次对于每个对话,在下图的位置加一个开关流式输出的按钮,从而实现局部临时的灵活配置。

- 修复 bug:非流式输出,若 thinking 模型思考时间过长,API 能正常给出回复,但 lobechat 收不到,然后报错
对于相关的问题
希望能实现第三方 Custom AI Provider 中每个模型的具体配置与官方模型的配置同步
📝 补充信息
No response
Metadata
Metadata
Assignees
Type
Projects
Status
Roadmap - Chat 1.x