Skip to content

有关流式输出 #7379

Open
Open
@deeeiznc

Description

@deeeiznc

📦 部署环境

Docker

📦 部署模式

服务端模式(lobe-chat-database 镜像)

📌 软件版本

v1.79.7

💻 系统环境

macOS

🌐 浏览器

Chrome

🐛 问题描述

问题

若 uni-api 中的 Google 系列模型思考时间过长,会导致如图错误,比如我使用 uni-api 中的 gemini-2.5-pro-exp-03-25 模型,发送了 Prompt(具体见复现步骤),

Image

查看 uni-api 日志发现 uni-api 运行正常, 且发现 lobechat 提交的请求是非流式的,故我用 curl 非流式请求 uni-api 同一个问题,结果正常输出,是 lobechat 的问题。

相关的问题

希望能实现第三方 Custom AI Provider 中每个模型的具体配置与官方模型的配置同步:对于第三方 Custom AI Provider 中的很多模型(比如 Google 系列),功能(Support)不能与官方同步,而联网功能自己是无法开启的(没有这个选项框),如下图所示

Image

📷 复现步骤

我发送的 Prompt with gemini-2.5-pro-exp-03-25

$\Delta u + b_i u_i = f$, $b_i, f \in C^1\left(\overline{\Omega}\right)$. Prove: $\exists C_0 \sim n,b,f$, s.t. $\sup_{\Omega'} |Du| \le \frac{C_0}{d} \left(1 + \sup_{\overline{\Omega}} u^2 \right)$. (hint: $P := \xi^2 |Du|^2 + \alpha u^2 + e^{\beta x_1}$).

🚦 期望结果

对于问题

  1. 功能实现:首先加一个全局开关流式和非流式的按钮,意思就是除非模型本身有限制,默认就按用户的选择发送请求;其次对于每个对话,在下图的位置加一个开关流式输出的按钮,从而实现局部临时的灵活配置。
Image
  1. 修复 bug:非流式输出,若 thinking 模型思考时间过长,API 能正常给出回复,但 lobechat 收不到,然后报错

对于相关的问题

希望能实现第三方 Custom AI Provider 中每个模型的具体配置与官方模型的配置同步

📝 补充信息

No response

Metadata

Metadata

Assignees

No one assigned

    Labels

    unconfirm未被维护者确认的问题🐛 BugSomething isn't working | 缺陷

    Type

    Projects

    Status

    Roadmap - Chat 1.x

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions