本指南详细介绍如何使用 AI Studio Proxy API 的各种功能和端点。
代理服务器默认监听 http://127.0.0.1:2048。
配置方式:
- 环境变量:
.env文件中设置PORT=2048 - 命令行参数:
--server-port 2048 - GUI 启动器: 图形界面直接配置
项目使用 auth_profiles/key.txt 管理 API 密钥:
your-api-key-1
your-api-key-2
# 注释行会被忽略
验证逻辑:
- 文件为空或不存在时,不需要认证
- 配置了密钥时,所有
/v1/*请求需要有效密钥(除/v1/models)
# Bearer Token (推荐)
Authorization: Bearer your-api-key
# X-API-Key (备用)
X-API-Key: your-api-key端点: POST /v1/chat/completions
与 OpenAI API 完全兼容,支持流式和非流式响应。
| 参数 | 类型 | 说明 |
|---|---|---|
messages |
Array | 聊天消息数组 (必需) |
model |
String | 模型 ID |
stream |
Boolean | 是否流式输出 |
temperature |
Number | 温度参数 (0.0-2.0) |
max_output_tokens |
Number | 最大输出 token 数 |
top_p |
Number | Top-P 采样 (0.0-1.0) |
stop |
Array/String | 停止序列 |
reasoning_effort |
String/Number | 思考模式控制 |
tools |
Array | 工具定义 (支持 google_search) |
| 值 | 效果 |
|---|---|
0 或 "0" |
关闭思考模式 |
数值 (如 8000) |
开启思考,限制预算 |
"none" 或 -1 |
开启思考,不限制预算 |
"low" / "high" |
思考等级 (部分模型) |
# 非流式
curl -X POST http://127.0.0.1:2048/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "gemini-2.5-pro-preview",
"messages": [{"role": "user", "content": "Hello"}],
"temperature": 0.7
}'
# 流式
curl -X POST http://127.0.0.1:2048/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "gemini-2.5-pro-preview",
"messages": [{"role": "user", "content": "讲个故事"}],
"stream": true
}' --no-buffer端点: GET /v1/models
返回 AI Studio 可用模型列表。
特点:
- 动态获取 AI Studio 页面模型
- 支持
excluded_models.txt排除特定模型 - 脚本注入模型标记
"injected": true
端点: GET /health
返回服务状态:
- Playwright 状态
- 浏览器连接状态
- 页面状态
- 队列长度
| 端点 | 方法 | 说明 |
|---|---|---|
/api/info |
GET | API 配置信息 |
/v1/queue |
GET | 队列状态 |
/v1/cancel/{req_id} |
POST | 取消请求 |
/ws/logs |
WebSocket | 实时日志流 |
/api/keys |
GET/POST/DELETE | 密钥管理 |
from openai import OpenAI
client = OpenAI(
base_url="http://127.0.0.1:2048/v1",
api_key="your-api-key" # 或任意值
)
response = client.chat.completions.create(
model="gemini-2.5-pro-preview",
messages=[{"role": "user", "content": "Hello"}]
)
print(response.choices[0].message.content)import OpenAI from "openai";
const client = new OpenAI({
baseURL: "http://127.0.0.1:2048/v1",
apiKey: "your-api-key"
});
const response = await client.chat.completions.create({
model: "gemini-2.5-pro-preview",
messages: [{ role: "user", content: "Hello" }]
});
console.log(response.choices[0].message.content);- 进入 "设置" → "连接"
- 添加模型
- API 基础 URL:
http://127.0.0.1:2048/v1 - API 密钥: 留空或任意值
- 保存设置
- 集成流式代理 (默认,端口 3120): 最佳性能
- 外部 Helper 服务 (可选): 备用方案
- Playwright 页面交互 (后备): 完整参数支持
详见 流式处理模式详解
- 串行处理: 单浏览器实例,请求排队处理
- 客户端管理历史: 客户端负责维护聊天记录
- 模型切换延迟: 首次切换需要 2-5 秒
- OpenAI 兼容性说明 - 与 OpenAI API 的差异
- 环境变量完整参考 - 配置参数
- 客户端集成示例 - 更多代码示例
- 故障排除指南 - 问题解决