LLM API Test
大模型 API 在线调试工具 — 实时预览 JSON,一键发送请求
🤖
OpenAI
Responses
🧠
DeepSeek
Chat
连接配置
Base URL
API 服务的基础地址,切换平台页签会自动填充对应平台的端点
API Key
用于鉴权的密钥,从平台控制台获取,仅通过 Worker 代理转发不会在前端泄露
基本参数
Model
指定要调用的模型名称,如 gpt-5.4、gpt-5.1、o3-mini 等,切换平台页签会自动填充默认模型
Input Builder
构造 Responses API 的 input。可选择纯文本,或添加多条 message,每条 message 可添加 text/image/file content
消息数组 input
纯文本 input
添加消息
高级:手写 Input 覆盖
[ {"role": "user", "content": "你好,请介绍一下你自己。"} ]
Instructions
系统级指令(类似 system prompt),插入到模型上下文的最前面,优先级高于用户消息中的指令
你是一个有帮助的助手。
Messages
对话消息列表,每条消息包含 role(system/user/assistant)和 content 字段
[ {"role": "system", "content": "你是一个有帮助的助手。"}, {"role": "user", "content": "你好,请介绍一下你自己。"} ]
采样参数
Temperature
控制随机性,范围 0~2,值越高输出越有创造性。OpenAI Responses API 默认为 1
Top P
核采样参数,范围 0~1。模型只考虑概率质量累计达到 top_p 的 token。建议与 temperature 二选一调整
Max Output Tokens
生成内容的最大 token 数上限,包含可见输出和 reasoning tokens
Stop
停止词,遇到这些词会停止生成。多个词用英文逗号分隔
Top Logprobs
返回每个位置最有可能的 token 及其 log 概率,范围 0~20,0 表示不返回
推理参数(Reasoning)— 仅对 o-series / gpt-5 等推理模型生效
Effort
约束推理力度。可选值:none / minimal / low / medium / high / xhigh。gpt-5.1 默认为 none,其他推理模型默认为 medium
不设置(使用模型默认值)
none — 不使用推理(仅 gpt-5.1 支持)
minimal — 最小推理量
low — 较低推理量
medium — 中等推理量(默认)
high — 较高推理量
xhigh — 最高推理量
Summary
推理过程摘要的详细程度。auto — 自动决定 / concise — 简洁摘要 / detailed — 详细摘要
不设置(使用模型默认值)
auto — 自动决定
concise — 简洁摘要
detailed — 详细摘要
输出控制(Output Control)
Text Format
输出格式。text — 纯文本 / json_object — 旧版 JSON 模式(不推荐) / json_schema — 结构化输出(推荐)
不设置(默认 text)
text — 纯文本
json_object — JSON 对象模式
json_schema — 结构化 JSON 输出
Verbosity
控制文本输出详略程度。low 更简洁,high 更详细
不设置
low — 简洁
medium — 默认
high — 详细
JSON Schema Name
Text Format 为 json_schema 时使用,名称最多 64 字符
JSON Schema Strict
启用 strict 结构化输出,要求模型严格遵循 schema
strict=true
JSON Schema Builder
点击添加字段来构造 object schema;右侧请求体会实时预览
添加字段
JSON Schema Description
可选,说明结构化输出格式的用途
高级:手写 JSON Schema 覆盖
Truncation
上下文截断策略。disabled — 超出上下文窗口则报 400 错误 / auto — 自动丢弃较早的对话内容以适应窗口
不设置(默认 disabled)
disabled — 超出窗口则报错
auto — 自动截断
Service Tier
处理优先级。auto — 使用项目设置 / default — 标准 / flex — 弹性处理 / priority — 优先处理
不设置(默认 auto)
auto — 使用项目设置
default — 标准
flex — 弹性处理
scale — Scale 额度
priority — 优先处理
Stream
是否启用流式输出(Server-Sent Events)。开启后响应将以 SSE 事件流的形式逐步返回
开启 SSE 流式响应
Stream Obfuscation
仅 stream=true 时生效。false 可减少 SSE 带宽开销
不设置
true — 启用混淆字段
false — 不返回混淆字段
上下文与复用(Conversation / Prompt / Context)
Conversation ID
将响应加入指定 conversation。不能和 previous_response_id 同时使用
Prompt ID
复用平台中的 prompt 模板
Prompt Version
可选 prompt 模板版本
Background
后台运行响应,适合长任务
background=true
Prompt Variables Builder
为 prompt 模板添加变量,支持字符串和常见 input_* 对象
添加变量
高级:手写 Prompt Variables 覆盖
Context Management Builder
当前主要用于 compaction:达到阈值时压缩上下文
添加 { type: "compaction" }
高级:手写 Context Management 覆盖
工具调用(Tools / Tool Choice / Include)
Tool Choice
控制模型是否以及如何使用工具
不设置(默认 auto)
none — 不调用工具
auto — 自动决定
required — 必须调用工具
强制 file_search
强制 web_search_preview
强制 code_interpreter
强制 image_generation
自定义 JSON
Include
勾选需要额外返回的数据
file_search_call.results
web_search_call.action.sources
message.input_image.image_url
message.output_text.logprobs
code_interpreter_call.outputs
reasoning.encrypted_content
Tools Array Builder
添加多个工具项,每个工具项会生成 tools 数组中的一个对象
添加 Tool
快捷工具勾选
启用 web_search_preview
medium context
low context
high context
启用 file_search
启用 code_interpreter
启用 image_generation
size auto
1024x1024
1024x1536
1536x1024
quality auto
low
medium
high
启用 function tool
高级:手写 Tools / Tool Choice / Include 覆盖
Tool Choice JSON
Tool Choice 选择自定义 JSON 时使用
Tools JSON
非空时覆盖上方工具构造器
Include JSON
非空时覆盖上方勾选项
高级选项(Advanced)
Previous Response ID
上一轮响应的 ID,用于多轮对话。填入后可以在之前对话的基础上继续交流
Prompt Cache Key
用于优化缓存命中率,相同 key 的相似请求将享受更快的响应速度
Safety Identifier
用于检测滥用行为的用户标识,建议使用用户名的哈希值,最大 64 字符
Max Tool Calls
工具调用的最大总次数(跨所有内置工具),超过此次数的工具调用将被忽略
Prompt Cache Retention
缓存保留策略。in_memory — 内存级缓存 / 24h — 保留最长 24 小时
不设置
in_memory — 内存级缓存
24h — 保留 24 小时
User
旧字段,正在被 safety_identifier 和 prompt_cache_key 替代,仅用于兼容学习
Metadata Builder
最多 16 个键值对,key 最大 64 字符,value 最大 512 字符
添加 Metadata
高级:手写 Metadata 覆盖
Raw Extra JSON
高级兜底:合并到最终请求体,可覆盖上方同名字段,用于文档新增参数或实验字段
Store
是否存储响应到 OpenAI 服务器以便后续检索
Parallel Tool Calls
允许模型并行执行多个工具调用
请求体预览
JSON
发送请求
响应结果
复制