| 项目 | 内容 |
|---|---|
| Base URL | https://llm.ai-nebula.com/v1/chat/completions |
| 认证方式 | API Key (Token) |
| 请求头 | Authorization: Bearer sk-xxxx、Content-Type: application/json |
parameters):https://bailian.console.aliyun.com/?tab=api#/api/?type=model&url=2712576qwen3-omni-flashenable_thinking: true 且 stream: trueenable_thinking: true 但 stream: false,为避免上游报错,系统会自动关闭深度思考"nebula_thinking_to_content": true(仅影响下行展示,不透传上游、不影响计费)<think>...</think> 包裹,并与普通内容共同出现在 content 中,适合仅展示 content 的终端或 SDKparameters 对象:enable_thinking、incremental_output、search_options、enable_searchasr_optionstemperature、top_p、top_k、seed、stop、max_tokenspresence_penalty、frequency_penalty 等(以官方文档为准)response_format(text/json_object/json_schema)、json_schemausage;上游通常不提供 reasoning_tokens 明细,故即使开启深度思考该值也可能为 0enable_thinking: true 同用时,为避免上游报错会自动关闭深度思考{
"id": "chatcmpl-...",
"object": "chat.completion.chunk",
"created": 1762153960,
"model": "qwen3-omni-flash",
"choices": [ ... ],
"usage": {
"prompt_tokens": 53,
"completion_tokens": 2123,
"total_tokens": 2176,
"completion_tokens_details": {
"reasoning_tokens": 0
}
}
}stream: true;若客户端不展示 reasoning_content,可加 nebula_thinking_to_content: true 让推理内联到 content。reasoning_tokens 为 0?stream: true 或移除 enable_thinking。top_p/top_k/temperature,并结合 incremental_output 提升交互体验parameters;错误地放在顶层会被自动规整,但建议按规范传参usage 的分片