| 项目 | 内容 |
|---|---|
| Base URL | https://llm.ai-nebula.com/v1/chat/completions |
| 认证方式 | API Key (Token) |
| 请求头 | Authorization: Bearer sk-xxxx、Content-Type: application/json |
tool_calls(content 通常为 null,finish_reason=tool_calls)。你需要根据 tool_calls[*].function.name/arguments 在你的服务端执行对应函数。role:"tool" 消息回传给模型,并继续补全(可流式)。tool_call_id 必须与第一阶段返回一致。choices、usageusage 聚合;若开启 stream_options.include_usage=true,分片可能包含实时用量grok-4-fast-reasoning),响应中的 usage 会区分 completion_tokens 和 reasoning_tokenstext_tokens = completion_tokens - reasoning_tokensresponse_format: json_schema 并提供严格的 JSON Schema;必要时配合降低 temperature、设置 max_tokenstool_calls,服务端执行函数并把结果再作为 tool 消息回传给模型seed 参数,建议仅在需要可复现的链路开启grok-3 和 grok-4 是标准版本,适用于大多数场景grok-3-fast 是快速版本,适用于需要快速响应的场景grok-4-fast-reasoning 是推理版本,适用于需要深度思考和复杂推理的场景temperaturegrok-3-fast,复杂推理使用 grok-4-fast-reasoninggrok-4、grok-3)支持推理能力,但不会输出可视化的思维链文本grok-4-fast-reasoning 是快速推理版本,专门用于需要深度推理的场景usage 字段会包含 reasoning_tokens 统计(在 completion_token_details 中),用于了解模型的推理消耗text_tokens = completion_tokens - reasoning_tokens,方便区分实际输出文本和推理过程消耗的 token