1. Nebula Api模块
NebulaLab-API接口
  • Nebula Api模块
    • 通用文本对话接口文档
    • 通用图片生成接口文档
    • 通用视频生成接口文档
    • Cherry Studio集成指南
    • LangChain开发框架集成指南
    • Cursor代码编辑器集成指南
    • Claude Code等客户端集成指南
    • Cline (VS Code) AI 编程助手集成指南
    • 沉浸式翻译集成指南
    • sora-2接口文档
    • 通义千问通用对话接口文档
    • DeepSeek通用对话文档
    • GPT-Chat通用对话文档
    • 阿里万相wan2.5图生视频接口文档
    • Nano Banana图片生成接口文档
    • 通义千问文生图模型接口文档
    • 通义千问图像编辑模型接口文档
    • 谷歌Veo视频模型接口文档
    • Grok 模型(xAI)通用对话接口文档
  1. Nebula Api模块

Cherry Studio集成指南

Cherry Studio 使用指南#

一、产品简介#

Cherry Studio 是一款功能强大的 AI 对话客户端,支持多种大语言模型。通过 Nebula Lab,您可以在 Cherry Studio 中便捷使用各种主流 AI 模型。

二、快速集成步骤#

1. 获取 API 密钥#

访问 Nebula Lab 获取您的 API 密钥。

2. 配置步骤#

操作流程:#

1.
打开 Cherry Studio 应用
2.
点击左侧的设置图标进入设置页面
3.
选择“模型服务”选项
4.
填写配置信息:
API 地址:https://llm.ai-nebula.com(务必使用此地址)
API 密钥:输入从 Nebula Lab 控制台获取的密钥
5.
点击底部的“➕ 添加”按钮保存配置

配置要点:#

API 地址不可修改,必须为 https://llm.ai-nebula.com
API 密钥可 Nebula Lab 控制台的“API 密钥”页面获取
建议配置后测试连接,确保正常可用

3. 添加模型#

完成基础配置后,按以下步骤添加所需模型:
1.
在模型搜索框中查找目标模型(如 gemini-2.5-pro-preview-06-05)
2.
点击模型名称旁的图标选择或配置模型
3.
根据需求启用/禁用不同模型变体:
标准版本(如 chatgpt-4o-latest)
思维链版本(如 claude-3.7-sonnet-20250219-thinking)
4.
可通过右侧按钮进行详细配置

三、支持的模型#

最新推荐模型#

模型系列模型 ID特点
Gemini 2.5gemini-2.5-proGoogle 最新模型,多模态能力强
ChatGPT 5 Chatgpt-5-chat-latestOpenAI 最新版本,平衡性能优秀
Claude 4 Sonnetclaude-sonnet-4-20250518Anthropic 最新模型,长文本处理
Claude 思维链claude-3.7-sonnet-20250219-thinking展示思考过程的推理模式

经典稳定模型#

模型系列模型 ID适用场景
Claude Sonnetclaude-sonnet-4-20250514日常对话,内容创作
Claude Thinkingclaude-sonnet-4-20250514-thinking复杂推理,思维分析

模型选择建议#

多模态任务:推荐 Gemini 2.5 Pro
日常对话:推荐 ChatGPT 4o Latest
长文本处理:推荐 Claude 3.7 Sonnet
复杂推理:推荐带 thinking 后缀的模型

四、高级功能#

图片支持#

若使用支持图片的模型(如 GPT-4V):
1.
在设置中开启“图片”选项
2.
选择支持视觉的模型
3.
在对话中直接上传图片

流式输出#

Cherry Studio 默认支持流式输出,提供更流畅的对话体验。

五、故障排除#

连接失败#

检查 API 密钥是否正确
确认 API 地址为 https://llm.ai-nebula.com
验证网络连接状态

模型不可用#

确认账户余额充足
检查模型是否在订阅计划内
尝试切换其他模型

六、使用技巧#

1.
合理选择模型:根据任务需求匹配最合适的模型(参考“模型选择建议”)
2.
定期更新:关注新模型发布,及时体验最新功能
3.
监控使用:通过 Nebula Lab 控制台查看使用情况,优化资源分配
上一页
通用视频生成接口文档
下一页
LangChain开发框架集成指南
Built with