请求格式与示例
这页只讲一件事:拿到 Fuel Key 后,不同协议该怎么发请求
如果你已经拿到了 Fuel 的 Key,这页可以直接告诉你:
- 请求地址该填什么
- 请求头该怎么带
responses怎么写chat/completions怎么写Anthropic /v1/messages怎么写- 图片请求怎么写
先记住这 3 个固定项
不管你用哪种协议,先把这 3 件事记住:
- 先确认你的 Key 绑定的是哪个分组
- 先用
GET /v1/models看这把 Key 当前能看到哪些模型 - 请求里始终使用 Fuel 返回的模型名,不要自己猜
OpenAI 兼容主线:
- Base URL:
https://fuel.magiccoreai.com/v1 - 请求头:
Authorization: Bearer <YOUR_FUEL_KEY>
Anthropic messages 主线:
- Base URL:
https://fuel.magiccoreai.com - 请求头:
x-api-key: <YOUR_FUEL_KEY>
最常见的 4 种请求格式
1. POST /v1/responses
适合:
- 大多数文本调用
- OpenAI SDK 新接口
- 你想用最简单的文本输入方式
最小示例:
curl https://fuel.magiccoreai.com/v1/responses \
-H "Authorization: Bearer $FUEL_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt5.5",
"input": "用一句话介绍 MagicCore Fuel"
}'你只需要记住:
- 这个接口用的是
input - 不是
messages
2. POST /v1/chat/completions
适合:
- 旧式 OpenAI Chat Completions 客户端
- 你的工具本身就是按
messages组织聊天内容 - 某些模型在这条接口上更稳
最小示例:
curl https://fuel.magiccoreai.com/v1/chat/completions \
-H "Authorization: Bearer $FUEL_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "grok-4.20-0309-non-reasoning",
"messages": [
{
"role": "user",
"content": "Reply with exactly: OK"
}
]
}'你只需要记住:
- 这个接口用的是
messages messages必须是数组- 每条消息至少有
role和content
3. POST /v1/messages
适合:
- Claude Code
- Anthropic SDK
- 你本来就在用 Anthropic 的
messages协议
最小示例:
curl https://fuel.magiccoreai.com/v1/messages \
-H "x-api-key: $FUEL_API_KEY" \
-H "anthropic-version: 2023-06-01" \
-H "content-type: application/json" \
-d '{
"model": "claude-opus-4.7",
"max_tokens": 128,
"messages": [
{
"role": "user",
"content": "Reply with exactly: OK"
}
]
}'你只需要记住:
- 这里不是
Authorization: Bearer - 这里默认用
x-api-key anthropic-version也要带上
4. POST /v1/images/generations
适合:
- 图片生成
- 模型名通常是
gpt-image-*
最小示例:
curl https://fuel.magiccoreai.com/v1/images/generations \
-H "Authorization: Bearer $FUEL_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-image-2",
"prompt": "a clean product poster with white background"
}'只有绑定
GPT混合池子或GPT纯血Pro的 Key 才支持这条接口。
按次计费和ClaudeMax满血版的 Key 不支持gpt-image-*。
不同分组,推荐怎么请求
GPT混合池子
常见模型:
gpt5.5gpt5.4gpt5.3-codexgpt-image-2
推荐:
- 文本模型优先用
POST /v1/responses - 图片模型用
POST /v1/images/generations
GPT纯血Pro
常见模型:
gpt5.5gpt5.4gpt5.3-codexgpt-image-2
推荐:
- 文本模型优先用
POST /v1/responses - 图片模型用
POST /v1/images/generations
按次计费
常见模型:
claude-opus-4.6claude-opus-4.7gemini-3-flash-previewgemini-3.1-pro-previewgrok-4.20-0309-non-reasoning
推荐:
- 默认先用
POST /v1/responses - 如果你的客户端天然就是 Chat Completions,也可以用
POST /v1/chat/completions - 某些模型如果在
responses不通,可以换chat/completions再试 - 这个分组不支持
gpt-image-*,不要对这类 Key 调POST /v1/images/generations
ClaudeMax满血版
常见模型:
claude-haiku-4.5claude-opus-4.5claude-opus-4.6claude-opus-4.7claude-sonnet-4.6
推荐:
- OpenAI 兼容客户端:可以直接走
POST /v1/responses - Claude Code / Anthropic SDK:直接走
POST /v1/messages
最稳的排查顺序
如果你请求报错,不要先改半天代码,按这个顺序看:
- 先调
GET /v1/models - 确认模型名是不是返回列表里的名字
- 确认你用的协议和客户端是不是匹配
- 再看报错类型
最常见的几类报错:
401:通常是 Key 不对、没带上,或已失效403:通常是这把 Key 没权限,或当前入口不允许400 model not supported:通常是模型名不对,或者这把 Key 所在分组不支持429:通常是触发限速、并发保护,或账户状态需要检查5xx:通常是临时服务问题,先不要自己乱改模型名
你应该优先怎么选
如果你只是想最快跑通:
- 用 OpenAI SDK:先看
responses - 用旧聊天客户端:先看
chat/completions - 用 Claude Code:先看
messages - 做图片生成:只有
GPT混合池子/GPT纯血Pro看images/generations
如果你不确定,就先从这里开始: