LLM API 使用文档
连接 OpenClaw、Hermes Agent 或任何 AI 工具到我们的多模型 LLM API 提供商所需的一切信息。
接口基础地址
身份认证
所有 LLM API 请求需要携带您的 API Key。您可以在控制台中创建和管理 Key。每个 API Key 都可用于所有模型——无需单独的 Claude API Key 或 OpenAI Key。
OpenAI / Gemini / Responses 格式
使用 Authorization 请求头传递 API Key(适用于 OpenAI SDK、Gemini 等非 Anthropic 格式的客户端):
Authorization: Bearer llm_YOUR_API_KEY
Anthropic 格式
Anthropic SDK 默认使用 x-api-key 请求头。我们同时支持两种方式:
x-api-key: llm_YOUR_API_KEY
// or
Authorization: Bearer llm_YOUR_API_KEY
LLM API 接入指南
Hermes Agent API 配置
Hermes Agent 是一个功能强大的 AI 编程助手框架,支持灵活的 LLM 提供商配置。通过 ~/.hermes/config.yaml 配置文件,你可以轻松接入我们的 LLM API 并使用所有可用模型。根据你要使用的模型类型,选择对应的配置方式。
适用于 GPT-4o、Qwen、DeepSeek、GLM 等使用 OpenAI Chat Completions 格式的模型。Hermes 会自动使用 /v1/chat/completions 端点。
model:
provider: custom
base_url: https://banana2.pro/llm-api/v1
default: gpt-4o
api_key: llm_YOUR_API_KEY
适用于 GPT-5.4、GPT-5-mini 等使用 OpenAI Responses API 的模型。Hermes 检测到模型名以 gpt-5 开头时,会自动切换到 /v1/responses 端点。
model:
provider: custom
base_url: https://banana2.pro/llm-api/api.openai.com/v1
default: gpt-5.4
api_key: llm_YOUR_API_KEY
适用于 Claude Sonnet、Claude Opus 等 Anthropic 模型。当 base_url 以 /anthropic 结尾时,Hermes 会自动使用 Anthropic SDK 并请求 /v1/messages 端点。
model:
provider: custom
base_url: https://banana2.pro/llm-api/anthropic
default: claude-sonnet-4-6
api_key: llm_YOUR_API_KEY
模型类型与 Base URL 对照表
| 模型类型 | base_url | 实际端点 |
|---|---|---|
| GPT-4o, Qwen, DeepSeek, GLM | /llm-api/v1 | /v1/chat/completions |
| GPT-5.x | /llm-api/api.openai.com/v1 | /v1/responses |
| Claude | /llm-api/anthropic | /v1/messages |
OpenClaw API 配置
OpenClaw 是最受欢迎的开源 AI 编程 Agent 之一。它使用配置文件来定义使用哪个 LLM API 提供商。下方配置展示了如何同时接入 OpenAI 兼容模型和 Anthropic 模型——分别使用不同的 baseUrl 和 api 格式。配置完成后,OpenClaw 会自动通过我们的提供商路由所有 LLM API 调用。
{
"providers": [
{
"name": "banana-2-pro",
"api": "openai-completions",
"baseUrl": "https://banana2.pro/llm-api/v1",
"models": ["gpt-4o", "deepseek-r1", "qwen-max"],
"authProfiles": [
{ "apiKey": "llm_YOUR_API_KEY" }
]
},
{
"name": "banana-2-pro-claude",
"api": "anthropic",
"baseUrl": "https://banana2.pro/llm-api/anthropic",
"models": ["claude-sonnet-4-6"],
"authProfiles": [
{ "apiKey": "llm_YOUR_API_KEY" }
]
}
]
}
OpenAI 兼容模型(GPT-4o、DeepSeek、Qwen 等)的 baseUrl 使用 /llm-api/v1,Claude 系列使用 /llm-api/anthropic。两者使用同一个 API Key。
Python SDK 示例
OpenAI SDK
from openai import OpenAI
client = OpenAI(
api_key="llm_YOUR_API_KEY",
base_url="https://banana2.pro/llm-api/v1"
)
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "Hello!"}],
stream=True
)
for chunk in response:
print(chunk.choices[0].delta.content or "", end="")
Anthropic SDK
import anthropic
client = anthropic.Anthropic(
api_key="llm_YOUR_API_KEY",
base_url="https://banana2.pro/llm-api/anthropic"
)
message = client.messages.create(
model="claude-sonnet-4-6",
max_tokens=1024,
messages=[{"role": "user", "content": "Hello!"}]
)
cURL 示例
OpenAI Completions
curl https://banana2.pro/llm-api/v1/chat/completions \
-H "Authorization: Bearer llm_YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{"model": "gpt-4o", "messages": [{"role": "user", "content": "Hello"}], "stream": true}'
Anthropic Messages
curl https://banana2.pro/llm-api/anthropic/v1/messages \
-H "x-api-key: llm_YOUR_API_KEY" \
-H "Content-Type: application/json" \
-H "anthropic-version: 2023-06-01" \
-d '{"model": "claude-sonnet-4-6", "max_tokens": 1024, "messages": [{"role": "user", "content": "Hello"}]}'
Gemini
curl "https://banana2.pro/llm-api/v1beta/models/gemini-2.5-flash:streamGenerateContent" \
-H "Authorization: Bearer llm_YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{"contents": [{"parts": [{"text": "Hello"}]}]}'
多媒体生成 API
使用兼容 OpenAI 的 Images API 生成图片。任务异步处理——提交请求后获得 task_id,然后轮询结果或通过 webhook 接收通知。
1. 提交生成请求
curl -X POST https://banana2.pro/llm-api/v1/images/generations \
-H "Authorization: Bearer llm_YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-image-2",
"prompt": "A futuristic cityscape at sunset",
"size": "16:9",
"resolution": "1k",
"n": 1,
"webhook_url": "https://your-server.com/webhook"
}'
响应 (HTTP 202):
{
"task_id": "media_abc123def456",
"status": "pending",
"model": "gpt-image-2",
"charge": "0.01200"
}
2. 轮询任务状态
curl https://banana2.pro/llm-api/v1/tasks/media_abc123def456 \
-H "Authorization: Bearer llm_YOUR_API_KEY"
响应(已完成):
{
"task_id": "media_abc123def456",
"status": "completed",
"model": "gpt-image-2",
"result": {
"urls": ["https://cdn.example.com/generated-image.png"]
}
}
请求参数
| Parameter | Type | Description |
|---|---|---|
| model | string * | 模型名称,如 gpt-image-2 |
| prompt | string * | 图片描述文本(支持中英文) |
| size | string | 宽高比:auto、1:1、16:9、9:16、3:2、2:3、4:3、3:4、5:4、4:5、2:1、1:2、21:9、9:21(默认:1:1) |
| resolution | string | 输出分辨率:1k、2k、4k(默认:1k)。4K 仅支持:16:9、9:16、1:2、2:1、21:9、9:21 |
| n | integer | 生成数量(默认:1,目前仅支持 1) |
| image_urls | array | 参考图片 URL,用于图生图模式(最多 16 张,支持 URL 和 base64 data URI) |
| webhook_url | string | 可选,接收任务完成/失败通知的 URL |
Python 示例
import requests, time
BASE = "https://banana2.pro/llm-api"
HEADERS = {
"Authorization": "Bearer llm_YOUR_API_KEY",
"Content-Type": "application/json"
}
# 1. Submit
resp = requests.post(f"{BASE}/v1/images/generations", headers=HEADERS, json={
"model": "gpt-image-2",
"prompt": "A cat wearing a space suit",
"size": "1:1",
"resolution": "1k"
})
task = resp.json()
task_id = task["task_id"]
print(f"Task submitted: {task_id}, charge: ${task['charge']}")
# 2. Poll until done
while True:
time.sleep(5)
r = requests.get(f"{BASE}/v1/tasks/{task_id}", headers=HEADERS)
result = r.json()
if result["status"] == "completed":
print("Image URLs:", result["result"]["urls"])
break
elif result["status"] == "failed":
print("Error:", result.get("error"))
break
Billing: 多媒体生成费用在提交任务时预扣。如果任务失败,费用将自动退还到您的余额。
LLM API 格式详解
我们的 LLM 提供商支持四种原生 API 格式。每个模型使用其官方 API 规范匹配的格式。
OpenAI Chat Completions
最广泛支持的 LLM API 格式。兼容 GPT-4o、GPT-4o-mini 及所有使用 OpenAI completions 规范的模型。这是大多数 AI Agent(包括 OpenClaw 默认配置)使用的格式。向 /v1/chat/completions 发送标准 messages 数组格式请求。通过 stream 参数支持流式响应。
OpenAI Responses
较新的 OpenAI Responses API 格式。用于支持 responses 端点的模型。向 /v1/responses 发送请求,使用 input 字段而非 messages。此 LLM API 格式支持流式和非流式模式。
Anthropic Messages
原生 Claude API 格式。用于 Claude Sonnet、Claude Opus 等 Anthropic 模型。向 /v1/messages 发送 Anthropic messages 格式请求。需要 max_tokens 参数。这是 Hermes Agent 等工具在需要专用 Claude API Key 连接时使用的格式。
Gemini API
Google 的原生 Gemini API 格式。非流式使用 /v1beta/models/{model}:generateContent,流式使用 :streamGenerateContent。contents 数组加 parts 的格式是 Gemini 特有的。我们的 LLM 提供商处理路由以确保你的 Gemini 请求到达正确的后端。
LLM API 最佳实践
选择合适的模型
不是每个任务都需要最贵的模型。简单分类和快速响应用 Gemini Flash。通用任务用 GPT-4o。复杂推理和代码生成留给 Claude Sonnet。我们的 LLM API 让模型切换变得简单——只需更改请求中的 model 参数。
使用流式响应提升体验
在 LLM API 调用中启用流式响应,让回复在生成时就展示给用户。这显著提升了终端用户的体验。我们的提供商的所有四种 API 格式都支持流式传输。
监控使用量
定期查看控制台追踪所有模型的 LLM API 使用量。导出 CSV 格式的使用数据进行详细的成本分析。我们的按请求追踪精确显示每次调用消耗了多少 Token。
可用模型及定价
| 模型 | Type | API 格式 | 输入 $/百万 | 输出 $/百万 |
|---|---|---|---|---|
| No models found. | ||||
LLM API 端点参考
/llm-api/v1/chat/completions
OpenAI Chat Completions 格式——适用于 GPT-4o、Qwen、DeepSeek、GLM 等兼容模型。支持流式响应。
/llm-api/v1/responses
OpenAI Responses 格式——适用于 GPT-5.x 模型。支持流式响应。
/llm-api/api.openai.com/v1/responses
OpenAI Responses 格式(Hermes 兼容路径)——当 Hermes 的 base_url 设为 /llm-api/api.openai.com/v1 时自动使用此端点。
/llm-api/v1/messages
Anthropic Messages 格式——适用于 Claude API 模型。支持流式响应。
/llm-api/anthropic/v1/messages
Anthropic Messages 格式(Hermes 兼容路径)——当 Hermes 的 base_url 以 /anthropic 结尾时自动使用此端点。
/llm-api/v1beta/models/{model}:generateContent
Gemini 格式(非流式)。
/llm-api/v1beta/models/{model}:streamGenerateContent
Gemini 格式(流式)。
/llm-api/v1/models
列出 OpenAI Completions 格式的模型(GET)——返回 GPT-4o、Qwen、DeepSeek、GLM 等。
/llm-api/api.openai.com/v1/models
列出 OpenAI Responses 格式的模型(GET)——返回 GPT-5.x 模型。适用于 Hermes GPT-5 集成。
/llm-api/anthropic/models
列出 Anthropic 格式的模型(GET)——返回 Claude 系列模型。
Ready to start using our LLM API?