Trending AI Photo 已经成功迁移到 Banana 2 Pro,您的所有使用数据都已同步,您可以继续在这里使用您之前生成的作品。如有任何问题,请通过 反馈页面 联系我们。

LLM API 使用文档

连接 OpenClaw、Hermes Agent 或任何 AI 工具到我们的多模型 LLM API 提供商所需的一切信息。

接口基础地址

https://banana2.pro/llm-api

身份认证

所有 LLM API 请求需要携带您的 API Key。您可以在控制台中创建和管理 Key。每个 API Key 都可用于所有模型——无需单独的 Claude API Key 或 OpenAI Key。

OpenAI / Gemini / Responses 格式

使用 Authorization 请求头传递 API Key(适用于 OpenAI SDK、Gemini 等非 Anthropic 格式的客户端):

HTTP Header
Authorization: Bearer llm_YOUR_API_KEY

Anthropic 格式

Anthropic SDK 默认使用 x-api-key 请求头。我们同时支持两种方式:

HTTP Header
x-api-key: llm_YOUR_API_KEY // or Authorization: Bearer llm_YOUR_API_KEY

LLM API 接入指南

Hermes Agent API 配置

Hermes Agent 是一个功能强大的 AI 编程助手框架,支持灵活的 LLM 提供商配置。通过 ~/.hermes/config.yaml 配置文件,你可以轻松接入我们的 LLM API 并使用所有可用模型。根据你要使用的模型类型,选择对应的配置方式。

适用于 GPT-4o、Qwen、DeepSeek、GLM 等使用 OpenAI Chat Completions 格式的模型。Hermes 会自动使用 /v1/chat/completions 端点。

~/.hermes/config.yaml
model:
  provider: custom
  base_url: https://banana2.pro/llm-api/v1
  default: gpt-4o
  api_key: llm_YOUR_API_KEY

适用于 GPT-5.4、GPT-5-mini 等使用 OpenAI Responses API 的模型。Hermes 检测到模型名以 gpt-5 开头时,会自动切换到 /v1/responses 端点。

~/.hermes/config.yaml
model:
  provider: custom
  base_url: https://banana2.pro/llm-api/api.openai.com/v1
  default: gpt-5.4
  api_key: llm_YOUR_API_KEY

适用于 Claude Sonnet、Claude Opus 等 Anthropic 模型。当 base_url 以 /anthropic 结尾时,Hermes 会自动使用 Anthropic SDK 并请求 /v1/messages 端点。

~/.hermes/config.yaml
model:
  provider: custom
  base_url: https://banana2.pro/llm-api/anthropic
  default: claude-sonnet-4-6
  api_key: llm_YOUR_API_KEY

模型类型与 Base URL 对照表

模型类型 base_url 实际端点
GPT-4o, Qwen, DeepSeek, GLM /llm-api/v1 /v1/chat/completions
GPT-5.x /llm-api/api.openai.com/v1 /v1/responses
Claude /llm-api/anthropic /v1/messages

OpenClaw API 配置

OpenClaw 是最受欢迎的开源 AI 编程 Agent 之一。它使用配置文件来定义使用哪个 LLM API 提供商。下方配置展示了如何同时接入 OpenAI 兼容模型和 Anthropic 模型——分别使用不同的 baseUrl 和 api 格式。配置完成后,OpenClaw 会自动通过我们的提供商路由所有 LLM API 调用。

openclaw-config.json
{
  "providers": [
    {
      "name": "banana-2-pro",
      "api": "openai-completions",
      "baseUrl": "https://banana2.pro/llm-api/v1",
      "models": ["gpt-4o", "deepseek-r1", "qwen-max"],
      "authProfiles": [
        { "apiKey": "llm_YOUR_API_KEY" }
      ]
    },
    {
      "name": "banana-2-pro-claude",
      "api": "anthropic",
      "baseUrl": "https://banana2.pro/llm-api/anthropic",
      "models": ["claude-sonnet-4-6"],
      "authProfiles": [
        { "apiKey": "llm_YOUR_API_KEY" }
      ]
    }
  ]
}

OpenAI 兼容模型(GPT-4o、DeepSeek、Qwen 等)的 baseUrl 使用 /llm-api/v1,Claude 系列使用 /llm-api/anthropic。两者使用同一个 API Key。

Python SDK 示例

OpenAI SDK

python
from openai import OpenAI

client = OpenAI(
    api_key="llm_YOUR_API_KEY",
    base_url="https://banana2.pro/llm-api/v1"
)

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "Hello!"}],
    stream=True
)

for chunk in response:
    print(chunk.choices[0].delta.content or "", end="")

Anthropic SDK

python
import anthropic

client = anthropic.Anthropic(
    api_key="llm_YOUR_API_KEY",
    base_url="https://banana2.pro/llm-api/anthropic"
)

message = client.messages.create(
    model="claude-sonnet-4-6",
    max_tokens=1024,
    messages=[{"role": "user", "content": "Hello!"}]
)

cURL 示例

OpenAI Completions

bash
curl https://banana2.pro/llm-api/v1/chat/completions \
  -H "Authorization: Bearer llm_YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"model": "gpt-4o", "messages": [{"role": "user", "content": "Hello"}], "stream": true}'

Anthropic Messages

bash
curl https://banana2.pro/llm-api/anthropic/v1/messages \
  -H "x-api-key: llm_YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -H "anthropic-version: 2023-06-01" \
  -d '{"model": "claude-sonnet-4-6", "max_tokens": 1024, "messages": [{"role": "user", "content": "Hello"}]}'

Gemini

bash
curl "https://banana2.pro/llm-api/v1beta/models/gemini-2.5-flash:streamGenerateContent" \
  -H "Authorization: Bearer llm_YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"contents": [{"parts": [{"text": "Hello"}]}]}'

多媒体生成 API

使用兼容 OpenAI 的 Images API 生成图片。任务异步处理——提交请求后获得 task_id,然后轮询结果或通过 webhook 接收通知。

1. 提交生成请求

POST /llm-api/v1/images/generations
curl -X POST https://banana2.pro/llm-api/v1/images/generations \
  -H "Authorization: Bearer llm_YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-image-2",
    "prompt": "A futuristic cityscape at sunset",
    "size": "16:9",
    "resolution": "1k",
    "n": 1,
    "webhook_url": "https://your-server.com/webhook"
  }'

响应 (HTTP 202):

{
  "task_id": "media_abc123def456",
  "status": "pending",
  "model": "gpt-image-2",
  "charge": "0.01200"
}

2. 轮询任务状态

GET /llm-api/v1/tasks/{task_id}
curl https://banana2.pro/llm-api/v1/tasks/media_abc123def456 \
  -H "Authorization: Bearer llm_YOUR_API_KEY"

响应(已完成):

{
  "task_id": "media_abc123def456",
  "status": "completed",
  "model": "gpt-image-2",
  "result": {
    "urls": ["https://cdn.example.com/generated-image.png"]
  }
}

请求参数

Parameter Type Description
model string * 模型名称,如 gpt-image-2
prompt string * 图片描述文本(支持中英文)
size string 宽高比:auto、1:1、16:9、9:16、3:2、2:3、4:3、3:4、5:4、4:5、2:1、1:2、21:9、9:21(默认:1:1)
resolution string 输出分辨率:1k、2k、4k(默认:1k)。4K 仅支持:16:9、9:16、1:2、2:1、21:9、9:21
n integer 生成数量(默认:1,目前仅支持 1)
image_urls array 参考图片 URL,用于图生图模式(最多 16 张,支持 URL 和 base64 data URI)
webhook_url string 可选,接收任务完成/失败通知的 URL

Python 示例

python
import requests, time

BASE = "https://banana2.pro/llm-api"
HEADERS = {
    "Authorization": "Bearer llm_YOUR_API_KEY",
    "Content-Type": "application/json"
}

# 1. Submit
resp = requests.post(f"{BASE}/v1/images/generations", headers=HEADERS, json={
    "model": "gpt-image-2",
    "prompt": "A cat wearing a space suit",
    "size": "1:1",
    "resolution": "1k"
})
task = resp.json()
task_id = task["task_id"]
print(f"Task submitted: {task_id}, charge: ${task['charge']}")

# 2. Poll until done
while True:
    time.sleep(5)
    r = requests.get(f"{BASE}/v1/tasks/{task_id}", headers=HEADERS)
    result = r.json()
    if result["status"] == "completed":
        print("Image URLs:", result["result"]["urls"])
        break
    elif result["status"] == "failed":
        print("Error:", result.get("error"))
        break

Billing: 多媒体生成费用在提交任务时预扣。如果任务失败,费用将自动退还到您的余额。

LLM API 格式详解

我们的 LLM 提供商支持四种原生 API 格式。每个模型使用其官方 API 规范匹配的格式。

OpenAI Chat Completions

最广泛支持的 LLM API 格式。兼容 GPT-4o、GPT-4o-mini 及所有使用 OpenAI completions 规范的模型。这是大多数 AI Agent(包括 OpenClaw 默认配置)使用的格式。向 /v1/chat/completions 发送标准 messages 数组格式请求。通过 stream 参数支持流式响应。

OpenAI Responses

较新的 OpenAI Responses API 格式。用于支持 responses 端点的模型。向 /v1/responses 发送请求,使用 input 字段而非 messages。此 LLM API 格式支持流式和非流式模式。

Anthropic Messages

原生 Claude API 格式。用于 Claude Sonnet、Claude Opus 等 Anthropic 模型。向 /v1/messages 发送 Anthropic messages 格式请求。需要 max_tokens 参数。这是 Hermes Agent 等工具在需要专用 Claude API Key 连接时使用的格式。

Gemini API

Google 的原生 Gemini API 格式。非流式使用 /v1beta/models/{model}:generateContent,流式使用 :streamGenerateContent。contents 数组加 parts 的格式是 Gemini 特有的。我们的 LLM 提供商处理路由以确保你的 Gemini 请求到达正确的后端。

LLM API 最佳实践

选择合适的模型

不是每个任务都需要最贵的模型。简单分类和快速响应用 Gemini Flash。通用任务用 GPT-4o。复杂推理和代码生成留给 Claude Sonnet。我们的 LLM API 让模型切换变得简单——只需更改请求中的 model 参数。

使用流式响应提升体验

在 LLM API 调用中启用流式响应,让回复在生成时就展示给用户。这显著提升了终端用户的体验。我们的提供商的所有四种 API 格式都支持流式传输。

监控使用量

定期查看控制台追踪所有模型的 LLM API 使用量。导出 CSV 格式的使用数据进行详细的成本分析。我们的按请求追踪精确显示每次调用消耗了多少 Token。

可用模型及定价

模型 Type API 格式 输入 $/百万 输出 $/百万
No models found.

LLM API 端点参考

POST
/llm-api/v1/chat/completions

OpenAI Chat Completions 格式——适用于 GPT-4o、Qwen、DeepSeek、GLM 等兼容模型。支持流式响应。

POST
/llm-api/v1/responses

OpenAI Responses 格式——适用于 GPT-5.x 模型。支持流式响应。

POST
/llm-api/api.openai.com/v1/responses

OpenAI Responses 格式(Hermes 兼容路径)——当 Hermes 的 base_url 设为 /llm-api/api.openai.com/v1 时自动使用此端点。

POST
/llm-api/v1/messages

Anthropic Messages 格式——适用于 Claude API 模型。支持流式响应。

POST
/llm-api/anthropic/v1/messages

Anthropic Messages 格式(Hermes 兼容路径)——当 Hermes 的 base_url 以 /anthropic 结尾时自动使用此端点。

POST
/llm-api/v1beta/models/{model}:generateContent

Gemini 格式(非流式)。

POST
/llm-api/v1beta/models/{model}:streamGenerateContent

Gemini 格式(流式)。

GET
/llm-api/v1/models

列出 OpenAI Completions 格式的模型(GET)——返回 GPT-4o、Qwen、DeepSeek、GLM 等。

GET
/llm-api/api.openai.com/v1/models

列出 OpenAI Responses 格式的模型(GET)——返回 GPT-5.x 模型。适用于 Hermes GPT-5 集成。

GET
/llm-api/anthropic/models

列出 Anthropic 格式的模型(GET)——返回 Claude 系列模型。

Ready to start using our LLM API?