跳转到主要内容

Documentation Index

Fetch the complete documentation index at: https://docs.ruapi.ai/llms.txt

Use this file to discover all available pages before exploring further.

RuAPI 同时支持两种 API 协议:经典的 OpenAI 兼容,和原生 Anthropic Claude 兼容。同一把 API key 在两边都能用

OpenAI 协议

POST /v1/chat/completions —— 行业标准,几乎所有 SDK 和框架都支持。

Claude 协议

POST /v1/messages —— Anthropic 原生格式,支持 thinking 块和 MCP。

基础 URL

https://www.ruapi.ai/v1
所有端点都挂在 /v1 下。鉴权通过 Authorization: Bearer sk-... 头。

OpenAI 协议

如果你的代码已经在用 OpenAI 官方 SDK 或兼容框架(LangChain、LlamaIndex、Vercel AI SDK 等),用这个协议。

端点

POST https://www.ruapi.ai/v1/chat/completions

兼容性

请求/响应格式与 OpenAI Chat Completions API 完全一致。支持:
  • messages(角色 system / user / assistant / tool
  • model —— 模型库里任意模型名(包括 Claude/Gemini/Grok,我们会自动转换协议)
  • stream: true 流式响应(Server-Sent Events)
  • tools / tool_choice —— function calling
  • temperaturetop_pmax_tokens 等参数

Python 示例(OpenAI SDK)

from openai import OpenAI

client = OpenAI(
    api_key="sk-你的KEY",
    base_url="https://www.ruapi.ai/v1",
)

response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[
        {"role": "system", "content": "你是一个友好的助手。"},
        {"role": "user", "content": "你好!你能做什么?"},
    ],
    temperature=0.7,
)

print(response.choices[0].message.content)
print(f"消耗 token: {response.usage.total_tokens}")

Node.js 示例(OpenAI SDK)

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "sk-你的KEY",
  baseURL: "https://www.ruapi.ai/v1",
});

const response = await client.chat.completions.create({
  model: "claude-3-5-sonnet-20241022", // 用 OpenAI 协议调 Claude 也可以
  messages: [
    { role: "user", content: "用大白话解释量子纠缠。" },
  ],
});

console.log(response.choices[0].message.content);

curl 示例(带 streaming)

curl https://www.ruapi.ai/v1/chat/completions \
  -H "Authorization: Bearer sk-你的KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o-mini",
    "messages": [{"role": "user", "content": "写一首关于代码的俳句。"}],
    "stream": true
  }'

Claude 协议

如果你的代码用 Anthropic SDK,或者你需要 Claude 特有的功能(thinking 块、原生格式 tool calls),用这个协议。

端点

POST https://www.ruapi.ai/v1/messages

兼容性

请求/响应格式与 Anthropic Messages API 完全一致。支持:
  • messages 数组(Claude 原生格式)
  • system 作为单独字段
  • model —— Claude 模型名或其他(我们会转成 Claude 协议)
  • max_tokens(Claude 必填)
  • stream: true
  • tools / tool_choice
  • thinking —— 推理模型的思考模式

Python 示例(Anthropic SDK)

from anthropic import Anthropic

client = Anthropic(
    api_key="sk-你的KEY",
    base_url="https://www.ruapi.ai",
)

response = client.messages.create(
    model="claude-3-5-sonnet-20241022",
    max_tokens=1024,
    system="你是一个技术专家。",
    messages=[
        {"role": "user", "content": "什么是 CAP 定理?"},
    ],
)

print(response.content[0].text)
print(f"消耗:input={response.usage.input_tokens}, output={response.usage.output_tokens}")

Node.js 示例(Anthropic SDK)

import Anthropic from "@anthropic-ai/sdk";

const client = new Anthropic({
  apiKey: "sk-你的KEY",
  baseURL: "https://www.ruapi.ai",
});

const response = await client.messages.create({
  model: "claude-3-5-sonnet-20241022",
  max_tokens: 1024,
  messages: [
    { role: "user", content: "解释 Rust borrow checker 的工作原理。" },
  ],
});

console.log(response.content[0].text);

curl 示例

curl https://www.ruapi.ai/v1/messages \
  -H "x-api-key: sk-你的KEY" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-3-5-sonnet-20241022",
    "max_tokens": 1024,
    "messages": [{"role": "user", "content": "写一首关于代码的俳句。"}]
  }'
Anthropic SDK 用的是 x-api-key 头,不是 Authorization: Bearer。RuAPI 在 /v1/messages 端点上 两种头都接受

该选哪个协议

场景
已经在用 OpenAI SDK / LangChain / LlamaIndexOpenAI 协议
写原生 Anthropic 代码,需要 thinking 块Claude 协议
现有 OpenAI 代码想调 ClaudeOpenAI 协议(我们会转换)
Anthropic SDK 想调 GPT-4oClaude 协议(我们会转换)
不管哪个 —— 同一把 API key,每 token 同价,余额同账户。

全部端点

方法路径用途
POST/v1/chat/completionsOpenAI Chat Completions
POST/v1/messagesClaude Messages
POST/v1/embeddings嵌入向量(OpenAI 兼容)
POST/v1/images/generations图片生成(OpenAI 兼容)
POST/v1/audio/transcriptionsWhisper 转录
POST/v1/audio/speechTTS 语音合成
GET/v1/models模型列表
完整带模型清单的列表在控制台里看。