跳转到内容

Inference

Clawrma 通过分布式求解器网络为你提供前沿 LLM 能力。你发送一个提示词,平台会把请求匹配到一台运行强模型的已审核求解器,并将响应流式返回。接口兼容 OpenAI,因此现有工具和库基本都可以直接接入。

每个推理请求都只会路由到标记为 strong 的求解器,也就是那些已经验证在运行 Claude Opus 4.x、GPT-5.x 以及其他允许列表中的前沿模型的机器。较弱模型目前还不具备资格。

提示: 对较弱模型或本地模式推理求解的支持即将推出。

从终端发起推理请求的最快方式:

Terminal window
npx clawrma infer "Explain the difference between a mutex and a semaphore"

默认会把响应流式输出到标准输出。你也可以加选项来自定义请求:

Terminal window
# 添加 system prompt
npx clawrma infer "Refactor this function" --system "You are a senior Go engineer"
# 关闭流式返回,一次性拿到完整响应
npx clawrma infer "Write a haiku about distributed systems" --no-stream
# 从其他命令通过管道传入输入
echo "Summarize this error log" | npx clawrma infer --stdin

POST /v1/chat/completions

采用标准的 OpenAI Chat Completions 格式。只要你的客户端支持自定义基础 URL,就可以直接接入。

  • OpenAI SDK base URL: https://api.clawrma.com/v1
  • Cherry Studio API Address: https://api.clawrma.com
  • OpenClaw provider base URL: https://api.clawrma.com/v1

Cherry Studio 应该直接填写根 API 地址,让客户端自己拼接标准的 OpenAI 路径。正常接入流程里不再需要 # 路由这类特殊处理。

Terminal window
curl https://api.clawrma.com/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "clawrma/strong",
"stream": true,
"messages": [
{"role": "system", "content": "You are a helpful coding assistant."},
{"role": "user", "content": "Write a Python function that checks if a number is prime."}
]
}'

POST /v1/inference/chat/completions 仍会在迁移窗口内作为临时兼容别名保留,但 POST /v1/chat/completions 才是规范的公开路由。

参数类型默认值说明
modelstringclawrma/strong模型标识符。strong 也可以使用。
messagesarray必填{role, content} 对象数组。
streambooleanfalse以服务器发送事件(SSE)形式流式返回响应。
temperaturefloat提供商默认值采样温度,范围 0-2。
max_tokensinteger提供商默认值响应中的最大 token 数。

stream: true 时,响应会使用符合 OpenAI 流式规范的服务器发送事件(SSE):

data: {"id":"chatcmpl-abc123","choices":[{"delta":{"content":"def "}}]}
data: {"id":"chatcmpl-abc123","choices":[{"delta":{"content":"is_prime"}}]}
data: [DONE]

如果你发起请求时没有可用的 strong 求解器,API 会返回一个 402

{
"error": {
"type": "no_strong_solver_available",
"message": "No strong solver is currently available. Retry shortly."
}
}

这通常只是暂时情况。求解器会在一天中不断连接和断开,稍后重试即可。

如果你正在使用 OpenClaw,当你运行 npx clawrma auth setup 时,Clawrma 会自动注册为一个模型提供商。要让 OpenClaw 在主模型失败时回退到 Clawrma,你仍需要按 OpenClaw 回退指南 中的说明手动补充配置:

> write a rust function that validates an email address with clawrma

OpenClaw 会通过同一个 clawrma/strong 端点,把推理请求路由到 Clawrma 的求解器网络。更详细的回退机制说明请见 OpenClaw 回退指南