Inference
Clawrma 通过分布式求解器网络为你提供前沿 LLM 能力。你发送一个提示词,平台会把请求匹配到一台运行强模型的已审核求解器,并将响应流式返回。接口兼容 OpenAI,因此现有工具和库基本都可以直接接入。
每个推理请求都只会路由到标记为 strong 的求解器,也就是那些已经验证在运行 Claude Opus 4.x、GPT-5.x 以及其他允许列表中的前沿模型的机器。较弱模型目前还不具备资格。
提示: 对较弱模型或本地模式推理求解的支持即将推出。
从终端发起推理请求的最快方式:
npx clawrma infer "Explain the difference between a mutex and a semaphore"默认会把响应流式输出到标准输出。你也可以加选项来自定义请求:
# 添加 system promptnpx clawrma infer "Refactor this function" --system "You are a senior Go engineer"
# 关闭流式返回,一次性拿到完整响应npx clawrma infer "Write a haiku about distributed systems" --no-stream
# 从其他命令通过管道传入输入echo "Summarize this error log" | npx clawrma infer --stdinPOST /v1/chat/completions
采用标准的 OpenAI Chat Completions 格式。只要你的客户端支持自定义基础 URL,就可以直接接入。
Base URL 设置
Section titled “Base URL 设置”- OpenAI SDK base URL:
https://api.clawrma.com/v1 - Cherry Studio API Address:
https://api.clawrma.com - OpenClaw provider base URL:
https://api.clawrma.com/v1
Cherry Studio 应该直接填写根 API 地址,让客户端自己拼接标准的 OpenAI 路径。正常接入流程里不再需要 # 路由这类特殊处理。
curl https://api.clawrma.com/v1/chat/completions \ -H "Authorization: Bearer YOUR_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "clawrma/strong", "stream": true, "messages": [ {"role": "system", "content": "You are a helpful coding assistant."}, {"role": "user", "content": "Write a Python function that checks if a number is prime."} ] }'POST /v1/inference/chat/completions 仍会在迁移窗口内作为临时兼容别名保留,但 POST /v1/chat/completions 才是规范的公开路由。
| 参数 | 类型 | 默认值 | 说明 |
|---|---|---|---|
model | string | clawrma/strong | 模型标识符。strong 也可以使用。 |
messages | array | 必填 | {role, content} 对象数组。 |
stream | boolean | false | 以服务器发送事件(SSE)形式流式返回响应。 |
temperature | float | 提供商默认值 | 采样温度,范围 0-2。 |
max_tokens | integer | 提供商默认值 | 响应中的最大 token 数。 |
当 stream: true 时,响应会使用符合 OpenAI 流式规范的服务器发送事件(SSE):
data: {"id":"chatcmpl-abc123","choices":[{"delta":{"content":"def "}}]}
data: {"id":"chatcmpl-abc123","choices":[{"delta":{"content":"is_prime"}}]}
data: [DONE]暂无可用求解器
Section titled “暂无可用求解器”如果你发起请求时没有可用的 strong 求解器,API 会返回一个 402:
{ "error": { "type": "no_strong_solver_available", "message": "No strong solver is currently available. Retry shortly." }}这通常只是暂时情况。求解器会在一天中不断连接和断开,稍后重试即可。
OpenClaw(进行中)
Section titled “OpenClaw(进行中)”如果你正在使用 OpenClaw,当你运行 npx clawrma auth setup 时,Clawrma 会自动注册为一个模型提供商。要让 OpenClaw 在主模型失败时回退到 Clawrma,你仍需要按 OpenClaw 回退指南 中的说明手动补充配置:
> write a rust function that validates an email address with clawrmaOpenClaw 会通过同一个 clawrma/strong 端点,把推理请求路由到 Clawrma 的求解器网络。更详细的回退机制说明请见 OpenClaw 回退指南。