Concepts and configuration
モデルプロバイダー
LLM/model providers(WhatsApp/Telegram のようなチャットチャネルではない)のリファレンス。モデル選択ルールについては、Models を参照してください。
簡単なルール
モデル参照と CLI ヘルパー
- モデル参照は
provider/modelを使用します(例:opencode/claude-opus-4-6)。 agents.defaults.modelsは、設定されている場合は許可リストとして機能します。- CLI ヘルパー:
openclaw onboard、openclaw models list、openclaw models set <provider/model>。 models.providers.*.contextWindow/contextTokens/maxTokensはプロバイダーレベルのデフォルトを設定します。models.providers.*.models[].contextWindow/contextTokens/maxTokensはモデルごとにそれらを上書きします。- フォールバックルール、クールダウンプローブ、セッション上書きの永続化: Model failover。
プロバイダー認証を追加してもプライマリモデルは変わりません
openclaw configure は、プロバイダーを追加または再認証するときに既存の agents.defaults.model.primary を保持します。Provider Plugin は認証設定パッチで推奨デフォルトモデルを返す場合がありますが、プライマリモデルがすでに存在する場合、configure はそれを「このモデルを利用可能にする」として扱い、「現在のプライマリモデルを置き換える」とは扱いません。
デフォルトモデルを意図的に切り替えるには、openclaw models set <provider/model> または openclaw models auth login --provider <id> --set-default を使用します。
OpenAI プロバイダー/runtime の分離
OpenAI ファミリーのルートはプレフィックスごとに異なります。
openai/<model>にagents.defaults.agentRuntime.id: "codex"を組み合わせると、ネイティブの Codex アプリサーバーハーネスを使用します。これは通常の ChatGPT/Codex サブスクリプション構成です。openai-codex/<model>は PI で Codex OAuth を使用します。- Codex runtime 上書きなしの
openai/<model>は、PI の直接 OpenAI API キープロバイダーを使用します。
OpenAI と Codex harness を参照してください。プロバイダー/runtime の分離がわかりにくい場合は、先に Agent runtimes を読んでください。
Plugin の自動有効化も同じ境界に従います。openai-codex/<model> は OpenAI Plugin に属し、Codex Plugin は agentRuntime.id: "codex" またはレガシーの codex/<model> 参照によって有効になります。
GPT-5.5 は、agentRuntime.id: "codex" が設定されている場合はネイティブの Codex アプリサーバーハーネス経由で、Codex OAuth 用には PI の openai-codex/gpt-5.5 経由で、アカウントで公開されている場合は直接 API キートラフィック用に PI の openai/gpt-5.5 経由で利用できます。
CLI runtime
CLI runtime も同じ分離を使用します。anthropic/claude-*、google/gemini-*、openai/gpt-* などの正規モデル参照を選び、ローカル CLI バックエンドを使いたい場合は agents.defaults.agentRuntime.id を claude-cli、google-gemini-cli、または codex-cli に設定します。
レガシーの claude-cli/*、google-gemini-cli/*、codex-cli/* 参照は、runtime を別に記録したうえで正規のプロバイダー参照へ移行されます。
Plugin 所有のプロバイダー動作
プロバイダー固有のロジックの大半は Provider Plugin(registerProvider(...))内にあり、OpenClaw は汎用の推論ループを保持します。Plugin はオンボーディング、モデルカタログ、認証 env-var マッピング、transport/config 正規化、ツールスキーマのクリーンアップ、フェイルオーバー分類、OAuth 更新、使用量レポート、thinking/reasoning プロファイルなどを所有します。
Provider SDK フックとバンドル Plugin の例の完全な一覧は、Provider plugins にあります。完全にカスタムのリクエスト実行器が必要なプロバイダーは、別のより深い拡張サーフェスです。
API キーのローテーション
キーのソースと優先度
複数のキーは次の方法で設定します。
OPENCLAW_LIVE_<PROVIDER>_KEY(単一のライブ上書き、最優先)<PROVIDER>_API_KEYS(カンマまたはセミコロン区切りリスト)<PROVIDER>_API_KEY(プライマリキー)<PROVIDER>_API_KEY_*(番号付きリスト、例:<PROVIDER>_API_KEY_1)
Google プロバイダーでは、GOOGLE_API_KEY もフォールバックとして含まれます。キーの選択順は優先度を保持し、値を重複排除します。
ローテーションが作動するタイミング
- リクエストは、レート制限レスポンスの場合にのみ次のキーで再試行されます(例:
429、rate_limit、quota、resource exhausted、Too many concurrent requests、ThrottlingException、concurrency limit reached、workers_ai ... quota limit exceeded、または周期的な使用量制限メッセージ)。 - レート制限以外の失敗は即座に失敗します。キーのローテーションは試行されません。
- すべての候補キーが失敗した場合、最後の試行からの最終エラーが返されます。
組み込みプロバイダー(pi-ai カタログ)
OpenClaw には pi-ai カタログが同梱されています。これらのプロバイダーには models.providers config は不要です。認証を設定し、モデルを選ぶだけです。
OpenAI
- プロバイダー:
openai - 認証:
OPENAI_API_KEY - オプションのローテーション:
OPENAI_API_KEYS、OPENAI_API_KEY_1、OPENAI_API_KEY_2、さらにOPENCLAW_LIVE_OPENAI_KEY(単一上書き) - モデル例:
openai/gpt-5.5、openai/gpt-5.4-mini - 特定のインストールまたは API キーの挙動が異なる場合は、
openclaw models list --provider openaiでアカウント/モデルの可用性を確認してください。 - CLI:
openclaw onboard --auth-choice openai-api-key - デフォルト transport は
auto(WebSocket 優先、SSE フォールバック)です - モデルごとの上書きは
agents.defaults.models["openai/<model>"].params.transport("sse"、"websocket"、または"auto")で行います - OpenAI Responses WebSocket ウォームアップは、
params.openaiWsWarmup(true/false)によりデフォルトで有効です - OpenAI 優先処理は
agents.defaults.models["openai/<model>"].params.serviceTierで有効にできます /fastとparams.fastModeは、直接openai/*Responses リクエストをapi.openai.com上のservice_tier=priorityにマップします- 共有の
/fastトグルではなく明示的な tier が必要な場合はparams.serviceTierを使用します - 非表示の OpenClaw 帰属ヘッダー(
originator、version、User-Agent)は、api.openai.comへのネイティブ OpenAI トラフィックにのみ適用され、汎用 OpenAI 互換プロキシには適用されません - ネイティブ OpenAI ルートは Responses の
store、プロンプトキャッシュヒント、OpenAI reasoning 互換のペイロード整形も維持します。プロキシルートは維持しません openai/gpt-5.3-codex-sparkは OpenClaw で意図的に抑制されています。ライブの OpenAI API リクエストがこれを拒否し、現在の Codex カタログでも公開されていないためです
{
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Anthropic
- プロバイダー:
anthropic - 認証:
ANTHROPIC_API_KEY - オプションのローテーション:
ANTHROPIC_API_KEYS、ANTHROPIC_API_KEY_1、ANTHROPIC_API_KEY_2、さらにOPENCLAW_LIVE_ANTHROPIC_KEY(単一上書き) - モデル例:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - 直接の公開 Anthropic リクエストは、共有の
/fastトグルとparams.fastModeをサポートします。これにはapi.anthropic.comに送信される API キーおよび OAuth 認証済みトラフィックが含まれます。OpenClaw はそれを Anthropicservice_tier(autoとstandard_only)にマップします - 推奨される Claude CLI config は、モデル参照を正規のまま保ち、CLI
バックエンドを別に選択します。つまり
agents.defaults.agentRuntime.id: "claude-cli"と組み合わせたanthropic/claude-opus-4-7です。レガシーのclaude-cli/claude-opus-4-7参照も互換性のため引き続き動作します。
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OpenAI Codex OAuth
- プロバイダー:
openai-codex - 認証: OAuth(ChatGPT)
- PI モデル参照:
openai-codex/gpt-5.5 - ネイティブ Codex アプリサーバーハーネス参照:
agents.defaults.agentRuntime.id: "codex"と組み合わせたopenai/gpt-5.5 - ネイティブ Codex アプリサーバーハーネスの docs: Codex harness
- レガシーモデル参照:
codex/gpt-* - Plugin 境界:
openai-codex/*は OpenAI Plugin をロードします。ネイティブ Codex アプリサーバー Plugin は、Codex harness runtime またはレガシーのcodex/*参照によってのみ選択されます。 - CLI:
openclaw onboard --auth-choice openai-codexまたはopenclaw models auth login --provider openai-codex - デフォルト transport は
auto(WebSocket 優先、SSE フォールバック)です - PI モデルごとの上書きは
agents.defaults.models["openai-codex/<model>"].params.transport("sse"、"websocket"、または"auto")で行います params.serviceTierはネイティブ Codex Responses リクエスト(chatgpt.com/backend-api)にも転送されます- 非表示の OpenClaw 帰属ヘッダー(
originator、version、User-Agent)は、chatgpt.com/backend-apiへのネイティブ Codex トラフィックにのみ付与され、汎用 OpenAI 互換プロキシには付与されません - 直接
openai/*と同じ/fastトグルおよびparams.fastModeconfig を共有します。OpenClaw はそれをservice_tier=priorityにマップします openai-codex/gpt-5.5は Codex カタログネイティブのcontextWindow = 400000とデフォルト runtimecontextTokens = 272000を使用します。runtime 上限はmodels.providers.openai-codex.models[].contextTokensで上書きします- ポリシー注記: OpenAI Codex OAuth は、OpenClaw のような外部ツール/ワークフローに対して明示的にサポートされています。
- 一般的なサブスクリプションとネイティブ Codex runtime のルートでは、
openai-codex認証でサインインし、openai/gpt-5.5とagents.defaults.agentRuntime.id: "codex"を組み合わせて設定してください。 openai-codex/gpt-5.5は、PI 経由の Codex OAuth/サブスクリプションルートが必要な場合にのみ使用してください。API キー構成とローカルカタログが公開 API ルートを公開している場合は、Codex runtime 上書きなしのopenai/gpt-5.5を使用してください。- 古い
openai-codex/gpt-5.1*、openai-codex/gpt-5.2*、openai-codex/gpt-5.3*参照は、ChatGPT/Codex OAuth アカウントが拒否するため抑制されています。代わりにopenai-codex/gpt-5.5またはネイティブ Codex runtime ルートを使用してください。
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
その他のサブスクリプション形式のホスト型オプション
Z.AI Coding Plan または汎用 API エンドポイント。
MiniMax Coding Plan OAuth または API キーアクセス。
Qwen Cloud プロバイダーサーフェスに加えて、Alibaba DashScope と Coding Plan エンドポイントマッピング。
OpenCode
- 認証:
OPENCODE_API_KEY(またはOPENCODE_ZEN_API_KEY) - Zen runtime プロバイダー:
opencode - Go runtime プロバイダー:
opencode-go - モデル例:
opencode/claude-opus-4-6、opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zenまたはopenclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini(API キー)
- プロバイダー:
google - 認証:
GEMINI_API_KEY - 任意のローテーション:
GEMINI_API_KEYS、GEMINI_API_KEY_1、GEMINI_API_KEY_2、GOOGLE_API_KEYフォールバック、OPENCLAW_LIVE_GEMINI_KEY(単一のオーバーライド) - モデル例:
google/gemini-3.1-pro-preview、google/gemini-3-flash-preview - 互換性:
google/gemini-3.1-flash-previewを使用している従来のOpenClaw 設定はgoogle/gemini-3-flash-previewに正規化されます - エイリアス:
google/gemini-3.1-proは受け入れられ、Googleのライブ Gemini API id であるgoogle/gemini-3.1-pro-previewに正規化されます - CLI:
openclaw onboard --auth-choice gemini-api-key - Thinking:
/think adaptiveは Google dynamic thinking を使用します。Gemini 3/3.1 は固定のthinkingLevelを省略します。Gemini 2.5 はthinkingBudget: -1を送信します。 - Gemini の直接実行では、プロバイダー ネイティブの
cachedContents/...ハンドルを転送するためにagents.defaults.models["google/<model>"].params.cachedContent(または従来のcached_content) も受け入れます。Gemini キャッシュヒットは OpenClawcacheReadとして表示されます
Google Vertex と Gemini CLI
- プロバイダー:
google-vertex、google-gemini-cli - 認証: Vertex は gcloud ADC を使用します。Gemini CLI は独自の OAuth フローを使用します
Gemini CLI OAuth は、バンドルされた google plugin の一部として同梱されています。
Gemini CLI をインストール
brew
brew install gemini-cli
npm
npm install -g @google/gemini-cli
plugin を有効化
openclaw plugins enable google
ログイン
openclaw models auth login --provider google-gemini-cli --set-default
デフォルトモデル: google-gemini-cli/gemini-3-flash-preview。クライアント id やシークレットを openclaw.json に貼り付ける必要はありません。CLI ログインフローは Gateway ホスト上の認証プロファイルにトークンを保存します。
プロジェクトを設定 (必要な場合)
ログイン後にリクエストが失敗する場合は、Gateway ホストで GOOGLE_CLOUD_PROJECT または GOOGLE_CLOUD_PROJECT_ID を設定してください。
Gemini CLI の JSON 応答は response から解析されます。使用量は stats にフォールバックし、stats.cached は OpenClaw cacheRead に正規化されます。
Z.AI (GLM)
- プロバイダー:
zai - 認証:
ZAI_API_KEY - モデル例:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- エイリアス:
z.ai/*とz-ai/*はzai/*に正規化されます zai-api-keyは一致する Z.AI エンドポイントを自動検出します。zai-coding-global、zai-coding-cn、zai-global、zai-cnは特定のサーフェスを強制します
- エイリアス:
Vercel AI Gateway
- プロバイダー:
vercel-ai-gateway - 認証:
AI_GATEWAY_API_KEY - モデル例:
vercel-ai-gateway/anthropic/claude-opus-4.6、vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- プロバイダー:
kilocode - 認証:
KILOCODE_API_KEY - モデル例:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - ベース URL:
https://api.kilo.ai/api/gateway/ - 静的フォールバック カタログには
kilocode/kilo/autoが同梱されています。ライブhttps://api.kilo.ai/api/gateway/models検出により、ランタイム カタログをさらに拡張できます。 kilocode/kilo/autoの背後にある正確なアップストリーム ルーティングは Kilo Gateway が所有しており、OpenClaw にハードコードされていません。
設定の詳細については /providers/kilocode を参照してください。
その他のバンドル済みプロバイダー plugin
| プロバイダー | Id | 認証 env | モデル例 |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan |
BYTEPLUS_API_KEY |
byteplus-plan/ark-code-latest |
| Cerebras | cerebras |
CEREBRAS_API_KEY |
cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway |
CLOUDFLARE_AI_GATEWAY_API_KEY |
- |
| DeepInfra | deepinfra |
DEEPINFRA_API_KEY |
deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek |
DEEPSEEK_API_KEY |
deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot |
COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN |
- |
| Groq | groq |
GROQ_API_KEY |
- |
| Hugging Face Inference | huggingface |
HUGGINGFACE_HUB_TOKEN または HF_TOKEN |
huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode |
KILOCODE_API_KEY |
kilocode/kilo/auto |
| Kimi Coding | kimi |
KIMI_API_KEY または KIMICODE_API_KEY |
kimi/kimi-code |
| MiniMax | minimax / minimax-portal |
MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN |
minimax/MiniMax-M2.7 |
| Mistral | mistral |
MISTRAL_API_KEY |
mistral/mistral-large-latest |
| Moonshot | moonshot |
MOONSHOT_API_KEY |
moonshot/kimi-k2.6 |
| NVIDIA | nvidia |
NVIDIA_API_KEY |
nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter |
OPENROUTER_API_KEY |
openrouter/auto |
| Qianfan | qianfan |
QIANFAN_API_KEY |
qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen |
QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY |
qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan |
STEPFUN_API_KEY |
stepfun/step-3.5-flash |
| Together | together |
TOGETHER_API_KEY |
together/moonshotai/Kimi-K2.5 |
| Venice | venice |
VENICE_API_KEY |
- |
| Vercel AI Gateway | vercel-ai-gateway |
AI_GATEWAY_API_KEY |
vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan |
VOLCANO_ENGINE_API_KEY |
volcengine-plan/ark-code-latest |
| xAI | xai |
XAI_API_KEY |
xai/grok-4.3 |
| Xiaomi | xiaomi |
XIAOMI_API_KEY |
xiaomi/mimo-v2-flash |
知っておくとよい癖
OpenRouter
検証済みの openrouter.ai ルートでのみ、アプリ帰属ヘッダーと Anthropic cache_control マーカーを適用します。DeepSeek、Moonshot、ZAI の参照は、OpenRouter 管理のプロンプトキャッシュではキャッシュTTLの対象になりますが、Anthropic キャッシュマーカーは受け取りません。プロキシ形式の OpenAI互換パスとして、ネイティブOpenAI専用の整形(serviceTier、Responses store、プロンプトキャッシュヒント、OpenAI reasoning互換)はスキップします。Geminiバックエンドの参照は、プロキシGeminiの思考シグネチャサニタイズのみを維持します。
Kilo Gateway
Geminiバックエンドの参照は同じプロキシGeminiサニタイズパスに従います。kilocode/kilo/auto とその他のプロキシreasoning非対応の参照は、プロキシreasoning注入をスキップします。
MiniMax
APIキーのオンボーディングは、明示的なテキスト専用 M2.7 チャットモデル定義を書き込みます。画像理解は Plugin 所有の MiniMax-VL-01 メディアプロバイダーに残ります。
NVIDIA
モデルIDは nvidia/<vendor>/<model> 名前空間を使います(例: nvidia/moonshotai/kimi-k2.5 と並ぶ nvidia/nvidia/nemotron-...)。ピッカーはリテラルの <provider>/<model-id> 構成を保持し、API に送信される正規キーは単一プレフィックスのままです。
xAI
xAI Responses パスを使用します。grok-4.3 はバンドル既定のチャットモデルです。/fast または params.fastMode: true は、grok-3、grok-3-mini、grok-4、grok-4-0709 をそれぞれの *-fast バリアントに書き換えます。tool_stream は既定で有効です。無効にするには agents.defaults.models["xai/<model>"].params.tool_stream=false を使います。
Cerebras
バンドルされた cerebras プロバイダー Plugin として同梱されます。GLM は zai-glm-4.7 を使用します。OpenAI互換のベースURLは https://api.cerebras.ai/v1 です。
models.providers 経由のプロバイダー(カスタム/ベースURL)
カスタムプロバイダーまたは OpenAI/Anthropic互換プロキシを追加するには、models.providers(または models.json)を使用します。
以下のバンドルされたプロバイダー Plugin の多くは、すでに既定のカタログを公開しています。既定のベースURL、ヘッダー、またはモデル一覧を上書きしたい場合にのみ、明示的な models.providers.<id> エントリを使用してください。
Gateway モデル機能チェックは、明示的な models.providers.<id>.models[] メタデータも読み取ります。カスタムモデルまたはプロキシモデルが画像を受け付ける場合は、そのモデルに input: ["text", "image"] を設定して、WebChat とノード起点の添付ファイルパスが、テキスト専用メディア参照ではなくネイティブモデル入力として画像を渡すようにします。
Moonshot AI(Kimi)
Moonshot はバンドルされたプロバイダー Plugin として同梱されます。既定では組み込みプロバイダーを使用し、ベースURLまたはモデルメタデータを上書きする必要がある場合にのみ、明示的な models.providers.moonshot エントリを追加します。
- プロバイダー:
moonshot - 認証:
MOONSHOT_API_KEY - モデル例:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-keyまたはopenclaw onboard --auth-choice moonshot-api-key-cn
Kimi K2 モデルID:
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.6" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
},
},
},
}
Kimi coding
Kimi Coding は Moonshot AI の Anthropic互換エンドポイントを使用します。
- プロバイダー:
kimi - 認証:
KIMI_API_KEY - モデル例:
kimi/kimi-code
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi/kimi-code" } },
},
}
従来の kimi/k2p5 は互換性モデル ID として引き続き受け付けられます。
Volcano Engine (Doubao)
Volcano Engine (火山引擎) は、中国で Doubao やその他のモデルへのアクセスを提供します。
- プロバイダー:
volcengine(コーディング:volcengine-plan) - 認証:
VOLCANO_ENGINE_API_KEY - モデル例:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
},
}
オンボーディングはデフォルトでコーディング面を使用しますが、汎用の volcengine/* カタログも同時に登録されます。
オンボーディング/設定のモデルピッカーでは、Volcengine の認証選択は volcengine/* と volcengine-plan/* の両方の行を優先します。これらのモデルがまだ読み込まれていない場合、OpenClaw は空のプロバイダー範囲のピッカーを表示するのではなく、フィルターされていないカタログにフォールバックします。
Standard models
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Coding models (volcengine-plan)
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (International)
BytePlus ARK は、海外ユーザー向けに Volcano Engine と同じモデルへのアクセスを提供します。
- プロバイダー:
byteplus(コーディング:byteplus-plan) - 認証:
BYTEPLUS_API_KEY - モデル例:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
},
}
オンボーディングはデフォルトでコーディング面を使用しますが、汎用の byteplus/* カタログも同時に登録されます。
オンボーディング/設定のモデルピッカーでは、BytePlus の認証選択は byteplus/* と byteplus-plan/* の両方の行を優先します。これらのモデルがまだ読み込まれていない場合、OpenClaw は空のプロバイダー範囲のピッカーを表示するのではなく、フィルターされていないカタログにフォールバックします。
Standard models
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Coding models (byteplus-plan)
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic は synthetic プロバイダーの背後で Anthropic 互換モデルを提供します。
- プロバイダー:
synthetic - 認証:
SYNTHETIC_API_KEY - モデル例:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMax はカスタムエンドポイントを使用するため、models.providers 経由で設定します。
- MiniMax OAuth (Global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - MiniMax API key (Global):
--auth-choice minimax-global-api - MiniMax API key (CN):
--auth-choice minimax-cn-api - 認証:
minimaxにはMINIMAX_API_KEY;minimax-portalにはMINIMAX_OAUTH_TOKENまたはMINIMAX_API_KEY
セットアップの詳細、モデルオプション、設定スニペットについては /providers/minimax を参照してください。
Plugin 所有の機能分割:
- テキスト/チャットのデフォルトは
minimax/MiniMax-M2.7のままです - 画像生成は
minimax/image-01またはminimax-portal/image-01です - 画像理解は、両方の MiniMax 認証パスで Plugin 所有の
MiniMax-VL-01です - Web 検索はプロバイダー ID
minimaxのままです
LM Studio
LM Studio は、ネイティブ API を使用するバンドル済みプロバイダー Plugin として同梱されています。
- プロバイダー:
lmstudio - 認証:
LM_API_TOKEN - デフォルトの推論ベース URL:
http://localhost:1234/v1
次にモデルを設定します (http://localhost:1234/api/v1/models から返される ID のいずれかに置き換えてください)。
{
agents: {
defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
},
}
OpenClaw は検出 + 自動読み込みに LM Studio のネイティブ /api/v1/models と /api/v1/models/load を使用し、デフォルトでは推論に /v1/chat/completions を使用します。モデルライフサイクルを LM Studio の JIT 読み込み、TTL、自動エビクトに任せたい場合は、models.providers.lmstudio.params.preload: false を設定してください。セットアップとトラブルシューティングについては /providers/lmstudio を参照してください。
Ollama
Ollama はバンドル済みプロバイダー Plugin として同梱され、Ollama のネイティブ API を使用します。
- プロバイダー:
ollama - 認証: 不要 (ローカルサーバー)
- モデル例:
ollama/llama3.3 - インストール: https://ollama.com/download
# Install Ollama, then pull a model:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
OLLAMA_API_KEY でオプトインすると、Ollama はローカルの http://127.0.0.1:11434 で検出され、バンドル済みプロバイダー Plugin が Ollama を openclaw onboard とモデルピッカーに直接追加します。オンボーディング、クラウド/ローカルモード、カスタム設定については /providers/ollama を参照してください。
vLLM
vLLM は、ローカル/セルフホストの OpenAI 互換サーバー向けのバンドル済みプロバイダー Plugin として同梱されています。
- プロバイダー:
vllm - 認証: 任意 (サーバーによって異なります)
- デフォルトのベース URL:
http://127.0.0.1:8000/v1
ローカルで自動検出にオプトインするには (サーバーが認証を強制しない場合は任意の値で動作します):
export VLLM_API_KEY="vllm-local"
次にモデルを設定します (/v1/models から返される ID のいずれかに置き換えてください)。
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
詳細については /providers/vllm を参照してください。
SGLang
SGLang は、高速なセルフホスト OpenAI 互換サーバー向けのバンドル済みプロバイダー Plugin として同梱されています。
- プロバイダー:
sglang - 認証: 任意 (サーバーによって異なります)
- デフォルトのベース URL:
http://127.0.0.1:30000/v1
ローカルで自動検出にオプトインするには (サーバーが認証を強制しない場合は任意の値で動作します):
export SGLANG_API_KEY="sglang-local"
次にモデルを設定します (/v1/models から返される ID のいずれかに置き換えてください)。
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
詳細については /providers/sglang を参照してください。
ローカルプロキシ (LM Studio、vLLM、LiteLLM など)
例 (OpenAI 互換):
{
agents: {
defaults: {
model: { primary: "lmstudio/my-local-model" },
models: { "lmstudio/my-local-model": { alias: "Local" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "${LM_API_TOKEN}",
api: "openai-completions",
timeoutSeconds: 300,
models: [
{
id: "my-local-model",
name: "Local Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
Default optional fields
カスタムプロバイダーでは、reasoning、input、cost、contextWindow、maxTokens は任意です。省略した場合、OpenClaw は以下をデフォルトにします。
reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
推奨: プロキシ/モデルの制限に一致する明示的な値を設定してください。
Proxy-route shaping rules
- 非ネイティブエンドポイント (ホストが
api.openai.comではない、空でないbaseUrl) でapi: "openai-completions"を使用する場合、OpenClaw は未対応のdeveloperロールによるプロバイダー 400 エラーを避けるため、compat.supportsDeveloperRole: falseを強制します。 - プロキシ形式の OpenAI 互換ルートでは、ネイティブ OpenAI 専用のリクエスト整形もスキップされます。
service_tierなし、Responses のstoreなし、Completions のstoreなし、プロンプトキャッシュのヒントなし、OpenAI reasoning 互換ペイロード整形なし、非表示の OpenClaw 帰属ヘッダーなしです。 - ベンダー固有フィールドが必要な OpenAI 互換 Completions プロキシでは、
agents.defaults.models["provider/model"].params.extra_body(またはextraBody) を設定して、送信リクエスト本文に追加 JSON をマージします。 - vLLM のチャットテンプレート制御では、
agents.defaults.models["provider/model"].params.chat_template_kwargsを設定します。バンドル済みの vLLM Plugin は、セッションの thinking レベルがオフの場合、vllm/nemotron-3-*に対してenable_thinking: falseとforce_nonempty_content: trueを自動的に送信します。 - 遅いローカルモデルやリモート LAN/tailnet ホストでは、
models.providers.<id>.timeoutSecondsを設定します。これにより、エージェントランタイム全体のタイムアウトを増やさずに、接続、ヘッダー、本文ストリーミング、保護付き fetch 全体の中断を含む、プロバイダーモデルの HTTP リクエスト処理が延長されます。 - モデルプロバイダーの HTTP 呼び出しでは、設定されたプロバイダー
baseUrlのホスト名に対してのみ、198.18.0.0/15とfc00::/7の Surge、Clash、sing-box fake-IP DNS 応答を許可します。その他のプライベート、ループバック、リンクローカル、メタデータ宛先には、引き続き明示的なmodels.providers.<id>.request.allowPrivateNetwork: trueのオプトインが必要です。 baseUrlが空または省略されている場合、OpenClaw はデフォルトの OpenAI 動作 (api.openai.comに解決されます) を維持します。- 安全のため、非ネイティブの
openai-completionsエンドポイントでは、明示的なcompat.supportsDeveloperRole: trueも引き続き上書きされます。 - 非直接エンドポイント (標準の
anthropic以外の任意のプロバイダー、またはホストが公開api.anthropic.comエンドポイントではないカスタムmodels.providers.anthropic.baseUrl) でapi: "anthropic-messages"を使用する場合、OpenClaw はclaude-code-20250219、interleaved-thinking-2025-05-14、OAuth マーカーなどの暗黙的な Anthropic ベータヘッダーを抑制し、カスタム Anthropic 互換プロキシが未対応のベータフラグを拒否しないようにします。プロキシに特定のベータ機能が必要な場合は、models.providers.<id>.headers["anthropic-beta"]を明示的に設定してください。
CLI の例
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
完全な設定例については、設定 も参照してください。
関連
- 設定リファレンス - モデル設定キー
- モデルフェイルオーバー - フォールバックチェーンとリトライ動作
- モデル - モデル設定とエイリアス
- プロバイダー - プロバイダー別セットアップガイド