Concepts and configuration

モデルプロバイダー

LLM/model providers(WhatsApp/Telegram のようなチャットチャネルではない)のリファレンス。モデル選択ルールについては、Models を参照してください。

簡単なルール

モデル参照と CLI ヘルパー
  • モデル参照は provider/model を使用します(例: opencode/claude-opus-4-6)。
  • agents.defaults.models は、設定されている場合は許可リストとして機能します。
  • CLI ヘルパー: openclaw onboardopenclaw models listopenclaw models set <provider/model>
  • models.providers.*.contextWindow / contextTokens / maxTokens はプロバイダーレベルのデフォルトを設定します。models.providers.*.models[].contextWindow / contextTokens / maxTokens はモデルごとにそれらを上書きします。
  • フォールバックルール、クールダウンプローブ、セッション上書きの永続化: Model failover
プロバイダー認証を追加してもプライマリモデルは変わりません

openclaw configure は、プロバイダーを追加または再認証するときに既存の agents.defaults.model.primary を保持します。Provider Plugin は認証設定パッチで推奨デフォルトモデルを返す場合がありますが、プライマリモデルがすでに存在する場合、configure はそれを「このモデルを利用可能にする」として扱い、「現在のプライマリモデルを置き換える」とは扱いません。

デフォルトモデルを意図的に切り替えるには、openclaw models set <provider/model> または openclaw models auth login --provider <id> --set-default を使用します。

OpenAI プロバイダー/runtime の分離

OpenAI ファミリーのルートはプレフィックスごとに異なります。

  • openai/<model>agents.defaults.agentRuntime.id: "codex" を組み合わせると、ネイティブの Codex アプリサーバーハーネスを使用します。これは通常の ChatGPT/Codex サブスクリプション構成です。
  • openai-codex/<model> は PI で Codex OAuth を使用します。
  • Codex runtime 上書きなしの openai/<model> は、PI の直接 OpenAI API キープロバイダーを使用します。

OpenAICodex harness を参照してください。プロバイダー/runtime の分離がわかりにくい場合は、先に Agent runtimes を読んでください。

Plugin の自動有効化も同じ境界に従います。openai-codex/<model> は OpenAI Plugin に属し、Codex Plugin は agentRuntime.id: "codex" またはレガシーの codex/<model> 参照によって有効になります。

GPT-5.5 は、agentRuntime.id: "codex" が設定されている場合はネイティブの Codex アプリサーバーハーネス経由で、Codex OAuth 用には PI の openai-codex/gpt-5.5 経由で、アカウントで公開されている場合は直接 API キートラフィック用に PI の openai/gpt-5.5 経由で利用できます。

CLI runtime

CLI runtime も同じ分離を使用します。anthropic/claude-*google/gemini-*openai/gpt-* などの正規モデル参照を選び、ローカル CLI バックエンドを使いたい場合は agents.defaults.agentRuntime.idclaude-cligoogle-gemini-cli、または codex-cli に設定します。

レガシーの claude-cli/*google-gemini-cli/*codex-cli/* 参照は、runtime を別に記録したうえで正規のプロバイダー参照へ移行されます。

Plugin 所有のプロバイダー動作

プロバイダー固有のロジックの大半は Provider Plugin(registerProvider(...))内にあり、OpenClaw は汎用の推論ループを保持します。Plugin はオンボーディング、モデルカタログ、認証 env-var マッピング、transport/config 正規化、ツールスキーマのクリーンアップ、フェイルオーバー分類、OAuth 更新、使用量レポート、thinking/reasoning プロファイルなどを所有します。

Provider SDK フックとバンドル Plugin の例の完全な一覧は、Provider plugins にあります。完全にカスタムのリクエスト実行器が必要なプロバイダーは、別のより深い拡張サーフェスです。

API キーのローテーション

キーのソースと優先度

複数のキーは次の方法で設定します。

  • OPENCLAW_LIVE_&lt;PROVIDER&gt;_KEY(単一のライブ上書き、最優先)
  • &lt;PROVIDER&gt;_API_KEYS(カンマまたはセミコロン区切りリスト)
  • &lt;PROVIDER&gt;_API_KEY(プライマリキー)
  • &lt;PROVIDER&gt;_API_KEY_*(番号付きリスト、例: &lt;PROVIDER&gt;_API_KEY_1

Google プロバイダーでは、GOOGLE_API_KEY もフォールバックとして含まれます。キーの選択順は優先度を保持し、値を重複排除します。

ローテーションが作動するタイミング
  • リクエストは、レート制限レスポンスの場合にのみ次のキーで再試行されます(例: 429rate_limitquotaresource exhaustedToo many concurrent requestsThrottlingExceptionconcurrency limit reachedworkers_ai ... quota limit exceeded、または周期的な使用量制限メッセージ)。
  • レート制限以外の失敗は即座に失敗します。キーのローテーションは試行されません。
  • すべての候補キーが失敗した場合、最後の試行からの最終エラーが返されます。

組み込みプロバイダー(pi-ai カタログ)

OpenClaw には pi-ai カタログが同梱されています。これらのプロバイダーには models.providers config は不要です。認証を設定し、モデルを選ぶだけです。

OpenAI

  • プロバイダー: openai
  • 認証: OPENAI_API_KEY
  • オプションのローテーション: OPENAI_API_KEYSOPENAI_API_KEY_1OPENAI_API_KEY_2、さらに OPENCLAW_LIVE_OPENAI_KEY(単一上書き)
  • モデル例: openai/gpt-5.5openai/gpt-5.4-mini
  • 特定のインストールまたは API キーの挙動が異なる場合は、openclaw models list --provider openai でアカウント/モデルの可用性を確認してください。
  • CLI: openclaw onboard --auth-choice openai-api-key
  • デフォルト transport は auto(WebSocket 優先、SSE フォールバック)です
  • モデルごとの上書きは agents.defaults.models["openai/<model>"].params.transport"sse""websocket"、または "auto")で行います
  • OpenAI Responses WebSocket ウォームアップは、params.openaiWsWarmuptrue/false)によりデフォルトで有効です
  • OpenAI 優先処理は agents.defaults.models["openai/<model>"].params.serviceTier で有効にできます
  • /fastparams.fastMode は、直接 openai/* Responses リクエストを api.openai.com 上の service_tier=priority にマップします
  • 共有の /fast トグルではなく明示的な tier が必要な場合は params.serviceTier を使用します
  • 非表示の OpenClaw 帰属ヘッダー(originatorversionUser-Agent)は、api.openai.com へのネイティブ OpenAI トラフィックにのみ適用され、汎用 OpenAI 互換プロキシには適用されません
  • ネイティブ OpenAI ルートは Responses の store、プロンプトキャッシュヒント、OpenAI reasoning 互換のペイロード整形も維持します。プロキシルートは維持しません
  • openai/gpt-5.3-codex-spark は OpenClaw で意図的に抑制されています。ライブの OpenAI API リクエストがこれを拒否し、現在の Codex カタログでも公開されていないためです
{
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}

Anthropic

  • プロバイダー: anthropic
  • 認証: ANTHROPIC_API_KEY
  • オプションのローテーション: ANTHROPIC_API_KEYSANTHROPIC_API_KEY_1ANTHROPIC_API_KEY_2、さらに OPENCLAW_LIVE_ANTHROPIC_KEY(単一上書き)
  • モデル例: anthropic/claude-opus-4-6
  • CLI: openclaw onboard --auth-choice apiKey
  • 直接の公開 Anthropic リクエストは、共有の /fast トグルと params.fastMode をサポートします。これには api.anthropic.com に送信される API キーおよび OAuth 認証済みトラフィックが含まれます。OpenClaw はそれを Anthropic service_tierautostandard_only)にマップします
  • 推奨される Claude CLI config は、モデル参照を正規のまま保ち、CLI バックエンドを別に選択します。つまり agents.defaults.agentRuntime.id: "claude-cli" と組み合わせた anthropic/claude-opus-4-7 です。レガシーの claude-cli/claude-opus-4-7 参照も互換性のため引き続き動作します。
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI Codex OAuth

  • プロバイダー: openai-codex
  • 認証: OAuth(ChatGPT)
  • PI モデル参照: openai-codex/gpt-5.5
  • ネイティブ Codex アプリサーバーハーネス参照: agents.defaults.agentRuntime.id: "codex" と組み合わせた openai/gpt-5.5
  • ネイティブ Codex アプリサーバーハーネスの docs: Codex harness
  • レガシーモデル参照: codex/gpt-*
  • Plugin 境界: openai-codex/* は OpenAI Plugin をロードします。ネイティブ Codex アプリサーバー Plugin は、Codex harness runtime またはレガシーの codex/* 参照によってのみ選択されます。
  • CLI: openclaw onboard --auth-choice openai-codex または openclaw models auth login --provider openai-codex
  • デフォルト transport は auto(WebSocket 優先、SSE フォールバック)です
  • PI モデルごとの上書きは agents.defaults.models["openai-codex/<model>"].params.transport"sse""websocket"、または "auto")で行います
  • params.serviceTier はネイティブ Codex Responses リクエスト(chatgpt.com/backend-api)にも転送されます
  • 非表示の OpenClaw 帰属ヘッダー(originatorversionUser-Agent)は、chatgpt.com/backend-api へのネイティブ Codex トラフィックにのみ付与され、汎用 OpenAI 互換プロキシには付与されません
  • 直接 openai/* と同じ /fast トグルおよび params.fastMode config を共有します。OpenClaw はそれを service_tier=priority にマップします
  • openai-codex/gpt-5.5 は Codex カタログネイティブの contextWindow = 400000 とデフォルト runtime contextTokens = 272000 を使用します。runtime 上限は models.providers.openai-codex.models[].contextTokens で上書きします
  • ポリシー注記: OpenAI Codex OAuth は、OpenClaw のような外部ツール/ワークフローに対して明示的にサポートされています。
  • 一般的なサブスクリプションとネイティブ Codex runtime のルートでは、openai-codex 認証でサインインし、openai/gpt-5.5agents.defaults.agentRuntime.id: "codex" を組み合わせて設定してください。
  • openai-codex/gpt-5.5 は、PI 経由の Codex OAuth/サブスクリプションルートが必要な場合にのみ使用してください。API キー構成とローカルカタログが公開 API ルートを公開している場合は、Codex runtime 上書きなしの openai/gpt-5.5 を使用してください。
  • 古い openai-codex/gpt-5.1*openai-codex/gpt-5.2*openai-codex/gpt-5.3* 参照は、ChatGPT/Codex OAuth アカウントが拒否するため抑制されています。代わりに openai-codex/gpt-5.5 またはネイティブ Codex runtime ルートを使用してください。
{
  plugins: { entries: { codex: { enabled: true } } },
  agents: {
    defaults: {
      model: { primary: "openai/gpt-5.5" },
      agentRuntime: { id: "codex" },
    },
  },
}
{
  models: {
    providers: {
      "openai-codex": {
        models: [{ id: "gpt-5.5", contextTokens: 160000 }],
      },
    },
  },
}

その他のサブスクリプション形式のホスト型オプション

OpenCode

  • 認証: OPENCODE_API_KEY(または OPENCODE_ZEN_API_KEY
  • Zen runtime プロバイダー: opencode
  • Go runtime プロバイダー: opencode-go
  • モデル例: opencode/claude-opus-4-6opencode-go/kimi-k2.6
  • CLI: openclaw onboard --auth-choice opencode-zen または openclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini(API キー)

  • プロバイダー: google
  • 認証: GEMINI_API_KEY
  • 任意のローテーション: GEMINI_API_KEYSGEMINI_API_KEY_1GEMINI_API_KEY_2GOOGLE_API_KEY フォールバック、OPENCLAW_LIVE_GEMINI_KEY (単一のオーバーライド)
  • モデル例: google/gemini-3.1-pro-previewgoogle/gemini-3-flash-preview
  • 互換性: google/gemini-3.1-flash-preview を使用している従来のOpenClaw 設定は google/gemini-3-flash-preview に正規化されます
  • エイリアス: google/gemini-3.1-pro は受け入れられ、Googleのライブ Gemini API id である google/gemini-3.1-pro-preview に正規化されます
  • CLI: openclaw onboard --auth-choice gemini-api-key
  • Thinking: /think adaptive は Google dynamic thinking を使用します。Gemini 3/3.1 は固定の thinkingLevel を省略します。Gemini 2.5 は thinkingBudget: -1 を送信します。
  • Gemini の直接実行では、プロバイダー ネイティブの cachedContents/... ハンドルを転送するために agents.defaults.models["google/<model>"].params.cachedContent (または従来の cached_content) も受け入れます。Gemini キャッシュヒットは OpenClaw cacheRead として表示されます

Google Vertex と Gemini CLI

  • プロバイダー: google-vertexgoogle-gemini-cli
  • 認証: Vertex は gcloud ADC を使用します。Gemini CLI は独自の OAuth フローを使用します

Gemini CLI OAuth は、バンドルされた google plugin の一部として同梱されています。

  • Gemini CLI をインストール

    brew

    brew install gemini-cli
    

    npm

    npm install -g @google/gemini-cli
    
  • plugin を有効化

    openclaw plugins enable google
    
  • ログイン

    openclaw models auth login --provider google-gemini-cli --set-default
    

    デフォルトモデル: google-gemini-cli/gemini-3-flash-preview。クライアント id やシークレットを openclaw.json に貼り付ける必要はありません。CLI ログインフローは Gateway ホスト上の認証プロファイルにトークンを保存します。

  • プロジェクトを設定 (必要な場合)

    ログイン後にリクエストが失敗する場合は、Gateway ホストで GOOGLE_CLOUD_PROJECT または GOOGLE_CLOUD_PROJECT_ID を設定してください。

  • Gemini CLI の JSON 応答は response から解析されます。使用量は stats にフォールバックし、stats.cached は OpenClaw cacheRead に正規化されます。

    Z.AI (GLM)

    • プロバイダー: zai
    • 認証: ZAI_API_KEY
    • モデル例: zai/glm-5.1
    • CLI: openclaw onboard --auth-choice zai-api-key
      • エイリアス: z.ai/*z-ai/*zai/* に正規化されます
      • zai-api-key は一致する Z.AI エンドポイントを自動検出します。zai-coding-globalzai-coding-cnzai-globalzai-cn は特定のサーフェスを強制します

    Vercel AI Gateway

    • プロバイダー: vercel-ai-gateway
    • 認証: AI_GATEWAY_API_KEY
    • モデル例: vercel-ai-gateway/anthropic/claude-opus-4.6vercel-ai-gateway/moonshotai/kimi-k2.6
    • CLI: openclaw onboard --auth-choice ai-gateway-api-key

    Kilo Gateway

    • プロバイダー: kilocode
    • 認証: KILOCODE_API_KEY
    • モデル例: kilocode/kilo/auto
    • CLI: openclaw onboard --auth-choice kilocode-api-key
    • ベース URL: https://api.kilo.ai/api/gateway/
    • 静的フォールバック カタログには kilocode/kilo/auto が同梱されています。ライブ https://api.kilo.ai/api/gateway/models 検出により、ランタイム カタログをさらに拡張できます。
    • kilocode/kilo/auto の背後にある正確なアップストリーム ルーティングは Kilo Gateway が所有しており、OpenClaw にハードコードされていません。

    設定の詳細については /providers/kilocode を参照してください。

    その他のバンドル済みプロバイダー plugin

    プロバイダー Id 認証 env モデル例
    BytePlus byteplus / byteplus-plan BYTEPLUS_API_KEY byteplus-plan/ark-code-latest
    Cerebras cerebras CEREBRAS_API_KEY cerebras/zai-glm-4.7
    Cloudflare AI Gateway cloudflare-ai-gateway CLOUDFLARE_AI_GATEWAY_API_KEY -
    DeepInfra deepinfra DEEPINFRA_API_KEY deepinfra/deepseek-ai/DeepSeek-V3.2
    DeepSeek deepseek DEEPSEEK_API_KEY deepseek/deepseek-v4-flash
    GitHub Copilot github-copilot COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN -
    Groq groq GROQ_API_KEY -
    Hugging Face Inference huggingface HUGGINGFACE_HUB_TOKEN または HF_TOKEN huggingface/deepseek-ai/DeepSeek-R1
    Kilo Gateway kilocode KILOCODE_API_KEY kilocode/kilo/auto
    Kimi Coding kimi KIMI_API_KEY または KIMICODE_API_KEY kimi/kimi-code
    MiniMax minimax / minimax-portal MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN minimax/MiniMax-M2.7
    Mistral mistral MISTRAL_API_KEY mistral/mistral-large-latest
    Moonshot moonshot MOONSHOT_API_KEY moonshot/kimi-k2.6
    NVIDIA nvidia NVIDIA_API_KEY nvidia/nvidia/nemotron-3-super-120b-a12b
    OpenRouter openrouter OPENROUTER_API_KEY openrouter/auto
    Qianfan qianfan QIANFAN_API_KEY qianfan/deepseek-v3.2
    Qwen Cloud qwen QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY qwen/qwen3.5-plus
    StepFun stepfun / stepfun-plan STEPFUN_API_KEY stepfun/step-3.5-flash
    Together together TOGETHER_API_KEY together/moonshotai/Kimi-K2.5
    Venice venice VENICE_API_KEY -
    Vercel AI Gateway vercel-ai-gateway AI_GATEWAY_API_KEY vercel-ai-gateway/anthropic/claude-opus-4.6
    Volcano Engine (Doubao) volcengine / volcengine-plan VOLCANO_ENGINE_API_KEY volcengine-plan/ark-code-latest
    xAI xai XAI_API_KEY xai/grok-4.3
    Xiaomi xiaomi XIAOMI_API_KEY xiaomi/mimo-v2-flash

    知っておくとよい癖

    OpenRouter

    検証済みの openrouter.ai ルートでのみ、アプリ帰属ヘッダーと Anthropic cache_control マーカーを適用します。DeepSeek、Moonshot、ZAI の参照は、OpenRouter 管理のプロンプトキャッシュではキャッシュTTLの対象になりますが、Anthropic キャッシュマーカーは受け取りません。プロキシ形式の OpenAI互換パスとして、ネイティブOpenAI専用の整形(serviceTier、Responses store、プロンプトキャッシュヒント、OpenAI reasoning互換)はスキップします。Geminiバックエンドの参照は、プロキシGeminiの思考シグネチャサニタイズのみを維持します。

    Kilo Gateway

    Geminiバックエンドの参照は同じプロキシGeminiサニタイズパスに従います。kilocode/kilo/auto とその他のプロキシreasoning非対応の参照は、プロキシreasoning注入をスキップします。

    MiniMax

    APIキーのオンボーディングは、明示的なテキスト専用 M2.7 チャットモデル定義を書き込みます。画像理解は Plugin 所有の MiniMax-VL-01 メディアプロバイダーに残ります。

    NVIDIA

    モデルIDは nvidia/<vendor>/<model> 名前空間を使います(例: nvidia/moonshotai/kimi-k2.5 と並ぶ nvidia/nvidia/nemotron-...)。ピッカーはリテラルの <provider>/<model-id> 構成を保持し、API に送信される正規キーは単一プレフィックスのままです。

    xAI

    xAI Responses パスを使用します。grok-4.3 はバンドル既定のチャットモデルです。/fast または params.fastMode: true は、grok-3grok-3-minigrok-4grok-4-0709 をそれぞれの *-fast バリアントに書き換えます。tool_stream は既定で有効です。無効にするには agents.defaults.models["xai/<model>"].params.tool_stream=false を使います。

    Cerebras

    バンドルされた cerebras プロバイダー Plugin として同梱されます。GLM は zai-glm-4.7 を使用します。OpenAI互換のベースURLは https://api.cerebras.ai/v1 です。

    models.providers 経由のプロバイダー(カスタム/ベースURL)

    カスタムプロバイダーまたは OpenAI/Anthropic互換プロキシを追加するには、models.providers(または models.json)を使用します。

    以下のバンドルされたプロバイダー Plugin の多くは、すでに既定のカタログを公開しています。既定のベースURL、ヘッダー、またはモデル一覧を上書きしたい場合にのみ、明示的な models.providers.<id> エントリを使用してください。

    Gateway モデル機能チェックは、明示的な models.providers.<id>.models[] メタデータも読み取ります。カスタムモデルまたはプロキシモデルが画像を受け付ける場合は、そのモデルに input: ["text", "image"] を設定して、WebChat とノード起点の添付ファイルパスが、テキスト専用メディア参照ではなくネイティブモデル入力として画像を渡すようにします。

    Moonshot AI(Kimi)

    Moonshot はバンドルされたプロバイダー Plugin として同梱されます。既定では組み込みプロバイダーを使用し、ベースURLまたはモデルメタデータを上書きする必要がある場合にのみ、明示的な models.providers.moonshot エントリを追加します。

    • プロバイダー: moonshot
    • 認証: MOONSHOT_API_KEY
    • モデル例: moonshot/kimi-k2.6
    • CLI: openclaw onboard --auth-choice moonshot-api-key または openclaw onboard --auth-choice moonshot-api-key-cn

    Kimi K2 モデルID:

    • moonshot/kimi-k2.6
    • moonshot/kimi-k2.5
    • moonshot/kimi-k2-thinking
    • moonshot/kimi-k2-thinking-turbo
    • moonshot/kimi-k2-turbo
    {
      agents: {
        defaults: { model: { primary: "moonshot/kimi-k2.6" } },
      },
      models: {
        mode: "merge",
        providers: {
          moonshot: {
            baseUrl: "https://api.moonshot.ai/v1",
            apiKey: "${MOONSHOT_API_KEY}",
            api: "openai-completions",
            models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
          },
        },
      },
    }
    

    Kimi coding

    Kimi Coding は Moonshot AI の Anthropic互換エンドポイントを使用します。

    • プロバイダー: kimi
    • 認証: KIMI_API_KEY
    • モデル例: kimi/kimi-code
    {
      env: { KIMI_API_KEY: "sk-..." },
      agents: {
        defaults: { model: { primary: "kimi/kimi-code" } },
      },
    }
    

    従来の kimi/k2p5 は互換性モデル ID として引き続き受け付けられます。

    Volcano Engine (Doubao)

    Volcano Engine (火山引擎) は、中国で Doubao やその他のモデルへのアクセスを提供します。

    • プロバイダー: volcengine (コーディング: volcengine-plan)
    • 認証: VOLCANO_ENGINE_API_KEY
    • モデル例: volcengine-plan/ark-code-latest
    • CLI: openclaw onboard --auth-choice volcengine-api-key
    {
      agents: {
        defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
      },
    }
    

    オンボーディングはデフォルトでコーディング面を使用しますが、汎用の volcengine/* カタログも同時に登録されます。

    オンボーディング/設定のモデルピッカーでは、Volcengine の認証選択は volcengine/*volcengine-plan/* の両方の行を優先します。これらのモデルがまだ読み込まれていない場合、OpenClaw は空のプロバイダー範囲のピッカーを表示するのではなく、フィルターされていないカタログにフォールバックします。

    Standard models

    • volcengine/doubao-seed-1-8-251228 (Doubao Seed 1.8)
    • volcengine/doubao-seed-code-preview-251028
    • volcengine/kimi-k2-5-260127 (Kimi K2.5)
    • volcengine/glm-4-7-251222 (GLM 4.7)
    • volcengine/deepseek-v3-2-251201 (DeepSeek V3.2 128K)

    Coding models (volcengine-plan)

    • volcengine-plan/ark-code-latest
    • volcengine-plan/doubao-seed-code
    • volcengine-plan/kimi-k2.5
    • volcengine-plan/kimi-k2-thinking
    • volcengine-plan/glm-4.7

    BytePlus (International)

    BytePlus ARK は、海外ユーザー向けに Volcano Engine と同じモデルへのアクセスを提供します。

    • プロバイダー: byteplus (コーディング: byteplus-plan)
    • 認証: BYTEPLUS_API_KEY
    • モデル例: byteplus-plan/ark-code-latest
    • CLI: openclaw onboard --auth-choice byteplus-api-key
    {
      agents: {
        defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
      },
    }
    

    オンボーディングはデフォルトでコーディング面を使用しますが、汎用の byteplus/* カタログも同時に登録されます。

    オンボーディング/設定のモデルピッカーでは、BytePlus の認証選択は byteplus/*byteplus-plan/* の両方の行を優先します。これらのモデルがまだ読み込まれていない場合、OpenClaw は空のプロバイダー範囲のピッカーを表示するのではなく、フィルターされていないカタログにフォールバックします。

    Standard models

    • byteplus/seed-1-8-251228 (Seed 1.8)
    • byteplus/kimi-k2-5-260127 (Kimi K2.5)
    • byteplus/glm-4-7-251222 (GLM 4.7)

    Coding models (byteplus-plan)

    • byteplus-plan/ark-code-latest
    • byteplus-plan/doubao-seed-code
    • byteplus-plan/kimi-k2.5
    • byteplus-plan/kimi-k2-thinking
    • byteplus-plan/glm-4.7

    Synthetic

    Synthetic は synthetic プロバイダーの背後で Anthropic 互換モデルを提供します。

    • プロバイダー: synthetic
    • 認証: SYNTHETIC_API_KEY
    • モデル例: synthetic/hf:MiniMaxAI/MiniMax-M2.5
    • CLI: openclaw onboard --auth-choice synthetic-api-key
    {
      agents: {
        defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
      },
      models: {
        mode: "merge",
        providers: {
          synthetic: {
            baseUrl: "https://api.synthetic.new/anthropic",
            apiKey: "${SYNTHETIC_API_KEY}",
            api: "anthropic-messages",
            models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
          },
        },
      },
    }
    

    MiniMax

    MiniMax はカスタムエンドポイントを使用するため、models.providers 経由で設定します。

    • MiniMax OAuth (Global): --auth-choice minimax-global-oauth
    • MiniMax OAuth (CN): --auth-choice minimax-cn-oauth
    • MiniMax API key (Global): --auth-choice minimax-global-api
    • MiniMax API key (CN): --auth-choice minimax-cn-api
    • 認証: minimax には MINIMAX_API_KEY; minimax-portal には MINIMAX_OAUTH_TOKEN または MINIMAX_API_KEY

    セットアップの詳細、モデルオプション、設定スニペットについては /providers/minimax を参照してください。

    Plugin 所有の機能分割:

    • テキスト/チャットのデフォルトは minimax/MiniMax-M2.7 のままです
    • 画像生成は minimax/image-01 または minimax-portal/image-01 です
    • 画像理解は、両方の MiniMax 認証パスで Plugin 所有の MiniMax-VL-01 です
    • Web 検索はプロバイダー ID minimax のままです

    LM Studio

    LM Studio は、ネイティブ API を使用するバンドル済みプロバイダー Plugin として同梱されています。

    • プロバイダー: lmstudio
    • 認証: LM_API_TOKEN
    • デフォルトの推論ベース URL: http://localhost:1234/v1

    次にモデルを設定します (http://localhost:1234/api/v1/models から返される ID のいずれかに置き換えてください)。

    {
      agents: {
        defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
      },
    }
    

    OpenClaw は検出 + 自動読み込みに LM Studio のネイティブ /api/v1/models/api/v1/models/load を使用し、デフォルトでは推論に /v1/chat/completions を使用します。モデルライフサイクルを LM Studio の JIT 読み込み、TTL、自動エビクトに任せたい場合は、models.providers.lmstudio.params.preload: false を設定してください。セットアップとトラブルシューティングについては /providers/lmstudio を参照してください。

    Ollama

    Ollama はバンドル済みプロバイダー Plugin として同梱され、Ollama のネイティブ API を使用します。

    • プロバイダー: ollama
    • 認証: 不要 (ローカルサーバー)
    • モデル例: ollama/llama3.3
    • インストール: https://ollama.com/download
    # Install Ollama, then pull a model:
    ollama pull llama3.3
    
    {
      agents: {
        defaults: { model: { primary: "ollama/llama3.3" } },
      },
    }
    

    OLLAMA_API_KEY でオプトインすると、Ollama はローカルの http://127.0.0.1:11434 で検出され、バンドル済みプロバイダー Plugin が Ollama を openclaw onboard とモデルピッカーに直接追加します。オンボーディング、クラウド/ローカルモード、カスタム設定については /providers/ollama を参照してください。

    vLLM

    vLLM は、ローカル/セルフホストの OpenAI 互換サーバー向けのバンドル済みプロバイダー Plugin として同梱されています。

    • プロバイダー: vllm
    • 認証: 任意 (サーバーによって異なります)
    • デフォルトのベース URL: http://127.0.0.1:8000/v1

    ローカルで自動検出にオプトインするには (サーバーが認証を強制しない場合は任意の値で動作します):

    export VLLM_API_KEY="vllm-local"
    

    次にモデルを設定します (/v1/models から返される ID のいずれかに置き換えてください)。

    {
      agents: {
        defaults: { model: { primary: "vllm/your-model-id" } },
      },
    }
    

    詳細については /providers/vllm を参照してください。

    SGLang

    SGLang は、高速なセルフホスト OpenAI 互換サーバー向けのバンドル済みプロバイダー Plugin として同梱されています。

    • プロバイダー: sglang
    • 認証: 任意 (サーバーによって異なります)
    • デフォルトのベース URL: http://127.0.0.1:30000/v1

    ローカルで自動検出にオプトインするには (サーバーが認証を強制しない場合は任意の値で動作します):

    export SGLANG_API_KEY="sglang-local"
    

    次にモデルを設定します (/v1/models から返される ID のいずれかに置き換えてください)。

    {
      agents: {
        defaults: { model: { primary: "sglang/your-model-id" } },
      },
    }
    

    詳細については /providers/sglang を参照してください。

    ローカルプロキシ (LM Studio、vLLM、LiteLLM など)

    例 (OpenAI 互換):

    {
      agents: {
        defaults: {
          model: { primary: "lmstudio/my-local-model" },
          models: { "lmstudio/my-local-model": { alias: "Local" } },
        },
      },
      models: {
        providers: {
          lmstudio: {
            baseUrl: "http://localhost:1234/v1",
            apiKey: "${LM_API_TOKEN}",
            api: "openai-completions",
            timeoutSeconds: 300,
            models: [
              {
                id: "my-local-model",
                name: "Local Model",
                reasoning: false,
                input: ["text"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 200000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
    }
    
    Default optional fields

    カスタムプロバイダーでは、reasoninginputcostcontextWindowmaxTokens は任意です。省略した場合、OpenClaw は以下をデフォルトにします。

    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192

    推奨: プロキシ/モデルの制限に一致する明示的な値を設定してください。

    Proxy-route shaping rules
    • 非ネイティブエンドポイント (ホストが api.openai.com ではない、空でない baseUrl) で api: "openai-completions" を使用する場合、OpenClaw は未対応の developer ロールによるプロバイダー 400 エラーを避けるため、compat.supportsDeveloperRole: false を強制します。
    • プロキシ形式の OpenAI 互換ルートでは、ネイティブ OpenAI 専用のリクエスト整形もスキップされます。service_tier なし、Responses の store なし、Completions の store なし、プロンプトキャッシュのヒントなし、OpenAI reasoning 互換ペイロード整形なし、非表示の OpenClaw 帰属ヘッダーなしです。
    • ベンダー固有フィールドが必要な OpenAI 互換 Completions プロキシでは、agents.defaults.models["provider/model"].params.extra_body (または extraBody) を設定して、送信リクエスト本文に追加 JSON をマージします。
    • vLLM のチャットテンプレート制御では、agents.defaults.models["provider/model"].params.chat_template_kwargs を設定します。バンドル済みの vLLM Plugin は、セッションの thinking レベルがオフの場合、vllm/nemotron-3-* に対して enable_thinking: falseforce_nonempty_content: true を自動的に送信します。
    • 遅いローカルモデルやリモート LAN/tailnet ホストでは、models.providers.<id>.timeoutSeconds を設定します。これにより、エージェントランタイム全体のタイムアウトを増やさずに、接続、ヘッダー、本文ストリーミング、保護付き fetch 全体の中断を含む、プロバイダーモデルの HTTP リクエスト処理が延長されます。
    • モデルプロバイダーの HTTP 呼び出しでは、設定されたプロバイダー baseUrl のホスト名に対してのみ、198.18.0.0/15fc00::/7 の Surge、Clash、sing-box fake-IP DNS 応答を許可します。その他のプライベート、ループバック、リンクローカル、メタデータ宛先には、引き続き明示的な models.providers.<id>.request.allowPrivateNetwork: true のオプトインが必要です。
    • baseUrl が空または省略されている場合、OpenClaw はデフォルトの OpenAI 動作 (api.openai.com に解決されます) を維持します。
    • 安全のため、非ネイティブの openai-completions エンドポイントでは、明示的な compat.supportsDeveloperRole: true も引き続き上書きされます。
    • 非直接エンドポイント (標準の anthropic 以外の任意のプロバイダー、またはホストが公開 api.anthropic.com エンドポイントではないカスタム models.providers.anthropic.baseUrl) で api: "anthropic-messages" を使用する場合、OpenClaw は claude-code-20250219interleaved-thinking-2025-05-14、OAuth マーカーなどの暗黙的な Anthropic ベータヘッダーを抑制し、カスタム Anthropic 互換プロキシが未対応のベータフラグを拒否しないようにします。プロキシに特定のベータ機能が必要な場合は、models.providers.<id>.headers["anthropic-beta"] を明示的に設定してください。

    CLI の例

    openclaw onboard --auth-choice opencode-zen
    openclaw models set opencode/claude-opus-4-6
    openclaw models list
    

    完全な設定例については、設定 も参照してください。

    関連