Overview
モデルプロバイダーのクイックスタート
OpenClaw は多くの LLM プロバイダーを使用できます。1 つ選び、認証してから、既定の
モデルを provider/model として設定します。
クイックスタート(2 ステップ)
- プロバイダーで認証します(通常は
openclaw onboard経由)。 - 既定のモデルを設定します。
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
サポートされるプロバイダー(スターターセット)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (International)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- GLM モデル
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
追加の同梱プロバイダーバリアント
anthropic-vertex- Vertex 認証情報が利用可能な場合の、Google Vertex 上の Anthropic の暗黙的なサポート。別個のオンボーディング認証選択肢はありませんcopilot-proxy- ローカルの VS Code Copilot Proxy ブリッジ。openclaw onboard --auth-choice copilot-proxyを使用しますgoogle-gemini-cli- 非公式の Gemini CLI OAuth フロー。ローカルのgeminiインストールが必要です(brew install gemini-cliまたはnpm install -g @google/gemini-cli)。既定のモデルはgoogle-gemini-cli/gemini-3-flash-previewです。openclaw onboard --auth-choice google-gemini-cliまたはopenclaw models auth login --provider google-gemini-cli --set-defaultを使用します
完全なプロバイダーカタログ(xAI、Groq、Mistral など)と高度な設定については、 モデルプロバイダーを参照してください。