Overview
모델 제공자 빠른 시작
OpenClaw는 다양한 LLM 제공업체를 사용할 수 있습니다. 하나를 선택하고 인증한 다음 기본 모델을 provider/model로 설정하세요.
빠른 시작(두 단계)
- 제공업체로 인증합니다(보통
openclaw onboard를 통해). - 기본 모델을 설정합니다.
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
지원되는 제공업체(시작 세트)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic(API + Claude CLI)
- BytePlus(International)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- GLM models
- MiniMax
- Mistral
- Moonshot AI(Kimi + Kimi Coding)
- OpenAI(API + Codex)
- OpenCode(Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice(Venice AI)
- xAI
- Z.AI
추가 번들 제공업체 변형
anthropic-vertex- Vertex 자격 증명을 사용할 수 있을 때 Google Vertex에서 암시적으로 Anthropic을 지원합니다. 별도의 온보딩 인증 선택지는 없습니다.copilot-proxy- 로컬 VS Code Copilot Proxy 브리지입니다.openclaw onboard --auth-choice copilot-proxy를 사용하세요.google-gemini-cli- 비공식 Gemini CLI OAuth 흐름입니다. 로컬gemini설치가 필요합니다(brew install gemini-cli또는npm install -g @google/gemini-cli). 기본 모델은google-gemini-cli/gemini-3-flash-preview입니다.openclaw onboard --auth-choice google-gemini-cli또는openclaw models auth login --provider google-gemini-cli --set-default를 사용하세요.
전체 제공업체 카탈로그(xAI, Groq, Mistral 등)와 고급 구성은 모델 제공업체를 참조하세요.