Overview
คู่มือเริ่มต้นใช้งานผู้ให้บริการโมเดลอย่างรวดเร็ว
OpenClaw สามารถใช้ผู้ให้บริการ LLM ได้หลายราย เลือกหนึ่งราย ยืนยันตัวตน แล้วตั้งค่าโมเดลเริ่มต้น
เป็น provider/model
เริ่มต้นอย่างรวดเร็ว (สองขั้นตอน)
- ยืนยันตัวตนกับผู้ให้บริการ (โดยทั่วไปผ่าน
openclaw onboard) - ตั้งค่าโมเดลเริ่มต้น:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
ผู้ให้บริการที่รองรับ (ชุดเริ่มต้น)
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (International)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepInfra
- fal
- Fireworks
- โมเดล GLM
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
ตัวแปรผู้ให้บริการเพิ่มเติมที่รวมมาให้
anthropic-vertex- รองรับ Anthropic แบบนัยบน Google Vertex เมื่อมีข้อมูลประจำตัวของ Vertex; ไม่มีตัวเลือกการยืนยันตัวตนสำหรับการเริ่มต้นใช้งานแยกต่างหากcopilot-proxy- บริดจ์ VS Code Copilot Proxy ภายในเครื่อง; ใช้openclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- โฟลว์ OAuth ของ Gemini CLI แบบไม่เป็นทางการ; ต้องติดตั้งgeminiไว้ในเครื่อง (brew install gemini-cliหรือnpm install -g @google/gemini-cli); โมเดลเริ่มต้นgoogle-gemini-cli/gemini-3-flash-preview; ใช้openclaw onboard --auth-choice google-gemini-cliหรือopenclaw models auth login --provider google-gemini-cli --set-default
สำหรับแค็ตตาล็อกผู้ให้บริการทั้งหมด (xAI, Groq, Mistral ฯลฯ) และการกำหนดค่าขั้นสูง ดู ผู้ให้บริการโมเดล