Overview

Schnellstart für Modell-Provider

OpenClaw kann viele LLM-Provider verwenden. Wählen Sie einen aus, authentifizieren Sie sich und legen Sie dann das Standardmodell als provider/model fest.

Schnellstart (zwei Schritte)

  1. Authentifizieren Sie sich beim Provider (meist über openclaw onboard).
  2. Legen Sie das Standardmodell fest:
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

Unterstützte Provider (Starter-Auswahl)

Zusätzliche gebündelte Provider-Varianten

  • anthropic-vertex - implizite Unterstützung für Anthropic auf Google Vertex, wenn Vertex-Anmeldedaten verfügbar sind; keine separate Onboarding-Authentifizierungsauswahl
  • copilot-proxy - lokale VS Code Copilot Proxy-Brücke; verwenden Sie openclaw onboard --auth-choice copilot-proxy
  • google-gemini-cli - inoffizieller Gemini CLI-OAuth-Ablauf; erfordert eine lokale gemini-Installation (brew install gemini-cli oder npm install -g @google/gemini-cli); Standardmodell google-gemini-cli/gemini-3-flash-preview; verwenden Sie openclaw onboard --auth-choice google-gemini-cli oder openclaw models auth login --provider google-gemini-cli --set-default

Den vollständigen Provider-Katalog (xAI, Groq, Mistral usw.) und erweiterte Konfiguration finden Sie unter Modell-Provider.

Verwandt