Providers

LiteLLM

LiteLLM ist ein Open-Source-LLM-Gateway, das eine einheitliche API für mehr als 100 Modell-Provider bereitstellt. Leiten Sie OpenClaw über LiteLLM, um zentrale Kostenerfassung, Logging und die Flexibilität zu erhalten, Backends zu wechseln, ohne Ihre OpenClaw-Konfiguration zu ändern.

Schnellstart

Onboarding (empfohlen)

Am besten geeignet für: den schnellsten Weg zu einer funktionierenden LiteLLM-Einrichtung.

  • Onboarding ausführen

    openclaw onboard --auth-choice litellm-api-key
    

    Für eine nicht interaktive Einrichtung mit einem Remote-Proxy übergeben Sie die Proxy-URL explizit:

    openclaw onboard --non-interactive --auth-choice litellm-api-key --litellm-api-key "$LITELLM_API_KEY" --custom-base-url "https://litellm.example/v1"
    
  • Manuelle Einrichtung

    Am besten geeignet für: vollständige Kontrolle über Installation und Konfiguration.

  • LiteLLM-Proxy starten

    pip install 'litellm[proxy]'
    litellm --model claude-opus-4-6
    
  • OpenClaw auf LiteLLM ausrichten

    export LITELLM_API_KEY="your-litellm-key"
    
    openclaw
    

    Das war's. OpenClaw leitet jetzt über LiteLLM weiter.

  • Konfiguration

    Umgebungsvariablen

    export LITELLM_API_KEY="sk-litellm-key"
    

    Konfigurationsdatei

    {
      models: {
        providers: {
          litellm: {
            baseUrl: "http://localhost:4000",
            apiKey: "${LITELLM_API_KEY}",
            api: "openai-completions",
            models: [
              {
                id: "claude-opus-4-6",
                name: "Claude Opus 4.6",
                reasoning: true,
                input: ["text", "image"],
                contextWindow: 200000,
                maxTokens: 64000,
              },
              {
                id: "gpt-4o",
                name: "GPT-4o",
                reasoning: false,
                input: ["text", "image"],
                contextWindow: 128000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
      agents: {
        defaults: {
          model: { primary: "litellm/claude-opus-4-6" },
        },
      },
    }
    

    Erweiterte Konfiguration

    Bilderzeugung

    LiteLLM kann auch das Tool image_generate über OpenAI-kompatible /images/generations- und /images/edits-Routen für OpenClaw bereitstellen. Konfigurieren Sie ein LiteLLM-Bildmodell unter agents.defaults.imageGenerationModel:

    {
      models: {
        providers: {
          litellm: {
            baseUrl: "http://localhost:4000",
            apiKey: "${LITELLM_API_KEY}",
          },
        },
      },
      agents: {
        defaults: {
          imageGenerationModel: {
            primary: "litellm/gpt-image-2",
            timeoutMs: 180_000,
          },
        },
      },
    }
    

    Loopback-LiteLLM-URLs wie http://localhost:4000 funktionieren ohne globale Private-Network-Überschreibung. Legen Sie für einen im LAN gehosteten Proxy models.providers.litellm.request.allowPrivateNetwork: true fest, da der API-Schlüssel an den konfigurierten Proxy-Host gesendet wird.

    Virtuelle Schlüssel

    Erstellen Sie einen dedizierten Schlüssel für OpenClaw mit Ausgabenlimits:

    curl -X POST "http://localhost:4000/key/generate" \
      -H "Authorization: Bearer $LITELLM_MASTER_KEY" \
      -H "Content-Type: application/json" \
      -d '{
        "key_alias": "openclaw",
        "max_budget": 50.00,
        "budget_duration": "monthly"
      }'
    

    Verwenden Sie den generierten Schlüssel als LITELLM_API_KEY.

    Modell-Routing

    LiteLLM kann Modellanfragen an verschiedene Backends weiterleiten. Konfigurieren Sie dies in Ihrer LiteLLM-config.yaml:

    model_list:
      - model_name: claude-opus-4-6
        litellm_params:
          model: claude-opus-4-6
          api_key: os.environ/ANTHROPIC_API_KEY
    
      - model_name: gpt-4o
        litellm_params:
          model: gpt-4o
          api_key: os.environ/OPENAI_API_KEY
    

    OpenClaw fordert weiterhin claude-opus-4-6 an — LiteLLM übernimmt das Routing.

    Nutzung anzeigen

    Prüfen Sie das Dashboard oder die API von LiteLLM:

    # Key info
    curl "http://localhost:4000/key/info" \
      -H "Authorization: Bearer sk-litellm-key"
    
    # Spend logs
    curl "http://localhost:4000/spend/logs" \
      -H "Authorization: Bearer $LITELLM_MASTER_KEY"
    
    Hinweise zum Proxy-Verhalten
    • LiteLLM läuft standardmäßig auf http://localhost:4000
    • OpenClaw verbindet sich über den Proxy-artigen OpenAI-kompatiblen /v1-Endpunkt von LiteLLM
    • Reine native OpenAI-Anfrageformung gilt nicht über LiteLLM: kein service_tier, kein Responses-store, keine Prompt-Cache-Hinweise und keine OpenAI-Reasoning-Kompatibilitäts-Payload-Formung
    • Verdeckte OpenClaw-Attributions-Header (originator, version, User-Agent) werden bei benutzerdefinierten LiteLLM-Basis-URLs nicht eingefügt

    Verwandte Themen