Providers

LiteLLM

LiteLLM est un Gateway LLM open source qui fournit une API unifiée pour plus de 100 fournisseurs de modèles. Faites passer OpenClaw par LiteLLM pour bénéficier d’un suivi centralisé des coûts, de la journalisation et de la flexibilité nécessaire pour changer de backend sans modifier votre configuration OpenClaw.

Démarrage rapide

Onboarding (recommended)

Idéal pour : le chemin le plus rapide vers une configuration LiteLLM fonctionnelle.

  • Run onboarding

    openclaw onboard --auth-choice litellm-api-key
    

    Pour une configuration non interactive avec un proxy distant, transmettez explicitement l’URL du proxy :

    openclaw onboard --non-interactive --auth-choice litellm-api-key --litellm-api-key "$LITELLM_API_KEY" --custom-base-url "https://litellm.example/v1"
    
  • Manual setup

    Idéal pour : un contrôle complet de l’installation et de la configuration.

  • Start LiteLLM Proxy

    pip install 'litellm[proxy]'
    litellm --model claude-opus-4-6
    
  • Point OpenClaw to LiteLLM

    export LITELLM_API_KEY="your-litellm-key"
    
    openclaw
    

    C’est tout. OpenClaw passe désormais par LiteLLM.

  • Configuration

    Variables d’environnement

    export LITELLM_API_KEY="sk-litellm-key"
    

    Fichier de configuration

    {
      models: {
        providers: {
          litellm: {
            baseUrl: "http://localhost:4000",
            apiKey: "${LITELLM_API_KEY}",
            api: "openai-completions",
            models: [
              {
                id: "claude-opus-4-6",
                name: "Claude Opus 4.6",
                reasoning: true,
                input: ["text", "image"],
                contextWindow: 200000,
                maxTokens: 64000,
              },
              {
                id: "gpt-4o",
                name: "GPT-4o",
                reasoning: false,
                input: ["text", "image"],
                contextWindow: 128000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
      agents: {
        defaults: {
          model: { primary: "litellm/claude-opus-4-6" },
        },
      },
    }
    

    Configuration avancée

    Génération d’images

    LiteLLM peut également prendre en charge l’outil image_generate via les routes /images/generations et /images/edits compatibles avec OpenAI. Configurez un modèle d’image LiteLLM sous agents.defaults.imageGenerationModel :

    {
      models: {
        providers: {
          litellm: {
            baseUrl: "http://localhost:4000",
            apiKey: "${LITELLM_API_KEY}",
          },
        },
      },
      agents: {
        defaults: {
          imageGenerationModel: {
            primary: "litellm/gpt-image-2",
            timeoutMs: 180_000,
          },
        },
      },
    }
    

    Les URL LiteLLM en loopback comme http://localhost:4000 fonctionnent sans dérogation globale pour le réseau privé. Pour un proxy hébergé sur le LAN, définissez models.providers.litellm.request.allowPrivateNetwork: true, car la clé API sera envoyée à l’hôte proxy configuré.

    Virtual keys

    Créez une clé dédiée pour OpenClaw avec des limites de dépenses :

    curl -X POST "http://localhost:4000/key/generate" \
      -H "Authorization: Bearer $LITELLM_MASTER_KEY" \
      -H "Content-Type: application/json" \
      -d '{
        "key_alias": "openclaw",
        "max_budget": 50.00,
        "budget_duration": "monthly"
      }'
    

    Utilisez la clé générée comme LITELLM_API_KEY.

    Model routing

    LiteLLM peut acheminer les requêtes de modèles vers différents backends. Configurez-le dans votre config.yaml LiteLLM :

    model_list:
      - model_name: claude-opus-4-6
        litellm_params:
          model: claude-opus-4-6
          api_key: os.environ/ANTHROPIC_API_KEY
    
      - model_name: gpt-4o
        litellm_params:
          model: gpt-4o
          api_key: os.environ/OPENAI_API_KEY
    

    OpenClaw continue de demander claude-opus-4-6 — LiteLLM gère le routage.

    Viewing usage

    Consultez le tableau de bord ou l’API de LiteLLM :

    # Key info
    curl "http://localhost:4000/key/info" \
      -H "Authorization: Bearer sk-litellm-key"
    
    # Spend logs
    curl "http://localhost:4000/spend/logs" \
      -H "Authorization: Bearer $LITELLM_MASTER_KEY"
    
    Proxy behavior notes
    • LiteLLM s’exécute par défaut sur http://localhost:4000
    • OpenClaw se connecte via l’endpoint /v1 compatible OpenAI de style proxy de LiteLLM
    • La mise en forme des requêtes propre à OpenAI ne s’applique pas via LiteLLM : pas de service_tier, pas de store Responses, pas d’indications de cache de prompt, et pas de mise en forme de charge utile compatible avec le raisonnement OpenAI
    • Les en-têtes d’attribution OpenClaw masqués (originator, version, User-Agent) ne sont pas injectés sur les URL de base LiteLLM personnalisées

    Connexe