Providers

LiteLLM

LiteLLM to otwartoźródłowy LLM gateway, który zapewnia ujednolicone API do ponad 100 dostawców modeli. Kieruj OpenClaw przez LiteLLM, aby uzyskać scentralizowane śledzenie kosztów, logowanie oraz elastyczność przełączania backendów bez zmiany konfiguracji OpenClaw.

Szybki start

Onboarding (recommended)

Najlepsze dla: najszybszej ścieżki do działającej konfiguracji LiteLLM.

  • Run onboarding

    openclaw onboard --auth-choice litellm-api-key
    

    W przypadku nieinteraktywnej konfiguracji zdalnego proxy przekaż jawnie URL proxy:

    openclaw onboard --non-interactive --auth-choice litellm-api-key --litellm-api-key "$LITELLM_API_KEY" --custom-base-url "https://litellm.example/v1"
    
  • Manual setup

    Najlepsze dla: pełnej kontroli nad instalacją i konfiguracją.

  • Start LiteLLM Proxy

    pip install 'litellm[proxy]'
    litellm --model claude-opus-4-6
    
  • Point OpenClaw to LiteLLM

    export LITELLM_API_KEY="your-litellm-key"
    
    openclaw
    

    To wszystko. OpenClaw kieruje teraz ruch przez LiteLLM.

  • Konfiguracja

    Zmienne środowiskowe

    export LITELLM_API_KEY="sk-litellm-key"
    

    Plik konfiguracyjny

    {
      models: {
        providers: {
          litellm: {
            baseUrl: "http://localhost:4000",
            apiKey: "${LITELLM_API_KEY}",
            api: "openai-completions",
            models: [
              {
                id: "claude-opus-4-6",
                name: "Claude Opus 4.6",
                reasoning: true,
                input: ["text", "image"],
                contextWindow: 200000,
                maxTokens: 64000,
              },
              {
                id: "gpt-4o",
                name: "GPT-4o",
                reasoning: false,
                input: ["text", "image"],
                contextWindow: 128000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
      agents: {
        defaults: {
          model: { primary: "litellm/claude-opus-4-6" },
        },
      },
    }
    

    Konfiguracja zaawansowana

    Generowanie obrazów

    LiteLLM może też obsługiwać narzędzie image_generate za pośrednictwem zgodnych z OpenAI tras /images/generations i /images/edits. Skonfiguruj model obrazów LiteLLM w agents.defaults.imageGenerationModel:

    {
      models: {
        providers: {
          litellm: {
            baseUrl: "http://localhost:4000",
            apiKey: "${LITELLM_API_KEY}",
          },
        },
      },
      agents: {
        defaults: {
          imageGenerationModel: {
            primary: "litellm/gpt-image-2",
            timeoutMs: 180_000,
          },
        },
      },
    }
    

    Adresy URL LiteLLM dla local loopback, takie jak http://localhost:4000, działają bez globalnego nadpisania sieci prywatnej. W przypadku proxy hostowanego w sieci LAN ustaw models.providers.litellm.request.allowPrivateNetwork: true, ponieważ klucz API zostanie wysłany do skonfigurowanego hosta proxy.

    Virtual keys

    Utwórz dedykowany klucz dla OpenClaw z limitami wydatków:

    curl -X POST "http://localhost:4000/key/generate" \
      -H "Authorization: Bearer $LITELLM_MASTER_KEY" \
      -H "Content-Type: application/json" \
      -d '{
        "key_alias": "openclaw",
        "max_budget": 50.00,
        "budget_duration": "monthly"
      }'
    

    Użyj wygenerowanego klucza jako LITELLM_API_KEY.

    Model routing

    LiteLLM może kierować żądania modeli do różnych backendów. Skonfiguruj to w pliku LiteLLM config.yaml:

    model_list:
      - model_name: claude-opus-4-6
        litellm_params:
          model: claude-opus-4-6
          api_key: os.environ/ANTHROPIC_API_KEY
    
      - model_name: gpt-4o
        litellm_params:
          model: gpt-4o
          api_key: os.environ/OPENAI_API_KEY
    

    OpenClaw nadal żąda claude-opus-4-6 — LiteLLM obsługuje routing.

    Viewing usage

    Sprawdź pulpit LiteLLM lub API:

    # Key info
    curl "http://localhost:4000/key/info" \
      -H "Authorization: Bearer sk-litellm-key"
    
    # Spend logs
    curl "http://localhost:4000/spend/logs" \
      -H "Authorization: Bearer $LITELLM_MASTER_KEY"
    
    Proxy behavior notes
    • LiteLLM domyślnie działa pod adresem http://localhost:4000
    • OpenClaw łączy się przez zgodny z OpenAI endpoint /v1 LiteLLM w stylu proxy
    • Natywne kształtowanie żądań tylko dla OpenAI nie ma zastosowania przez LiteLLM: brak service_tier, brak Responses store, brak wskazówek pamięci podręcznej promptów i brak kształtowania payloadu zgodnego z rozumowaniem OpenAI
    • Ukryte nagłówki atrybucji OpenClaw (originator, version, User-Agent) nie są wstrzykiwane dla niestandardowych bazowych adresów URL LiteLLM

    Powiązane