Providers

LiteLLM

LiteLLM은 100개 이상의 모델 제공업체에 통합 API를 제공하는 오픈 소스 LLM Gateway입니다. OpenClaw를 LiteLLM을 통해 라우팅하면 중앙 집중식 비용 추적, 로깅, 그리고 OpenClaw 설정을 변경하지 않고 백엔드를 전환할 수 있는 유연성을 얻을 수 있습니다.

빠른 시작

Onboarding(권장)

적합한 경우: 작동하는 LiteLLM 설정으로 가는 가장 빠른 경로.

  • Onboarding 실행

    openclaw onboard --auth-choice litellm-api-key
    

    원격 프록시에 대해 비대화형 설정을 하려면 프록시 URL을 명시적으로 전달하세요.

    openclaw onboard --non-interactive --auth-choice litellm-api-key --litellm-api-key "$LITELLM_API_KEY" --custom-base-url "https://litellm.example/v1"
    
  • 수동 설정

    적합한 경우: 설치와 설정을 완전히 제어해야 하는 경우.

  • LiteLLM 프록시 시작

    pip install 'litellm[proxy]'
    litellm --model claude-opus-4-6
    
  • OpenClaw가 LiteLLM을 가리키도록 설정

    export LITELLM_API_KEY="your-litellm-key"
    
    openclaw
    

    이것으로 끝입니다. 이제 OpenClaw는 LiteLLM을 통해 라우팅됩니다.

  • 설정

    환경 변수

    export LITELLM_API_KEY="sk-litellm-key"
    

    설정 파일

    {
      models: {
        providers: {
          litellm: {
            baseUrl: "http://localhost:4000",
            apiKey: "${LITELLM_API_KEY}",
            api: "openai-completions",
            models: [
              {
                id: "claude-opus-4-6",
                name: "Claude Opus 4.6",
                reasoning: true,
                input: ["text", "image"],
                contextWindow: 200000,
                maxTokens: 64000,
              },
              {
                id: "gpt-4o",
                name: "GPT-4o",
                reasoning: false,
                input: ["text", "image"],
                contextWindow: 128000,
                maxTokens: 8192,
              },
            ],
          },
        },
      },
      agents: {
        defaults: {
          model: { primary: "litellm/claude-opus-4-6" },
        },
      },
    }
    

    고급 설정

    이미지 생성

    LiteLLM은 OpenAI 호환 /images/generations/images/edits 경로를 통해 OpenClaw의 image_generate 도구도 지원할 수 있습니다. agents.defaults.imageGenerationModel 아래에 LiteLLM 이미지 모델을 설정하세요.

    {
      models: {
        providers: {
          litellm: {
            baseUrl: "http://localhost:4000",
            apiKey: "${LITELLM_API_KEY}",
          },
        },
      },
      agents: {
        defaults: {
          imageGenerationModel: {
            primary: "litellm/gpt-image-2",
            timeoutMs: 180_000,
          },
        },
      },
    }
    

    http://localhost:4000 같은 loopback LiteLLM URL은 전역 사설 네트워크 재정의 없이 작동합니다. LAN에서 호스팅되는 프록시의 경우 API 키가 설정된 프록시 호스트로 전송되므로 models.providers.litellm.request.allowPrivateNetwork: true를 설정하세요.

    가상 키

    지출 한도가 있는 OpenClaw 전용 키를 생성하세요.

    curl -X POST "http://localhost:4000/key/generate" \
      -H "Authorization: Bearer $LITELLM_MASTER_KEY" \
      -H "Content-Type: application/json" \
      -d '{
        "key_alias": "openclaw",
        "max_budget": 50.00,
        "budget_duration": "monthly"
      }'
    

    생성된 키를 LITELLM_API_KEY로 사용하세요.

    모델 라우팅

    LiteLLM은 모델 요청을 다른 백엔드로 라우팅할 수 있습니다. LiteLLM config.yaml에서 설정하세요.

    model_list:
      - model_name: claude-opus-4-6
        litellm_params:
          model: claude-opus-4-6
          api_key: os.environ/ANTHROPIC_API_KEY
    
      - model_name: gpt-4o
        litellm_params:
          model: gpt-4o
          api_key: os.environ/OPENAI_API_KEY
    

    OpenClaw는 계속 claude-opus-4-6을 요청하고, LiteLLM이 라우팅을 처리합니다.

    사용량 보기

    LiteLLM의 대시보드 또는 API를 확인하세요.

    # Key info
    curl "http://localhost:4000/key/info" \
      -H "Authorization: Bearer sk-litellm-key"
    
    # Spend logs
    curl "http://localhost:4000/spend/logs" \
      -H "Authorization: Bearer $LITELLM_MASTER_KEY"
    
    프록시 동작 참고 사항
    • LiteLLM은 기본적으로 http://localhost:4000에서 실행됩니다
    • OpenClaw는 LiteLLM의 프록시 스타일 OpenAI 호환 /v1 엔드포인트를 통해 연결됩니다
    • LiteLLM을 통해서는 네이티브 OpenAI 전용 요청 형태 조정이 적용되지 않습니다: service_tier 없음, Responses store 없음, prompt-cache 힌트 없음, 그리고 OpenAI 추론 호환 페이로드 형태 조정 없음
    • 사용자 지정 LiteLLM 기본 URL에는 숨겨진 OpenClaw 기여도 헤더(originator, version, User-Agent)가 삽입되지 않습니다

    관련 항목