Providers
LiteLLM
LiteLLM은 100개 이상의 모델 제공업체에 통합 API를 제공하는 오픈 소스 LLM Gateway입니다. OpenClaw를 LiteLLM을 통해 라우팅하면 중앙 집중식 비용 추적, 로깅, 그리고 OpenClaw 설정을 변경하지 않고 백엔드를 전환할 수 있는 유연성을 얻을 수 있습니다.
빠른 시작
Onboarding(권장)
적합한 경우: 작동하는 LiteLLM 설정으로 가는 가장 빠른 경로.
Onboarding 실행
openclaw onboard --auth-choice litellm-api-key
원격 프록시에 대해 비대화형 설정을 하려면 프록시 URL을 명시적으로 전달하세요.
openclaw onboard --non-interactive --auth-choice litellm-api-key --litellm-api-key "$LITELLM_API_KEY" --custom-base-url "https://litellm.example/v1"
수동 설정
적합한 경우: 설치와 설정을 완전히 제어해야 하는 경우.
LiteLLM 프록시 시작
pip install 'litellm[proxy]'
litellm --model claude-opus-4-6
OpenClaw가 LiteLLM을 가리키도록 설정
export LITELLM_API_KEY="your-litellm-key"
openclaw
이것으로 끝입니다. 이제 OpenClaw는 LiteLLM을 통해 라우팅됩니다.
설정
환경 변수
export LITELLM_API_KEY="sk-litellm-key"
설정 파일
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
api: "openai-completions",
models: [
{
id: "claude-opus-4-6",
name: "Claude Opus 4.6",
reasoning: true,
input: ["text", "image"],
contextWindow: 200000,
maxTokens: 64000,
},
{
id: "gpt-4o",
name: "GPT-4o",
reasoning: false,
input: ["text", "image"],
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
agents: {
defaults: {
model: { primary: "litellm/claude-opus-4-6" },
},
},
}
고급 설정
이미지 생성
LiteLLM은 OpenAI 호환
/images/generations 및 /images/edits 경로를 통해 OpenClaw의 image_generate 도구도 지원할 수 있습니다. agents.defaults.imageGenerationModel 아래에 LiteLLM 이미지
모델을 설정하세요.
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
},
},
},
agents: {
defaults: {
imageGenerationModel: {
primary: "litellm/gpt-image-2",
timeoutMs: 180_000,
},
},
},
}
http://localhost:4000 같은 loopback LiteLLM URL은 전역
사설 네트워크 재정의 없이 작동합니다. LAN에서 호스팅되는 프록시의 경우 API 키가
설정된 프록시 호스트로 전송되므로
models.providers.litellm.request.allowPrivateNetwork: true를 설정하세요.
가상 키
지출 한도가 있는 OpenClaw 전용 키를 생성하세요.
curl -X POST "http://localhost:4000/key/generate" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY" \
-H "Content-Type: application/json" \
-d '{
"key_alias": "openclaw",
"max_budget": 50.00,
"budget_duration": "monthly"
}'
생성된 키를 LITELLM_API_KEY로 사용하세요.
모델 라우팅
LiteLLM은 모델 요청을 다른 백엔드로 라우팅할 수 있습니다. LiteLLM config.yaml에서 설정하세요.
model_list:
- model_name: claude-opus-4-6
litellm_params:
model: claude-opus-4-6
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gpt-4o
litellm_params:
model: gpt-4o
api_key: os.environ/OPENAI_API_KEY
OpenClaw는 계속 claude-opus-4-6을 요청하고, LiteLLM이 라우팅을 처리합니다.
사용량 보기
LiteLLM의 대시보드 또는 API를 확인하세요.
# Key info
curl "http://localhost:4000/key/info" \
-H "Authorization: Bearer sk-litellm-key"
# Spend logs
curl "http://localhost:4000/spend/logs" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY"
프록시 동작 참고 사항
- LiteLLM은 기본적으로
http://localhost:4000에서 실행됩니다 - OpenClaw는 LiteLLM의 프록시 스타일 OpenAI 호환
/v1엔드포인트를 통해 연결됩니다 - LiteLLM을 통해서는 네이티브 OpenAI 전용 요청 형태 조정이 적용되지 않습니다:
service_tier없음, Responsesstore없음, prompt-cache 힌트 없음, 그리고 OpenAI 추론 호환 페이로드 형태 조정 없음 - 사용자 지정 LiteLLM 기본 URL에는 숨겨진 OpenClaw 기여도 헤더(
originator,version,User-Agent)가 삽입되지 않습니다