Gateway
구성 — 도구 및 사용자 지정 공급자
tools.* config 키와 사용자 지정 공급자 / 기본 URL 설정입니다. 에이전트, 채널 및 기타 최상위 config 키는 구성 참조를 참조하세요.
도구
도구 프로필
tools.profile은 tools.allow/tools.deny 전에 기본 허용 목록을 설정합니다.
| 프로필 | 포함 항목 |
|---|---|
minimal |
session_status만 |
coding |
group:fs, group:runtime, group:web, group:sessions, group:memory, cron, image, image_generate, video_generate |
messaging |
group:messaging, sessions_list, sessions_history, sessions_send, session_status |
full |
제한 없음(설정되지 않은 경우와 동일) |
도구 그룹
| 그룹 | 도구 |
|---|---|
group:runtime |
exec, process, code_execution (bash는 exec의 별칭으로 허용됨) |
group:fs |
read, write, edit, apply_patch |
group:sessions |
sessions_list, sessions_history, sessions_send, sessions_spawn, sessions_yield, subagents, session_status |
group:memory |
memory_search, memory_get |
group:web |
web_search, x_search, web_fetch |
group:ui |
browser, canvas |
group:automation |
heartbeat_respond, cron, gateway |
group:messaging |
message |
group:nodes |
nodes |
group:agents |
agents_list, update_plan |
group:media |
image, image_generate, music_generate, video_generate, tts |
group:openclaw |
모든 기본 제공 도구(공급자 plugins 제외) |
tools.allow / tools.deny
전역 도구 허용/거부 정책입니다(거부가 우선). 대소문자를 구분하지 않으며, * 와일드카드를 지원합니다. Docker 샌드박스가 꺼져 있어도 적용됩니다.
{
tools: { deny: ["browser", "canvas"] },
}
write와 apply_patch는 별도의 도구 ID입니다. allow: ["write"]는 호환되는 모델에서 apply_patch도 활성화하지만, deny: ["write"]는 apply_patch를 거부하지 않습니다. 모든 파일 변경을 차단하려면 group:fs를 거부하거나 각 변경 도구를 명시적으로 나열하세요.
{
tools: { deny: ["write", "edit", "apply_patch"] },
}
tools.byProvider
특정 공급자 또는 모델에 대해 도구를 추가로 제한합니다. 순서: 기본 프로필 → 공급자 프로필 → 허용/거부.
{
tools: {
profile: "coding",
byProvider: {
"google-antigravity": { profile: "minimal" },
"openai/gpt-5.4": { allow: ["group:fs", "sessions_list"] },
},
},
}
tools.elevated
샌드박스 외부의 승격된 exec 접근을 제어합니다.
{
tools: {
elevated: {
enabled: true,
allowFrom: {
whatsapp: ["+15555550123"],
discord: ["1234567890123", "987654321098765432"],
},
},
},
}
- 에이전트별 재정의(
agents.list[].tools.elevated)는 더 제한하는 것만 가능합니다. /elevated on|off|ask|full은 세션별로 상태를 저장하며, 인라인 지시문은 단일 메시지에 적용됩니다.- 승격된
exec는 샌드박싱을 우회하고 구성된 탈출 경로(기본값은gateway, exec 대상이node인 경우node)를 사용합니다.
tools.exec
{
tools: {
exec: {
backgroundMs: 10000,
timeoutSec: 1800,
cleanupMs: 1800000,
notifyOnExit: true,
notifyOnExitEmptySuccess: false,
applyPatch: {
enabled: false,
allowModels: ["gpt-5.5"],
},
},
},
}
tools.loopDetection
도구 루프 안전 검사는 기본적으로 비활성화되어 있습니다. 감지를 활성화하려면 enabled: true를 설정하세요. 설정은 tools.loopDetection에서 전역으로 정의할 수 있고 agents.list[].tools.loopDetection에서 에이전트별로 재정의할 수 있습니다.
{
tools: {
loopDetection: {
enabled: true,
historySize: 30,
warningThreshold: 10,
criticalThreshold: 20,
globalCircuitBreakerThreshold: 30,
detectors: {
genericRepeat: true,
knownPollNoProgress: true,
pingPong: true,
},
},
},
}
historySizenumber루프 분석을 위해 보존되는 최대 도구 호출 기록입니다.
warningThresholdnumber경고를 위한 반복적인 진행 없음 패턴 임계값입니다.
criticalThresholdnumber중요한 루프 차단을 위한 더 높은 반복 임계값입니다.
globalCircuitBreakerThresholdnumber진행 없음 실행에 대한 강제 중지 임계값입니다.
detectors.genericRepeatboolean동일 도구/동일 인수 호출이 반복될 때 경고합니다.
detectors.knownPollNoProgressboolean알려진 폴링 도구(process.poll, command_status 등)에서 경고/차단합니다.
detectors.pingPongboolean번갈아 나타나는 진행 없음 쌍 패턴에서 경고/차단합니다.
tools.web
{
tools: {
web: {
search: {
enabled: true,
apiKey: "brave_api_key", // or BRAVE_API_KEY env
maxResults: 5,
timeoutSeconds: 30,
cacheTtlMinutes: 15,
},
fetch: {
enabled: true,
provider: "firecrawl", // optional; omit for auto-detect
maxChars: 50000,
maxCharsCap: 50000,
maxResponseBytes: 2000000,
timeoutSeconds: 30,
cacheTtlMinutes: 15,
maxRedirects: 3,
readability: true,
userAgent: "custom-ua",
},
},
},
}
tools.media
인바운드 미디어 이해(이미지/오디오/비디오)를 구성합니다.
{
tools: {
media: {
concurrency: 2,
asyncCompletion: {
directSend: false, // deprecated: completions stay agent-mediated
},
audio: {
enabled: true,
maxBytes: 20971520,
scope: {
default: "deny",
rules: [{ action: "allow", match: { chatType: "direct" } }],
},
models: [
{ provider: "openai", model: "gpt-4o-mini-transcribe" },
{ type: "cli", command: "whisper", args: ["--model", "base", "{{MediaPath}}"] },
],
},
image: {
enabled: true,
timeoutSeconds: 180,
models: [{ provider: "ollama", model: "gemma4:26b", timeoutSeconds: 300 }],
},
video: {
enabled: true,
maxBytes: 52428800,
models: [{ provider: "google", model: "gemini-3-flash-preview" }],
},
},
},
}
미디어 모델 항목 필드
Provider 항목(type: "provider" 또는 생략):
provider: API provider ID(openai,anthropic,google/gemini,groq등)model: model ID 재정의profile/preferredProfile:auth-profiles.json프로필 선택
CLI 항목(type: "cli"):
command: 실행할 실행 파일args: 템플릿화된 인수({{MediaPath}},{{Prompt}},{{MaxChars}}등을 지원합니다.openclaw doctor --fix는 더 이상 사용되지 않는{input}플레이스홀더를{{MediaPath}}로 마이그레이션합니다)
공통 필드:
capabilities: 선택적 목록(image,audio,video). 기본값:openai/anthropic/minimax→ 이미지,google→ 이미지+오디오+비디오,groq→ 오디오.prompt,maxChars,maxBytes,timeoutSeconds,language: 항목별 재정의.tools.media.image.timeoutSeconds및 일치하는 이미지 모델timeoutSeconds항목은 agent가 명시적image도구를 호출할 때도 적용됩니다.- 실패하면 다음 항목으로 폴백합니다.
Provider 인증은 표준 순서를 따릅니다: auth-profiles.json → 환경 변수 → models.providers.*.apiKey.
비동기 완료 필드:
asyncCompletion.directSend: 더 이상 사용되지 않는 호환성 플래그입니다. 완료된 비동기 미디어 작업은 requester-session을 통해 중재된 상태로 유지되므로 agent가 결과를 받고, 사용자에게 알릴 방법을 결정하며, 원본 전달에 필요할 때 메시지 도구를 사용합니다.
tools.agentToAgent
{
tools: {
agentToAgent: {
enabled: false,
allow: ["home", "work"],
},
},
}
tools.sessions
세션 도구(sessions_list, sessions_history, sessions_send)가 대상으로 삼을 수 있는 세션을 제어합니다.
기본값: tree(현재 세션 + 하위 agent처럼 현재 세션이 생성한 세션).
{
tools: {
sessions: {
// "self" | "tree" | "agent" | "all"
visibility: "tree",
},
},
}
가시성 범위
self: 현재 세션 키만.tree: 현재 세션 + 현재 세션이 생성한 세션(하위 agent).agent: 현재 agent ID에 속한 모든 세션(같은 agent ID 아래에서 발신자별 세션을 실행하는 경우 다른 사용자가 포함될 수 있음).all: 모든 세션. agent 간 대상 지정에는 여전히tools.agentToAgent가 필요합니다.- 샌드박스 제한: 현재 세션이 샌드박스화되어 있고
agents.defaults.sandbox.sessionToolsVisibility="spawned"이면,tools.sessions.visibility="all"이더라도 가시성이 강제로tree가 됩니다.
tools.sessions_spawn
sessions_spawn의 인라인 첨부 파일 지원을 제어합니다.
{
tools: {
sessions_spawn: {
attachments: {
enabled: false, // opt-in: set true to allow inline file attachments
maxTotalBytes: 5242880, // 5 MB total across all files
maxFiles: 50,
maxFileBytes: 1048576, // 1 MB per file
retainOnSessionKeep: false, // keep attachments when cleanup="keep"
},
},
},
}
첨부 파일 참고 사항
- 첨부 파일은
runtime: "subagent"에서만 지원됩니다. ACP 런타임은 이를 거부합니다. - 파일은 하위 작업 공간의
.openclaw/attachments/<uuid>/에.manifest.json과 함께 실체화됩니다. - 첨부 파일 내용은 트랜스크립트 지속 저장에서 자동으로 편집됩니다.
- Base64 입력은 엄격한 알파벳/패딩 검사와 디코드 전 크기 보호 장치로 검증됩니다.
- 파일 권한은 디렉터리의 경우
0700, 파일의 경우0600입니다. - 정리는
cleanup정책을 따릅니다.delete는 항상 첨부 파일을 제거하고,keep은retainOnSessionKeep: true인 경우에만 첨부 파일을 보존합니다.
tools.experimental
실험적 기본 제공 도구 플래그입니다. strict-agentic GPT-5 자동 활성화 규칙이 적용되지 않는 한 기본값은 꺼짐입니다.
{
tools: {
experimental: {
planTool: true, // enable experimental update_plan
},
},
}
planTool: 복잡한 다단계 작업 추적을 위한 구조화된update_plan도구를 활성화합니다.- 기본값: OpenAI 또는 OpenAI Codex GPT-5 계열 실행에서
agents.defaults.embeddedPi.executionContract(또는 에이전트별 재정의)가"strict-agentic"로 설정되지 않는 한false입니다. 해당 범위 밖에서 도구를 강제로 켜려면true로 설정하고, strict-agentic GPT-5 실행에서도 꺼진 상태를 유지하려면false로 설정합니다. - 활성화되면 시스템 프롬프트도 사용 지침을 추가하여, 모델이 중요한 작업에만 이를 사용하고 최대 하나의 단계만
in_progress상태로 유지하도록 합니다.
agents.defaults.subagents
{
agents: {
defaults: {
subagents: {
allowAgents: ["research"],
model: "minimax/MiniMax-M2.7",
maxConcurrent: 8,
runTimeoutSeconds: 900,
archiveAfterMinutes: 60,
},
},
},
}
model: 생성된 하위 에이전트의 기본 모델입니다. 생략하면 하위 에이전트는 호출자의 모델을 상속합니다.allowAgents: 요청 에이전트가 자체subagents.allowAgents를 설정하지 않은 경우sessions_spawn대상 에이전트 ID의 기본 허용 목록입니다(["*"]= 모두 허용, 기본값: 동일 에이전트만).runTimeoutSeconds: 도구 호출에서runTimeoutSeconds를 생략한 경우sessions_spawn의 기본 제한 시간(초)입니다.0은 제한 시간이 없음을 의미합니다.- 하위 에이전트별 도구 정책:
tools.subagents.tools.allow/tools.subagents.tools.deny.
사용자 지정 제공자 및 기본 URL
OpenClaw는 기본 제공 모델 카탈로그를 사용합니다. 구성 또는 ~/.openclaw/agents/<agentId>/agent/models.json의 models.providers를 통해 사용자 지정 제공자를 추가하세요.
{
models: {
mode: "merge", // merge (default) | replace
providers: {
"custom-proxy": {
baseUrl: "http://localhost:4000/v1",
apiKey: "LITELLM_KEY",
api: "openai-completions", // openai-completions | openai-responses | anthropic-messages | google-generative-ai
models: [
{
id: "llama-3.1-8b",
name: "Llama 3.1 8B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
contextTokens: 96000,
maxTokens: 32000,
},
],
},
},
},
}
인증 및 병합 우선순위
- 사용자 지정 인증이 필요한 경우
authHeader: true+headers를 사용하세요. OPENCLAW_AGENT_DIR(또는 레거시 환경 변수 별칭인PI_CODING_AGENT_DIR)로 에이전트 구성 루트를 재정의하세요.- 일치하는 제공자 ID의 병합 우선순위:
- 비어 있지 않은 에이전트
models.jsonbaseUrl값이 우선합니다. - 비어 있지 않은 에이전트
apiKey값은 현재 구성/인증 프로필 컨텍스트에서 해당 제공자가 SecretRef로 관리되지 않는 경우에만 우선합니다. - SecretRef로 관리되는 제공자
apiKey값은 확인된 비밀을 지속 저장하는 대신 소스 마커(env ref의 경우ENV_VAR_NAME, file/exec ref의 경우secretref-managed)에서 새로 고쳐집니다. - SecretRef로 관리되는 제공자 헤더 값은 소스 마커(env ref의 경우
secretref-env:ENV_VAR_NAME, file/exec ref의 경우secretref-managed)에서 새로 고쳐집니다. - 비어 있거나 누락된 에이전트
apiKey/baseUrl은 구성의models.providers로 폴백합니다. - 일치하는 모델
contextWindow/maxTokens는 명시적 구성 값과 암시적 카탈로그 값 중 더 높은 값을 사용합니다. - 일치하는 모델
contextTokens는 존재하는 경우 명시적 런타임 상한을 유지합니다. 네이티브 모델 메타데이터를 변경하지 않고 유효 컨텍스트를 제한하려면 이를 사용하세요. - 구성이
models.json을 완전히 다시 작성하도록 하려면models.mode: "replace"를 사용하세요. - 마커 지속 저장은 소스가 권위입니다. 마커는 확인된 런타임 비밀 값이 아니라 활성 소스 구성 스냅샷(확인 전)에서 작성됩니다.
- 비어 있지 않은 에이전트
제공자 필드 세부 정보
최상위 카탈로그
models.mode: 제공자 카탈로그 동작(merge또는replace)입니다.models.providers: 제공자 ID를 키로 사용하는 사용자 지정 제공자 맵입니다.- 안전한 편집: 추가 업데이트에는
openclaw config set models.providers.<id> '<json>' --strict-json --merge또는openclaw config set models.providers.<id>.models '<json-array>' --strict-json --merge를 사용하세요.config set은--replace를 전달하지 않는 한 파괴적인 대체를 거부합니다.
- 안전한 편집: 추가 업데이트에는
제공자 연결 및 인증
models.providers.*.api: 요청 어댑터(openai-completions,openai-responses,anthropic-messages,google-generative-ai등)입니다. MLX, vLLM, SGLang 및 대부분의 OpenAI 호환 로컬 서버처럼 자체 호스팅되는/v1/chat/completions백엔드에는openai-completions를 사용하세요.baseUrl은 있지만api가 없는 사용자 지정 제공자는 기본적으로openai-completions를 사용합니다. 백엔드가/v1/responses를 지원하는 경우에만openai-responses를 설정하세요.models.providers.*.apiKey: 제공자 자격 증명입니다(SecretRef/env 치환 권장).models.providers.*.auth: 인증 전략(api-key,token,oauth,aws-sdk)입니다.models.providers.*.contextWindow: 모델 항목이contextWindow를 설정하지 않은 경우 이 제공자 아래 모델의 기본 네이티브 컨텍스트 창입니다.models.providers.*.contextTokens: 모델 항목이contextTokens를 설정하지 않은 경우 이 제공자 아래 모델의 기본 유효 런타임 컨텍스트 상한입니다.models.providers.*.maxTokens: 모델 항목이maxTokens를 설정하지 않은 경우 이 제공자 아래 모델의 기본 출력 토큰 상한입니다.models.providers.*.timeoutSeconds: 연결, 헤더, 본문, 전체 요청 중단 처리를 포함하는 선택적 제공자별 모델 HTTP 요청 제한 시간(초)입니다.models.providers.*.injectNumCtxForOpenAICompat: Ollama +openai-completions의 경우 요청에options.num_ctx를 주입합니다(기본값:true).models.providers.*.authHeader: 필요한 경우Authorization헤더에서 자격 증명 전송을 강제합니다.models.providers.*.baseUrl: 업스트림 API 기본 URL입니다.models.providers.*.headers: 프록시/테넌트 라우팅을 위한 추가 정적 헤더입니다.
요청 전송 재정의
models.providers.*.request: 모델 제공자 HTTP 요청의 전송 재정의입니다.
request.headers: 추가 헤더입니다(제공자 기본값과 병합됨). 값은 SecretRef를 허용합니다.request.auth: 인증 전략 재정의입니다. 모드:"provider-default"(제공자의 기본 제공 인증 사용),"authorization-bearer"(token사용),"header"(headerName,value, 선택적prefix사용).request.proxy: HTTP 프록시 재정의입니다. 모드:"env-proxy"(HTTP_PROXY/HTTPS_PROXY환경 변수 사용),"explicit-proxy"(url사용). 두 모드 모두 선택적tls하위 객체를 허용합니다.request.tls: 직접 연결을 위한 TLS 재정의입니다. 필드:ca,cert,key,passphrase(모두 SecretRef 허용),serverName,insecureSkipVerify.request.allowPrivateNetwork:true이면 제공자 HTTP fetch 보호 장치를 통해 DNS가 비공개, CGNAT 또는 유사 범위로 확인되는 경우에도baseUrl로의 HTTPS를 허용합니다(신뢰할 수 있는 자체 호스팅 OpenAI 호환 엔드포인트에 대한 운영자 명시적 동의).localhost,127.0.0.1,[::1]같은 Loopback 모델 제공자 스트림 URL은 이것이 명시적으로false로 설정되지 않는 한 자동으로 허용됩니다. LAN, tailnet, 비공개 DNS 호스트에는 여전히 명시적 동의가 필요합니다. WebSocket은 헤더/TLS에 동일한request를 사용하지만 해당 fetch SSRF 게이트는 사용하지 않습니다. 기본값은false입니다.
모델 카탈로그 항목
models.providers.*.models: 명시적 제공자 모델 카탈로그 항목입니다.models.providers.*.models.*.input: 모델 입력 모달리티입니다. 텍스트 전용 모델에는["text"]를 사용하고, 네이티브 이미지/비전 모델에는["text", "image"]를 사용하세요. 선택된 모델이 이미지 지원으로 표시된 경우에만 이미지 첨부 파일이 에이전트 턴에 주입됩니다.models.providers.*.models.*.contextWindow: 네이티브 모델 컨텍스트 창 메타데이터입니다. 이는 해당 모델에 대한 제공자 수준contextWindow를 재정의합니다.models.providers.*.models.*.contextTokens: 선택적 런타임 컨텍스트 상한입니다. 이는 제공자 수준contextTokens를 재정의합니다. 모델의 네이티브contextWindow보다 작은 유효 컨텍스트 예산을 원할 때 사용하세요.openclaw models list는 두 값이 다를 때 둘 다 표시합니다.models.providers.*.models.*.compat.supportsDeveloperRole: 선택적 호환성 힌트입니다. 비어 있지 않은 비네이티브baseUrl(호스트가api.openai.com이 아님)과 함께api: "openai-completions"를 사용하는 경우 OpenClaw는 런타임에 이를false로 강제합니다. 비어 있거나 생략된baseUrl은 기본 OpenAI 동작을 유지합니다.models.providers.*.models.*.compat.requiresStringContent: 문자열 전용 OpenAI 호환 채팅 엔드포인트를 위한 선택적 호환성 힌트입니다.true이면 OpenClaw는 요청을 보내기 전에 순수 텍스트messages[].content배열을 일반 문자열로 평탄화합니다.
Amazon Bedrock 검색
plugins.entries.amazon-bedrock.config.discovery: Bedrock 자동 검색 설정 루트입니다.plugins.entries.amazon-bedrock.config.discovery.enabled: 암시적 검색을 켜거나 끕니다.plugins.entries.amazon-bedrock.config.discovery.region: 검색을 위한 AWS 리전입니다.plugins.entries.amazon-bedrock.config.discovery.providerFilter: 대상 검색을 위한 선택적 제공자 ID 필터입니다.plugins.entries.amazon-bedrock.config.discovery.refreshInterval: 검색 새로 고침을 위한 폴링 간격입니다.plugins.entries.amazon-bedrock.config.discovery.defaultContextWindow: 검색된 모델의 폴백 컨텍스트 창입니다.plugins.entries.amazon-bedrock.config.discovery.defaultMaxTokens: 검색된 모델의 폴백 최대 출력 토큰입니다.
대화형 사용자 지정 제공자 온보딩은 GPT-4o, Claude, Gemini, Qwen-VL, LLaVA, Pixtral, InternVL, Mllama, MiniCPM-V, GLM-4V 같은 일반적인 비전 모델 ID에 대해 이미지 입력을 추론하고, 알려진 텍스트 전용 계열에는 추가 질문을 건너뜁니다. 알 수 없는 모델 ID는 여전히 이미지 지원 여부를 묻습니다. 비대화형 온보딩도 동일한 추론을 사용합니다. 이미지 지원 메타데이터를 강제하려면 --custom-image-input을 전달하고, 텍스트 전용 메타데이터를 강제하려면 --custom-text-input을 전달하세요.
제공자 예시
Cerebras (GLM 4.7 / GPT OSS)
번들된 cerebras 제공자 Plugin은 openclaw onboard --auth-choice cerebras-api-key를 통해 이를 구성할 수 있습니다. 기본값을 재정의할 때만 명시적 제공자 구성을 사용하세요.
{
env: { CEREBRAS_API_KEY: "sk-..." },
agents: {
defaults: {
model: {
primary: "cerebras/zai-glm-4.7",
fallbacks: ["cerebras/gpt-oss-120b"],
},
models: {
"cerebras/zai-glm-4.7": { alias: "GLM 4.7 (Cerebras)" },
"cerebras/gpt-oss-120b": { alias: "GPT OSS 120B (Cerebras)" },
},
},
},
models: {
mode: "merge",
providers: {
cerebras: {
baseUrl: "https://api.cerebras.ai/v1",
apiKey: "${CEREBRAS_API_KEY}",
api: "openai-completions",
models: [
{ id: "zai-glm-4.7", name: "GLM 4.7 (Cerebras)" },
{ id: "gpt-oss-120b", name: "GPT OSS 120B (Cerebras)" },
],
},
},
},
}
Cerebras에는 cerebras/zai-glm-4.7을 사용하고, Z.AI 직접 연결에는 zai/glm-4.7을 사용하세요.
Kimi Coding
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "kimi/kimi-code" },
models: { "kimi/kimi-code": { alias: "Kimi Code" } },
},
},
}
Anthropic 호환 내장 provider입니다. 단축 명령: openclaw onboard --auth-choice kimi-code-api-key.
Local models (LM Studio)
로컬 모델을 참조하세요. 요약: 고성능 하드웨어에서 LM Studio Responses API를 통해 대형 로컬 모델을 실행하고, 대체 모델용으로 호스팅 모델은 병합된 상태로 유지하세요.
MiniMax M2.7 (direct)
{
agents: {
defaults: {
model: { primary: "minimax/MiniMax-M2.7" },
models: {
"minimax/MiniMax-M2.7": { alias: "Minimax" },
},
},
},
models: {
mode: "merge",
providers: {
minimax: {
baseUrl: "https://api.minimax.io/anthropic",
apiKey: "${MINIMAX_API_KEY}",
api: "anthropic-messages",
models: [
{
id: "MiniMax-M2.7",
name: "MiniMax M2.7",
reasoning: true,
input: ["text"],
cost: { input: 0.3, output: 1.2, cacheRead: 0.06, cacheWrite: 0.375 },
contextWindow: 204800,
maxTokens: 131072,
},
],
},
},
},
}
MINIMAX_API_KEY를 설정하세요. 단축 명령: openclaw onboard --auth-choice minimax-global-api 또는 openclaw onboard --auth-choice minimax-cn-api. 모델 카탈로그의 기본값은 M2.7뿐입니다. Anthropic 호환 스트리밍 경로에서는 직접 thinking을 설정하지 않는 한 OpenClaw가 기본적으로 MiniMax 사고 기능을 비활성화합니다. /fast on 또는 params.fastMode: true는 MiniMax-M2.7을 MiniMax-M2.7-highspeed로 다시 씁니다.
Moonshot AI (Kimi)
{
env: { MOONSHOT_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "moonshot/kimi-k2.6" },
models: { "moonshot/kimi-k2.6": { alias: "Kimi K2.6" } },
},
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2.6",
name: "Kimi K2.6",
reasoning: false,
input: ["text", "image"],
cost: { input: 0.95, output: 4, cacheRead: 0.16, cacheWrite: 0 },
contextWindow: 262144,
maxTokens: 262144,
},
],
},
},
},
}
중국 endpoint의 경우: baseUrl: "https://api.moonshot.cn/v1" 또는 openclaw onboard --auth-choice moonshot-api-key-cn.
네이티브 Moonshot endpoint는 공유 openai-completions 전송에서 스트리밍 사용량 호환성을 알리며, OpenClaw는 내장 provider id만이 아니라 endpoint 기능을 기준으로 이를 판단합니다.
OpenCode
{
agents: {
defaults: {
model: { primary: "opencode/claude-opus-4-6" },
models: { "opencode/claude-opus-4-6": { alias: "Opus" } },
},
},
}
OPENCODE_API_KEY(또는 OPENCODE_ZEN_API_KEY)를 설정하세요. Zen 카탈로그에는 opencode/... refs를, Go 카탈로그에는 opencode-go/... refs를 사용하세요. 단축 명령: openclaw onboard --auth-choice opencode-zen 또는 openclaw onboard --auth-choice opencode-go.
Synthetic (Anthropic-compatible)
{
env: { SYNTHETIC_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" },
models: { "synthetic/hf:MiniMaxAI/MiniMax-M2.5": { alias: "MiniMax M2.5" } },
},
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [
{
id: "hf:MiniMaxAI/MiniMax-M2.5",
name: "MiniMax M2.5",
reasoning: true,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 192000,
maxTokens: 65536,
},
],
},
},
},
}
기본 URL에는 /v1을 빼야 합니다(Anthropic 클라이언트가 이를 추가합니다). 단축 명령: openclaw onboard --auth-choice synthetic-api-key.
Z.AI (GLM-4.7)
{
agents: {
defaults: {
model: { primary: "zai/glm-4.7" },
models: { "zai/glm-4.7": {} },
},
},
}
ZAI_API_KEY를 설정하세요. z.ai/* 및 z-ai/*도 별칭으로 허용됩니다. 단축 명령: openclaw onboard --auth-choice zai-api-key.
- 일반 endpoint:
https://api.z.ai/api/paas/v4 - 코딩 endpoint(기본값):
https://api.z.ai/api/coding/paas/v4 - 일반 endpoint의 경우 기본 URL 재정의를 포함한 사용자 지정 provider를 정의하세요.
관련 항목
- 구성 — 에이전트
- 구성 — 채널
- 구성 참조 — 기타 최상위 키
- 도구 및 plugins