Providers
Amazon Bedrock Mantle
OpenClaw zawiera dołączonego dostawcę Amazon Bedrock Mantle, który łączy się z
zgodnym z OpenAI endpointem Mantle. Mantle hostuje modele open-source i
zewnętrzne (GPT-OSS, Qwen, Kimi, GLM i podobne) przez standardową
powierzchnię /v1/chat/completions opartą na infrastrukturze Bedrock.
| Właściwość | Wartość |
|---|---|
| Identyfikator dostawcy | amazon-bedrock-mantle |
| API | openai-completions (zgodne z OpenAI) albo anthropic-messages (trasa Anthropic Messages) |
| Auth | Jawny AWS_BEARER_TOKEN_BEDROCK albo generowanie bearer token z łańcucha poświadczeń IAM |
| Domyślny region | us-east-1 (nadpisz przez AWS_REGION albo AWS_DEFAULT_REGION) |
Pierwsze kroki
Wybierz preferowaną metodę auth i wykonaj kroki konfiguracji.
Jawny bearer token
Najlepsze dla: środowisk, w których masz już bearer token Mantle.
Ustaw bearer token na hoście gateway
export AWS_BEARER_TOKEN_BEDROCK="..."
Opcjonalnie ustaw region (domyślnie us-east-1):
export AWS_REGION="us-west-2"
Sprawdź, czy modele są wykrywane
openclaw models list
Wykryte modele pojawiają się pod dostawcą amazon-bedrock-mantle. Nie
jest wymagana dodatkowa konfiguracja, chyba że chcesz nadpisać ustawienia domyślne.
Poświadczenia IAM
Najlepsze dla: używania poświadczeń zgodnych z AWS SDK (shared config, SSO, web identity, role instancji albo tasków).
Skonfiguruj poświadczenia AWS na hoście gateway
Działa dowolne źródło auth zgodne z AWS SDK:
export AWS_PROFILE="default"
export AWS_REGION="us-west-2"
Sprawdź, czy modele są wykrywane
openclaw models list
OpenClaw automatycznie generuje bearer token Mantle z łańcucha poświadczeń.
Automatyczne wykrywanie modeli
Gdy ustawiono AWS_BEARER_TOKEN_BEDROCK, OpenClaw używa go bezpośrednio. W przeciwnym razie
OpenClaw próbuje wygenerować bearer token Mantle z domyślnego łańcucha
poświadczeń AWS. Następnie wykrywa dostępne modele Mantle, odpytując
endpoint /v1/models dla danego regionu.
| Zachowanie | Szczegóły |
|---|---|
| Cache wykrywania | Wyniki cache'owane przez 1 godzinę |
| Odświeżanie tokenu IAM | Co godzinę |
Obsługiwane regiony
us-east-1, us-east-2, us-west-2, ap-northeast-1,
ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2,
eu-south-1, eu-north-1, sa-east-1.
Konfiguracja ręczna
Jeśli wolisz jawną konfigurację zamiast auto-discovery:
{
models: {
providers: {
"amazon-bedrock-mantle": {
baseUrl: "https://bedrock-mantle.us-east-1.api.aws/v1",
api: "openai-completions",
auth: "api-key",
apiKey: "env:AWS_BEARER_TOKEN_BEDROCK",
models: [
{
id: "gpt-oss-120b",
name: "GPT-OSS 120B",
reasoning: true,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 32000,
maxTokens: 4096,
},
],
},
},
},
}
Konfiguracja zaawansowana
Obsługa reasoning
Obsługa reasoning jest wywnioskowywana z identyfikatorów modeli zawierających wzorce takie jak
thinking, reasoner albo gpt-oss-120b. OpenClaw ustawia reasoning: true
automatycznie dla pasujących modeli podczas wykrywania.
Niedostępność endpointu
Jeśli endpoint Mantle jest niedostępny albo nie zwraca modeli, dostawca jest po cichu pomijany. OpenClaw nie zgłasza błędu; inne skonfigurowane dostawcy nadal działają normalnie.
Claude Opus 4.7 przez trasę Anthropic Messages
Mantle udostępnia też trasę Anthropic Messages, która przenosi modele Claude przez tę samą ścieżkę streamingu uwierzytelnianą bearer tokenem. Claude Opus 4.7 (amazon-bedrock-mantle/claude-opus-4.7) można wywoływać przez tę trasę z provider-owned streaming, więc bearer tokeny AWS nie są traktowane jak klucze API Anthropic.
Gdy przypniesz model Anthropic Messages do dostawcy Mantle, OpenClaw użyje dla tego modelu powierzchni API anthropic-messages zamiast openai-completions. Auth nadal pochodzi z AWS_BEARER_TOKEN_BEDROCK (albo utworzonego bearer tokenu IAM).
{
models: {
providers: {
"amazon-bedrock-mantle": {
models: [
{
id: "claude-opus-4.7",
name: "Claude Opus 4.7",
api: "anthropic-messages",
reasoning: true,
input: ["text", "image"],
contextWindow: 1000000,
maxTokens: 32000,
},
],
},
},
},
}
Relacja do dostawcy Amazon Bedrock
Bedrock Mantle jest osobnym dostawcą względem standardowego
dostawcy Amazon Bedrock. Mantle używa
powierzchni /v1 zgodnej z OpenAI, podczas gdy standardowy dostawca Bedrock używa
natywnego API Bedrock.
Obaj dostawcy współdzielą to samo poświadczenie AWS_BEARER_TOKEN_BEDROCK, gdy
jest ono dostępne.