Providers
Amazon Bedrock Mantle
OpenClaw enthält einen gebündelten Provider Amazon Bedrock Mantle, der sich mit
dem OpenAI-kompatiblen Mantle-Endpunkt verbindet. Mantle hostet Open-Source- und
Drittanbieter-Modelle (GPT-OSS, Qwen, Kimi, GLM und ähnliche) über eine standardisierte
Oberfläche /v1/chat/completions, die von der Bedrock-Infrastruktur unterstützt wird.
| Eigenschaft | Wert |
|---|---|
| Provider-ID | amazon-bedrock-mantle |
| API | openai-completions (OpenAI-kompatibel) oder anthropic-messages (Anthropic-Messages-Route) |
| Auth | Explizites AWS_BEARER_TOKEN_BEDROCK oder Generierung eines Bearer-Tokens aus der IAM-Credential-Chain |
| Standardregion | us-east-1 (überschreiben mit AWS_REGION oder AWS_DEFAULT_REGION) |
Erste Schritte
Wählen Sie Ihre bevorzugte Authentifizierungsmethode und folgen Sie den Einrichtungsschritten.
Explizites Bearer-Token
Am besten für: Umgebungen, in denen Sie bereits ein Mantle-Bearer-Token haben.
Bearer-Token auf dem Gateway-Host setzen
export AWS_BEARER_TOKEN_BEDROCK="..."
Optional eine Region setzen (Standard ist us-east-1):
export AWS_REGION="us-west-2"
Prüfen, ob Modelle erkannt werden
openclaw models list
Erkannte Modelle erscheinen unter dem Provider amazon-bedrock-mantle. Es ist keine
zusätzliche Konfiguration erforderlich, außer Sie möchten Standardwerte überschreiben.
IAM-Anmeldedaten
Am besten für: Verwendung von AWS-SDK-kompatiblen Anmeldedaten (Shared Config, SSO, Web Identity, Instanz- oder Task-Rollen).
AWS-Anmeldedaten auf dem Gateway-Host konfigurieren
Jede AWS-SDK-kompatible Authentifizierungsquelle funktioniert:
export AWS_PROFILE="default"
export AWS_REGION="us-west-2"
Prüfen, ob Modelle erkannt werden
openclaw models list
OpenClaw erzeugt automatisch ein Mantle-Bearer-Token aus der Credential-Chain.
Automatische Modellerkennung
Wenn AWS_BEARER_TOKEN_BEDROCK gesetzt ist, verwendet OpenClaw es direkt. Andernfalls
versucht OpenClaw, ein Mantle-Bearer-Token aus der Standard-
Credential-Chain von AWS zu erzeugen. Anschließend erkennt es verfügbare Mantle-Modelle, indem der
Endpunkt /v1/models der Region abgefragt wird.
| Verhalten | Detail |
|---|---|
| Discovery-Cache | Ergebnisse 1 Stunde gecacht |
| IAM-Token-Aktualisierung | Stündlich |
Unterstützte Regionen
us-east-1, us-east-2, us-west-2, ap-northeast-1,
ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2,
eu-south-1, eu-north-1, sa-east-1.
Manuelle Konfiguration
Wenn Sie explizite Konfiguration statt Auto-Discovery bevorzugen:
{
models: {
providers: {
"amazon-bedrock-mantle": {
baseUrl: "https://bedrock-mantle.us-east-1.api.aws/v1",
api: "openai-completions",
auth: "api-key",
apiKey: "env:AWS_BEARER_TOKEN_BEDROCK",
models: [
{
id: "gpt-oss-120b",
name: "GPT-OSS 120B",
reasoning: true,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 32000,
maxTokens: 4096,
},
],
},
},
},
}
Erweiterte Konfiguration
Reasoning-Unterstützung
Reasoning-Unterstützung wird aus Modell-IDs abgeleitet, die Muster wie
thinking, reasoner oder gpt-oss-120b enthalten. OpenClaw setzt
reasoning: true während der Discovery automatisch für passende Modelle.
Nichtverfügbarkeit des Endpunkts
Wenn der Mantle-Endpunkt nicht verfügbar ist oder keine Modelle zurückgibt, wird der Provider stillschweigend übersprungen. OpenClaw gibt keinen Fehler aus; andere konfigurierte Provider funktionieren normal weiter.
Claude Opus 4.7 über die Anthropic-Messages-Route
Mantle stellt außerdem eine Anthropic-Messages-Route bereit, die Claude-Modelle über denselben bearer-authentifizierten Streaming-Pfad transportiert. Claude Opus 4.7 (amazon-bedrock-mantle/claude-opus-4.7) kann über diese Route mit provider-eigenem Streaming aufgerufen werden, sodass AWS-Bearer-Tokens nicht wie Anthropic-API-Schlüssel behandelt werden.
Wenn Sie ein Anthropic-Messages-Modell auf dem Mantle-Provider fixieren, verwendet OpenClaw für dieses Modell die API-Oberfläche anthropic-messages statt openai-completions. Die Authentifizierung stammt weiterhin aus AWS_BEARER_TOKEN_BEDROCK (oder dem erzeugten IAM-Bearer-Token).
{
models: {
providers: {
"amazon-bedrock-mantle": {
models: [
{
id: "claude-opus-4.7",
name: "Claude Opus 4.7",
api: "anthropic-messages",
reasoning: true,
input: ["text", "image"],
contextWindow: 1000000,
maxTokens: 32000,
},
],
},
},
},
}
Beziehung zum Amazon-Bedrock-Provider
Bedrock Mantle ist ein separater Provider vom Standard-
Amazon Bedrock-Provider. Mantle verwendet eine
OpenAI-kompatible Oberfläche /v1, während der Standard-Bedrock-Provider
die native Bedrock-API verwendet.
Beide Provider teilen sich dieselben Anmeldedaten AWS_BEARER_TOKEN_BEDROCK, wenn
vorhanden.
Verwandt
Nativer Bedrock-Provider für Anthropic Claude, Titan und andere Modelle.
Auswahl von Providern, Modellreferenzen und Failover-Verhalten.
Details zur Authentifizierung und Regeln zur Wiederverwendung von Anmeldedaten.
Häufige Probleme und wie Sie sie lösen.