Providers
Amazon Bedrock Mantle
OpenClawには、MantleのOpenAI互換エンドポイントへ接続する同梱のAmazon Bedrock Mantleプロバイダーが含まれています。Mantleは、open-sourceおよび
サードパーティモデル(GPT-OSS, Qwen, Kimi, GLM など)を、Bedrock基盤上の標準
/v1/chat/completions サーフェス経由でホストします。
| Property | Value |
|---|---|
| Provider ID | amazon-bedrock-mantle |
| API | openai-completions(OpenAI互換)または anthropic-messages(Anthropic Messagesルート) |
| Auth | 明示的な AWS_BEARER_TOKEN_BEDROCK またはIAM credential-chainによるbearer-token生成 |
| Default region | us-east-1(AWS_REGION または AWS_DEFAULT_REGION で上書き可能) |
はじめに
好みのauth methodを選んで、セットアップ手順に従ってください。
明示的なbearer token
最適なケース: すでにMantle bearer tokenを持っている環境。
Gatewayホストにbearer tokenを設定する
export AWS_BEARER_TOKEN_BEDROCK="..."
任意でregionも設定できます(デフォルトは us-east-1):
export AWS_REGION="us-west-2"
モデルが検出されることを確認する
openclaw models list
検出されたモデルは amazon-bedrock-mantle providerの下に表示されます。デフォルトを上書きしたい場合を除き、
追加configは不要です。
IAM credential
最適なケース: AWS SDK互換credential(shared config, SSO, web identity, instanceまたはtask role)を使う場合。
GatewayホストにAWS credentialを設定する
任意のAWS SDK互換auth sourceが使えます:
export AWS_PROFILE="default"
export AWS_REGION="us-west-2"
モデルが検出されることを確認する
openclaw models list
OpenClawはcredential chainからMantle bearer tokenを自動生成します。
自動モデル検出
AWS_BEARER_TOKEN_BEDROCK が設定されている場合、OpenClawはそれを直接使います。そうでなければ、
OpenClawはAWS default
credential chainからMantle bearer tokenを生成しようとします。その後、その
regionの /v1/models endpointを問い合わせて、利用可能なMantle modelを検出します。
| Behavior | Detail |
|---|---|
| Discovery cache | 結果は1時間キャッシュされる |
| IAM token refresh | 毎時 |
サポートされるregion
us-east-1, us-east-2, us-west-2, ap-northeast-1,
ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2,
eu-south-1, eu-north-1, sa-east-1.
手動設定
自動検出ではなく明示的なconfigを使いたい場合:
{
models: {
providers: {
"amazon-bedrock-mantle": {
baseUrl: "https://bedrock-mantle.us-east-1.api.aws/v1",
api: "openai-completions",
auth: "api-key",
apiKey: "env:AWS_BEARER_TOKEN_BEDROCK",
models: [
{
id: "gpt-oss-120b",
name: "GPT-OSS 120B",
reasoning: true,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 32000,
maxTokens: 4096,
},
],
},
},
},
}
高度な設定
Reasoning support
Reasoning supportは、thinking, reasoner, gpt-oss-120b のような
patternを含むmodel IDから推定されます。OpenClawは検出時に、該当するmodelへ
reasoning: true を自動設定します。
Endpoint unavailable
Mantle endpointが利用不可、またはmodelを返さない場合、そのproviderは 静かにスキップされます。OpenClawはエラーにせず、他の設定済みproviderは 通常どおり動作し続けます。
Anthropic Messagesルート経由のClaude Opus 4.7
Mantleは、同じbearer-authenticatedなstreaming pathを通してClaude modelを運ぶAnthropic Messagesルートも公開しています。Claude Opus 4.7(amazon-bedrock-mantle/claude-opus-4.7)はこのルート経由で呼び出せ、provider所有のstreamingを使うため、AWS bearer tokenはAnthropic API keyとして扱われません。
Mantle provider上でAnthropic Messages modelを固定すると、そのmodelではOpenClawは openai-completions ではなく anthropic-messages APIサーフェスを使います。authは引き続き AWS_BEARER_TOKEN_BEDROCK(または生成されたIAM bearer token)から取得されます。
{
models: {
providers: {
"amazon-bedrock-mantle": {
models: [
{
id: "claude-opus-4.7",
name: "Claude Opus 4.7",
api: "anthropic-messages",
reasoning: true,
input: ["text", "image"],
contextWindow: 1000000,
maxTokens: 32000,
},
],
},
},
},
}
Amazon Bedrock providerとの関係
Bedrock Mantleは標準の
Amazon Bedrock providerとは別のproviderです。Mantleは
OpenAI互換の /v1 サーフェスを使い、一方で標準Bedrock providerは
ネイティブBedrock APIを使います。
両providerは、存在する場合、同じ AWS_BEARER_TOKEN_BEDROCK credentialを共有します。