Providers

Amazon Bedrock Mantle

OpenClawには、MantleのOpenAI互換エンドポイントへ接続する同梱のAmazon Bedrock Mantleプロバイダーが含まれています。Mantleは、open-sourceおよび サードパーティモデル(GPT-OSS, Qwen, Kimi, GLM など)を、Bedrock基盤上の標準 /v1/chat/completions サーフェス経由でホストします。

Property Value
Provider ID amazon-bedrock-mantle
API openai-completions(OpenAI互換)または anthropic-messages(Anthropic Messagesルート)
Auth 明示的な AWS_BEARER_TOKEN_BEDROCK またはIAM credential-chainによるbearer-token生成
Default region us-east-1AWS_REGION または AWS_DEFAULT_REGION で上書き可能)

はじめに

好みのauth methodを選んで、セットアップ手順に従ってください。

明示的なbearer token

最適なケース: すでにMantle bearer tokenを持っている環境。

  • Gatewayホストにbearer tokenを設定する

    export AWS_BEARER_TOKEN_BEDROCK="..."
    

    任意でregionも設定できます(デフォルトは us-east-1):

    export AWS_REGION="us-west-2"
    
  • モデルが検出されることを確認する

    openclaw models list
    

    検出されたモデルは amazon-bedrock-mantle providerの下に表示されます。デフォルトを上書きしたい場合を除き、 追加configは不要です。

  • IAM credential

    最適なケース: AWS SDK互換credential(shared config, SSO, web identity, instanceまたはtask role)を使う場合。

  • GatewayホストにAWS credentialを設定する

    任意のAWS SDK互換auth sourceが使えます:

    export AWS_PROFILE="default"
    export AWS_REGION="us-west-2"
    
  • モデルが検出されることを確認する

    openclaw models list
    

    OpenClawはcredential chainからMantle bearer tokenを自動生成します。

  • 自動モデル検出

    AWS_BEARER_TOKEN_BEDROCK が設定されている場合、OpenClawはそれを直接使います。そうでなければ、 OpenClawはAWS default credential chainからMantle bearer tokenを生成しようとします。その後、その regionの /v1/models endpointを問い合わせて、利用可能なMantle modelを検出します。

    Behavior Detail
    Discovery cache 結果は1時間キャッシュされる
    IAM token refresh 毎時

    サポートされるregion

    us-east-1, us-east-2, us-west-2, ap-northeast-1, ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2, eu-south-1, eu-north-1, sa-east-1.

    手動設定

    自動検出ではなく明示的なconfigを使いたい場合:

    {
      models: {
        providers: {
          "amazon-bedrock-mantle": {
            baseUrl: "https://bedrock-mantle.us-east-1.api.aws/v1",
            api: "openai-completions",
            auth: "api-key",
            apiKey: "env:AWS_BEARER_TOKEN_BEDROCK",
            models: [
              {
                id: "gpt-oss-120b",
                name: "GPT-OSS 120B",
                reasoning: true,
                input: ["text"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 32000,
                maxTokens: 4096,
              },
            ],
          },
        },
      },
    }
    

    高度な設定

    Reasoning support

    Reasoning supportは、thinking, reasoner, gpt-oss-120b のような patternを含むmodel IDから推定されます。OpenClawは検出時に、該当するmodelへ reasoning: true を自動設定します。

    Endpoint unavailable

    Mantle endpointが利用不可、またはmodelを返さない場合、そのproviderは 静かにスキップされます。OpenClawはエラーにせず、他の設定済みproviderは 通常どおり動作し続けます。

    Anthropic Messagesルート経由のClaude Opus 4.7

    Mantleは、同じbearer-authenticatedなstreaming pathを通してClaude modelを運ぶAnthropic Messagesルートも公開しています。Claude Opus 4.7(amazon-bedrock-mantle/claude-opus-4.7)はこのルート経由で呼び出せ、provider所有のstreamingを使うため、AWS bearer tokenはAnthropic API keyとして扱われません。

    Mantle provider上でAnthropic Messages modelを固定すると、そのmodelではOpenClawは openai-completions ではなく anthropic-messages APIサーフェスを使います。authは引き続き AWS_BEARER_TOKEN_BEDROCK(または生成されたIAM bearer token)から取得されます。

    {
      models: {
        providers: {
          "amazon-bedrock-mantle": {
            models: [
              {
                id: "claude-opus-4.7",
                name: "Claude Opus 4.7",
                api: "anthropic-messages",
                reasoning: true,
                input: ["text", "image"],
                contextWindow: 1000000,
                maxTokens: 32000,
              },
            ],
          },
        },
      },
    }
    
    Amazon Bedrock providerとの関係

    Bedrock Mantleは標準の Amazon Bedrock providerとは別のproviderです。Mantleは OpenAI互換の /v1 サーフェスを使い、一方で標準Bedrock providerは ネイティブBedrock APIを使います。

    両providerは、存在する場合、同じ AWS_BEARER_TOKEN_BEDROCK credentialを共有します。

    関連