Providers

Amazon Bedrock Mantle

O OpenClaw inclui um provider empacotado Amazon Bedrock Mantle que se conecta ao endpoint compatível com OpenAI do Mantle. O Mantle hospeda modelos open-source e de terceiros (GPT-OSS, Qwen, Kimi, GLM e semelhantes) por meio de uma superfície padrão /v1/chat/completions sustentada pela infraestrutura do Bedrock.

Propriedade Valor
ID do provider amazon-bedrock-mantle
API openai-completions (compatível com OpenAI) ou anthropic-messages (rota Anthropic Messages)
Autenticação AWS_BEARER_TOKEN_BEDROCK explícito ou geração de bearer token via cadeia de credenciais IAM
Região padrão us-east-1 (substitua com AWS_REGION ou AWS_DEFAULT_REGION)

Primeiros passos

Escolha seu método de autenticação preferido e siga as etapas de configuração.

Bearer token explícito

Melhor para: ambientes em que você já tenha um bearer token do Mantle.

  • Defina o bearer token no host do gateway

    export AWS_BEARER_TOKEN_BEDROCK="..."
    

    Opcionalmente, defina uma região (o padrão é us-east-1):

    export AWS_REGION="us-west-2"
    
  • Verifique se os modelos foram descobertos

    openclaw models list
    

    Os modelos descobertos aparecem sob o provider amazon-bedrock-mantle. Nenhuma configuração adicional é necessária, a menos que você queira substituir padrões.

  • Credenciais IAM

    Melhor para: usar credenciais compatíveis com AWS SDK (configuração compartilhada, SSO, identidade web, funções de instância ou tarefa).

  • Configure credenciais AWS no host do gateway

    Qualquer origem de autenticação compatível com AWS SDK funciona:

    export AWS_PROFILE="default"
    export AWS_REGION="us-west-2"
    
  • Verifique se os modelos foram descobertos

    openclaw models list
    

    O OpenClaw gera automaticamente um bearer token do Mantle a partir da cadeia de credenciais.

  • Descoberta automática de modelo

    Quando AWS_BEARER_TOKEN_BEDROCK está definido, o OpenClaw o usa diretamente. Caso contrário, o OpenClaw tenta gerar um bearer token do Mantle a partir da cadeia padrão de credenciais AWS. Depois, ele descobre os modelos Mantle disponíveis consultando o endpoint regional /v1/models.

    Comportamento Detalhe
    Cache de descoberta Resultados em cache por 1 hora
    Atualização do token IAM A cada hora

    Regiões compatíveis

    us-east-1, us-east-2, us-west-2, ap-northeast-1, ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2, eu-south-1, eu-north-1, sa-east-1.

    Configuração manual

    Se você preferir configuração explícita em vez de descoberta automática:

    {
      models: {
        providers: {
          "amazon-bedrock-mantle": {
            baseUrl: "https://bedrock-mantle.us-east-1.api.aws/v1",
            api: "openai-completions",
            auth: "api-key",
            apiKey: "env:AWS_BEARER_TOKEN_BEDROCK",
            models: [
              {
                id: "gpt-oss-120b",
                name: "GPT-OSS 120B",
                reasoning: true,
                input: ["text"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 32000,
                maxTokens: 4096,
              },
            ],
          },
        },
      },
    }
    

    Configuração avançada

    Suporte a raciocínio

    O suporte a raciocínio é inferido a partir de IDs de modelo que contenham padrões como thinking, reasoner ou gpt-oss-120b. O OpenClaw define reasoning: true automaticamente para modelos correspondentes durante a descoberta.

    Indisponibilidade do endpoint

    Se o endpoint do Mantle estiver indisponível ou não retornar modelos, o provider será ignorado silenciosamente. O OpenClaw não gera erro; outros providers configurados continuam funcionando normalmente.

    Claude Opus 4.7 via rota Anthropic Messages

    O Mantle também expõe uma rota Anthropic Messages que transporta modelos Claude pelo mesmo caminho de streaming autenticado por bearer. Claude Opus 4.7 (amazon-bedrock-mantle/claude-opus-4.7) pode ser chamado por essa rota com streaming controlado pelo provider, então bearer tokens AWS não são tratados como chaves de API da Anthropic.

    Quando você fixa um modelo Anthropic Messages no provider Mantle, o OpenClaw usa a superfície de API anthropic-messages em vez de openai-completions para esse modelo. A autenticação ainda vem de AWS_BEARER_TOKEN_BEDROCK (ou do bearer token IAM emitido).

    {
      models: {
        providers: {
          "amazon-bedrock-mantle": {
            models: [
              {
                id: "claude-opus-4.7",
                name: "Claude Opus 4.7",
                api: "anthropic-messages",
                reasoning: true,
                input: ["text", "image"],
                contextWindow: 1000000,
                maxTokens: 32000,
              },
            ],
          },
        },
      },
    }
    
    Relação com o provider Amazon Bedrock

    Bedrock Mantle é um provider separado do provider padrão Amazon Bedrock. O Mantle usa uma superfície /v1 compatível com OpenAI, enquanto o provider padrão do Bedrock usa a API nativa do Bedrock.

    Ambos os providers compartilham a mesma credencial AWS_BEARER_TOKEN_BEDROCK quando presente.

    Relacionado