Providers

Amazon Bedrock Mantle

OpenClaw zawiera dołączonego dostawcę Amazon Bedrock Mantle, który łączy się z zgodnym z OpenAI endpointem Mantle. Mantle hostuje modele open-source i zewnętrzne (GPT-OSS, Qwen, Kimi, GLM i podobne) przez standardową powierzchnię /v1/chat/completions opartą na infrastrukturze Bedrock.

Właściwość Wartość
Identyfikator dostawcy amazon-bedrock-mantle
API openai-completions (zgodne z OpenAI) albo anthropic-messages (trasa Anthropic Messages)
Auth Jawny AWS_BEARER_TOKEN_BEDROCK albo generowanie bearer token z łańcucha poświadczeń IAM
Domyślny region us-east-1 (nadpisz przez AWS_REGION albo AWS_DEFAULT_REGION)

Pierwsze kroki

Wybierz preferowaną metodę auth i wykonaj kroki konfiguracji.

Jawny bearer token

Najlepsze dla: środowisk, w których masz już bearer token Mantle.

  • Ustaw bearer token na hoście gateway

    export AWS_BEARER_TOKEN_BEDROCK="..."
    

    Opcjonalnie ustaw region (domyślnie us-east-1):

    export AWS_REGION="us-west-2"
    
  • Sprawdź, czy modele są wykrywane

    openclaw models list
    

    Wykryte modele pojawiają się pod dostawcą amazon-bedrock-mantle. Nie jest wymagana dodatkowa konfiguracja, chyba że chcesz nadpisać ustawienia domyślne.

  • Poświadczenia IAM

    Najlepsze dla: używania poświadczeń zgodnych z AWS SDK (shared config, SSO, web identity, role instancji albo tasków).

  • Skonfiguruj poświadczenia AWS na hoście gateway

    Działa dowolne źródło auth zgodne z AWS SDK:

    export AWS_PROFILE="default"
    export AWS_REGION="us-west-2"
    
  • Sprawdź, czy modele są wykrywane

    openclaw models list
    

    OpenClaw automatycznie generuje bearer token Mantle z łańcucha poświadczeń.

  • Automatyczne wykrywanie modeli

    Gdy ustawiono AWS_BEARER_TOKEN_BEDROCK, OpenClaw używa go bezpośrednio. W przeciwnym razie OpenClaw próbuje wygenerować bearer token Mantle z domyślnego łańcucha poświadczeń AWS. Następnie wykrywa dostępne modele Mantle, odpytując endpoint /v1/models dla danego regionu.

    Zachowanie Szczegóły
    Cache wykrywania Wyniki cache'owane przez 1 godzinę
    Odświeżanie tokenu IAM Co godzinę

    Obsługiwane regiony

    us-east-1, us-east-2, us-west-2, ap-northeast-1, ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2, eu-south-1, eu-north-1, sa-east-1.

    Konfiguracja ręczna

    Jeśli wolisz jawną konfigurację zamiast auto-discovery:

    {
      models: {
        providers: {
          "amazon-bedrock-mantle": {
            baseUrl: "https://bedrock-mantle.us-east-1.api.aws/v1",
            api: "openai-completions",
            auth: "api-key",
            apiKey: "env:AWS_BEARER_TOKEN_BEDROCK",
            models: [
              {
                id: "gpt-oss-120b",
                name: "GPT-OSS 120B",
                reasoning: true,
                input: ["text"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 32000,
                maxTokens: 4096,
              },
            ],
          },
        },
      },
    }
    

    Konfiguracja zaawansowana

    Obsługa reasoning

    Obsługa reasoning jest wywnioskowywana z identyfikatorów modeli zawierających wzorce takie jak thinking, reasoner albo gpt-oss-120b. OpenClaw ustawia reasoning: true automatycznie dla pasujących modeli podczas wykrywania.

    Niedostępność endpointu

    Jeśli endpoint Mantle jest niedostępny albo nie zwraca modeli, dostawca jest po cichu pomijany. OpenClaw nie zgłasza błędu; inne skonfigurowane dostawcy nadal działają normalnie.

    Claude Opus 4.7 przez trasę Anthropic Messages

    Mantle udostępnia też trasę Anthropic Messages, która przenosi modele Claude przez tę samą ścieżkę streamingu uwierzytelnianą bearer tokenem. Claude Opus 4.7 (amazon-bedrock-mantle/claude-opus-4.7) można wywoływać przez tę trasę z provider-owned streaming, więc bearer tokeny AWS nie są traktowane jak klucze API Anthropic.

    Gdy przypniesz model Anthropic Messages do dostawcy Mantle, OpenClaw użyje dla tego modelu powierzchni API anthropic-messages zamiast openai-completions. Auth nadal pochodzi z AWS_BEARER_TOKEN_BEDROCK (albo utworzonego bearer tokenu IAM).

    {
      models: {
        providers: {
          "amazon-bedrock-mantle": {
            models: [
              {
                id: "claude-opus-4.7",
                name: "Claude Opus 4.7",
                api: "anthropic-messages",
                reasoning: true,
                input: ["text", "image"],
                contextWindow: 1000000,
                maxTokens: 32000,
              },
            ],
          },
        },
      },
    }
    
    Relacja do dostawcy Amazon Bedrock

    Bedrock Mantle jest osobnym dostawcą względem standardowego dostawcy Amazon Bedrock. Mantle używa powierzchni /v1 zgodnej z OpenAI, podczas gdy standardowy dostawca Bedrock używa natywnego API Bedrock.

    Obaj dostawcy współdzielą to samo poświadczenie AWS_BEARER_TOKEN_BEDROCK, gdy jest ono dostępne.

    Powiązane