Providers

NVIDIA

NVIDIA udostępnia API zgodne z OpenAI pod adresem https://integrate.api.nvidia.com/v1 dla otwartych modeli za darmo. Uwierzytelnij się kluczem API z build.nvidia.com.

Pierwsze kroki

  • Get your API key

    Utwórz klucz API na build.nvidia.com.

  • Export the key and run onboarding

    export NVIDIA_API_KEY="nvapi-..."
    openclaw onboard --auth-choice nvidia-api-key
    
  • Set an NVIDIA model

    openclaw models set nvidia/nvidia/nemotron-3-super-120b-a12b
    
  • W przypadku konfiguracji nieinteraktywnej możesz też przekazać klucz bezpośrednio:

    openclaw onboard --auth-choice nvidia-api-key --nvidia-api-key "nvapi-..."
    

    Przykład konfiguracji

    {
      env: { NVIDIA_API_KEY: "nvapi-..." },
      models: {
        providers: {
          nvidia: {
            baseUrl: "https://integrate.api.nvidia.com/v1",
            api: "openai-completions",
          },
        },
      },
      agents: {
        defaults: {
          model: { primary: "nvidia/nvidia/nemotron-3-super-120b-a12b" },
        },
      },
    }
    

    Wbudowany katalog

    Odwołanie do modelu Nazwa Kontekst Maks. dane wyjściowe
    nvidia/nvidia/nemotron-3-super-120b-a12b NVIDIA Nemotron 3 Super 120B 262,144 8,192
    nvidia/moonshotai/kimi-k2.5 Kimi K2.5 262,144 8,192
    nvidia/minimaxai/minimax-m2.5 Minimax M2.5 196,608 8,192
    nvidia/z-ai/glm5 GLM 5 202,752 8,192

    Konfiguracja zaawansowana

    Auto-enable behavior

    Dostawca włącza się automatycznie, gdy ustawiona jest zmienna środowiskowa NVIDIA_API_KEY. Poza kluczem nie jest wymagana żadna jawna konfiguracja dostawcy.

    Catalog and pricing

    Dołączony katalog jest statyczny. Koszty domyślnie wynoszą 0 w źródle, ponieważ NVIDIA obecnie oferuje bezpłatny dostęp API dla wymienionych modeli.

    OpenAI-compatible endpoint

    NVIDIA używa standardowego punktu końcowego uzupełnień /v1. Każde narzędzie zgodne z OpenAI powinno działać od razu z bazowym adresem URL NVIDIA.

    Slow custom provider responses

    Niektóre modele niestandardowe hostowane przez NVIDIA mogą potrzebować więcej czasu niż domyślny limit bezczynności modelu, zanim wyemitują pierwszy fragment odpowiedzi. Dla niestandardowych wpisów dostawcy NVIDIA zwiększ limit czasu dostawcy zamiast zwiększać limit czasu całego środowiska uruchomieniowego agenta:

    {
      models: {
        providers: {
          "custom-integrate-api-nvidia-com": {
            baseUrl: "https://integrate.api.nvidia.com/v1",
            api: "openai-completions",
            apiKey: "NVIDIA_API_KEY",
            timeoutSeconds: 300,
          },
        },
      },
      agents: {
        defaults: {
          models: {
            "custom-integrate-api-nvidia-com/meta/llama-3.1-70b-instruct": {
              params: { thinking: "off" },
            },
          },
        },
      },
    }
    

    Powiązane