Providers

NVIDIA

NVIDIA fornisce un'API compatibile con OpenAI all'indirizzo https://integrate.api.nvidia.com/v1 per modelli aperti gratuiti. Esegui l'autenticazione con una chiave API da build.nvidia.com.

Per iniziare

  • Ottieni la tua chiave API

    Crea una chiave API su build.nvidia.com.

  • Esporta la chiave ed esegui l'onboarding

    export NVIDIA_API_KEY="nvapi-..."
    openclaw onboard --auth-choice nvidia-api-key
    
  • Imposta un modello NVIDIA

    openclaw models set nvidia/nvidia/nemotron-3-super-120b-a12b
    
  • Per la configurazione non interattiva, puoi anche passare direttamente la chiave:

    openclaw onboard --auth-choice nvidia-api-key --nvidia-api-key "nvapi-..."
    

    Esempio di configurazione

    {
      env: { NVIDIA_API_KEY: "nvapi-..." },
      models: {
        providers: {
          nvidia: {
            baseUrl: "https://integrate.api.nvidia.com/v1",
            api: "openai-completions",
          },
        },
      },
      agents: {
        defaults: {
          model: { primary: "nvidia/nvidia/nemotron-3-super-120b-a12b" },
        },
      },
    }
    

    Catalogo integrato

    Riferimento modello Nome Contesto Output massimo
    nvidia/nvidia/nemotron-3-super-120b-a12b NVIDIA Nemotron 3 Super 120B 262,144 8,192
    nvidia/moonshotai/kimi-k2.5 Kimi K2.5 262,144 8,192
    nvidia/minimaxai/minimax-m2.5 Minimax M2.5 196,608 8,192
    nvidia/z-ai/glm5 GLM 5 202,752 8,192

    Configurazione avanzata

    Comportamento di abilitazione automatica

    Il provider si abilita automaticamente quando la variabile di ambiente NVIDIA_API_KEY è impostata. Non è richiesta alcuna configurazione esplicita del provider oltre alla chiave.

    Catalogo e prezzi

    Il catalogo incluso è statico. I costi hanno valore predefinito 0 nel sorgente, poiché NVIDIA attualmente offre accesso API gratuito per i modelli elencati.

    Endpoint compatibile con OpenAI

    NVIDIA usa l'endpoint completions standard /v1. Qualsiasi strumento compatibile con OpenAI dovrebbe funzionare subito con l'URL di base NVIDIA.

    Risposte lente dei provider personalizzati

    Alcuni modelli personalizzati ospitati da NVIDIA possono richiedere più tempo del watchdog di inattività predefinito del modello prima di emettere il primo frammento di risposta. Per le voci di provider NVIDIA personalizzate, aumenta il timeout del provider invece di aumentare il timeout dell'intero runtime dell'agent:

    {
      models: {
        providers: {
          "custom-integrate-api-nvidia-com": {
            baseUrl: "https://integrate.api.nvidia.com/v1",
            api: "openai-completions",
            apiKey: "NVIDIA_API_KEY",
            timeoutSeconds: 300,
          },
        },
      },
      agents: {
        defaults: {
          models: {
            "custom-integrate-api-nvidia-com/meta/llama-3.1-70b-instruct": {
              params: { thinking: "off" },
            },
          },
        },
      },
    }
    

    Correlati