Providers
NVIDIA
NVIDIA stellt unter https://integrate.api.nvidia.com/v1 eine OpenAI-kompatible API für
offene Modelle kostenlos bereit. Authentifizieren Sie sich mit einem API-Schlüssel von
build.nvidia.com.
Erste Schritte
API-Schlüssel abrufen
Erstellen Sie einen API-Schlüssel unter build.nvidia.com.
Schlüssel exportieren und Onboarding ausführen
export NVIDIA_API_KEY="nvapi-..."
openclaw onboard --auth-choice nvidia-api-key
Ein NVIDIA-Modell festlegen
openclaw models set nvidia/nvidia/nemotron-3-super-120b-a12b
Für die nicht interaktive Einrichtung können Sie den Schlüssel auch direkt übergeben:
openclaw onboard --auth-choice nvidia-api-key --nvidia-api-key "nvapi-..."
Konfigurationsbeispiel
{
env: { NVIDIA_API_KEY: "nvapi-..." },
models: {
providers: {
nvidia: {
baseUrl: "https://integrate.api.nvidia.com/v1",
api: "openai-completions",
},
},
},
agents: {
defaults: {
model: { primary: "nvidia/nvidia/nemotron-3-super-120b-a12b" },
},
},
}
Integrierter Katalog
| Modellreferenz | Name | Kontext | Max. Ausgabe |
|---|---|---|---|
nvidia/nvidia/nemotron-3-super-120b-a12b |
NVIDIA Nemotron 3 Super 120B | 262,144 | 8,192 |
nvidia/moonshotai/kimi-k2.5 |
Kimi K2.5 | 262,144 | 8,192 |
nvidia/minimaxai/minimax-m2.5 |
Minimax M2.5 | 196,608 | 8,192 |
nvidia/z-ai/glm5 |
GLM 5 | 202,752 | 8,192 |
Erweiterte Konfiguration
Verhalten beim automatischen Aktivieren
Der Provider wird automatisch aktiviert, wenn die Umgebungsvariable NVIDIA_API_KEY gesetzt ist.
Über den Schlüssel hinaus ist keine explizite Provider-Konfiguration erforderlich.
Katalog und Preise
Der gebündelte Katalog ist statisch. Die Kosten sind im Quellcode standardmäßig auf 0
gesetzt, da NVIDIA derzeit kostenlosen API-Zugriff für die aufgeführten Modelle anbietet.
OpenAI-kompatibler Endpunkt
NVIDIA verwendet den standardmäßigen /v1-Completions-Endpunkt. Alle OpenAI-kompatiblen
Tools sollten mit der NVIDIA-Basis-URL sofort funktionieren.
Langsame Antworten benutzerdefinierter Provider
Einige von NVIDIA gehostete benutzerdefinierte Modelle können länger brauchen als der standardmäßige Leerlauf- Watchdog des Modells, bevor sie den ersten Antwort-Chunk ausgeben. Erhöhen Sie bei benutzerdefinierten NVIDIA-Provider- Einträgen das Provider-Timeout, statt das Laufzeit-Timeout des gesamten Agenten zu erhöhen:
{
models: {
providers: {
"custom-integrate-api-nvidia-com": {
baseUrl: "https://integrate.api.nvidia.com/v1",
api: "openai-completions",
apiKey: "NVIDIA_API_KEY",
timeoutSeconds: 300,
},
},
},
agents: {
defaults: {
models: {
"custom-integrate-api-nvidia-com/meta/llama-3.1-70b-instruct": {
params: { thinking: "off" },
},
},
},
},
}