Providers
Venice AI
Venice AI bietet datenschutzorientierte KI-Inferenz mit Unterstützung für unzensierte Modelle und Zugriff auf große proprietäre Modelle über ihren anonymisierten Proxy. Jede Inferenz ist standardmäßig privat — kein Training mit Ihren Daten, keine Protokollierung.
Warum Venice in OpenClaw
- Private Inferenz für Open-Source-Modelle (keine Protokollierung).
- Unzensierte Modelle, wenn Sie sie benötigen.
- Anonymisierter Zugriff auf proprietäre Modelle (Opus/GPT/Gemini), wenn Qualität entscheidend ist.
- OpenAI-kompatible
/v1-Endpunkte.
Datenschutzmodi
Venice bietet zwei Datenschutzstufen — dieses Verständnis ist entscheidend für die Wahl Ihres Modells:
| Modus | Beschreibung | Modelle |
|---|---|---|
| Privat | Vollständig privat. Prompts/Antworten werden niemals gespeichert oder protokolliert. Flüchtig. | Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, etc. |
| Anonymisiert | Über Venice mit entfernten Metadaten weitergeleitet. Der zugrunde liegende Provider (OpenAI, Anthropic, Google, xAI) sieht anonymisierte Anfragen. | Claude, GPT, Gemini, Grok |
Funktionen
- Datenschutzorientiert: Wählen Sie zwischen den Modi „privat“ (vollständig privat) und „anonymisiert“ (über Proxy weitergeleitet)
- Unzensierte Modelle: Zugriff auf Modelle ohne Inhaltsbeschränkungen
- Zugriff auf große Modelle: Verwenden Sie Claude, GPT, Gemini und Grok über den anonymisierten Proxy von Venice
- OpenAI-kompatible API: Standardmäßige
/v1-Endpunkte für einfache Integration - Streaming: Auf allen Modellen unterstützt
- Function Calling: Auf ausgewählten Modellen unterstützt (Modellfunktionen prüfen)
- Vision: Auf Modellen mit Vision-Funktion unterstützt
- Keine harten Rate Limits: Fair-Use-Drosselung kann bei extremer Nutzung gelten
Erste Schritte
API-Schlüssel abrufen
- Registrieren Sie sich unter venice.ai
- Gehen Sie zu Settings > API Keys > Create new key
- Kopieren Sie Ihren API-Schlüssel (Format:
vapi_xxxxxxxxxxxx)
OpenClaw konfigurieren
Wählen Sie Ihre bevorzugte Einrichtungsmethode:
Interaktiv (empfohlen)
openclaw onboard --auth-choice venice-api-key
Dies wird:
- Ihren API-Schlüssel abfragen (oder vorhandenes
VENICE_API_KEYverwenden) - Alle verfügbaren Venice-Modelle anzeigen
- Sie Ihr Standardmodell auswählen lassen
- Den Provider automatisch konfigurieren
Umgebungsvariable
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
Nicht interaktiv
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
Einrichtung überprüfen
openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"
Modellauswahl
Nach der Einrichtung zeigt OpenClaw alle verfügbaren Venice-Modelle an. Wählen Sie passend zu Ihren Anforderungen:
- Standardmodell:
venice/kimi-k2-5für starkes privates Reasoning plus Vision. - Option mit hoher Leistungsfähigkeit:
venice/claude-opus-4-6für den stärksten anonymisierten Venice-Pfad. - Datenschutz: Wählen Sie „private“ Modelle für vollständig private Inferenz.
- Fähigkeit: Wählen Sie „anonymisierte“ Modelle, um über den Proxy von Venice auf Claude, GPT und Gemini zuzugreifen.
Ändern Sie Ihr Standardmodell jederzeit:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Alle verfügbaren Modelle auflisten:
openclaw models list --all --provider venice
Sie können auch openclaw configure ausführen, Model/auth auswählen und Venice AI wählen.
DeepSeek-V4-Replay-Verhalten
Wenn Venice DeepSeek-V4-Modelle wie venice/deepseek-v4-pro oder
venice/deepseek-v4-flash bereitstellt, füllt OpenClaw den erforderlichen DeepSeek-V4-
reasoning_content-Replay-Platzhalter in Assistant-Nachrichten aus, wenn der Proxy
ihn auslässt. Venice lehnt DeepSeeks native Top-Level-thinking-Steuerung ab, daher
hält OpenClaw diese Provider-spezifische Replay-Korrektur von den Thinking-Steuerungen
des nativen DeepSeek-Providers getrennt.
Integrierter Katalog (insgesamt 41)
Private Modelle (26) — vollständig privat, keine Protokollierung
| Modell-ID | Name | Kontext | Funktionen |
|---|---|---|---|
kimi-k2-5 |
Kimi K2.5 | 256k | Standard, Reasoning, Vision |
kimi-k2-thinking |
Kimi K2 Thinking | 256k | Reasoning |
llama-3.3-70b |
Llama 3.3 70B | 128k | Allgemein |
llama-3.2-3b |
Llama 3.2 3B | 128k | Allgemein |
hermes-3-llama-3.1-405b |
Hermes 3 Llama 3.1 405B | 128k | Allgemein, Tools deaktiviert |
qwen3-235b-a22b-thinking-2507 |
Qwen3 235B Thinking | 128k | Reasoning |
qwen3-235b-a22b-instruct-2507 |
Qwen3 235B Instruct | 128k | Allgemein |
qwen3-coder-480b-a35b-instruct |
Qwen3 Coder 480B | 256k | Coding |
qwen3-coder-480b-a35b-instruct-turbo |
Qwen3 Coder 480B Turbo | 256k | Coding |
qwen3-5-35b-a3b |
Qwen3.5 35B A3B | 256k | Reasoning, Vision |
qwen3-next-80b |
Qwen3 Next 80B | 256k | Allgemein |
qwen3-vl-235b-a22b |
Qwen3 VL 235B (Vision) | 256k | Vision |
qwen3-4b |
Venice Small (Qwen3 4B) | 32k | Schnell, Reasoning |
deepseek-v3.2 |
DeepSeek V3.2 | 160k | Reasoning, Tools deaktiviert |
venice-uncensored |
Venice Uncensored (Dolphin-Mistral) | 32k | Unzensiert, Tools deaktiviert |
mistral-31-24b |
Venice Medium (Mistral) | 128k | Vision |
google-gemma-3-27b-it |
Google Gemma 3 27B Instruct | 198k | Vision |
openai-gpt-oss-120b |
OpenAI GPT OSS 120B | 128k | Allgemein |
nvidia-nemotron-3-nano-30b-a3b |
NVIDIA Nemotron 3 Nano 30B | 128k | Allgemein |
olafangensan-glm-4.7-flash-heretic |
GLM 4.7 Flash Heretic | 128k | Reasoning |
zai-org-glm-4.6 |
GLM 4.6 | 198k | Allgemein |
zai-org-glm-4.7 |
GLM 4.7 | 198k | Reasoning |
zai-org-glm-4.7-flash |
GLM 4.7 Flash | 128k | Reasoning |
zai-org-glm-5 |
GLM 5 | 198k | Reasoning |
minimax-m21 |
MiniMax M2.1 | 198k | Reasoning |
minimax-m25 |
MiniMax M2.5 | 198k | Reasoning |
Anonymisierte Modelle (15) — über Venice-Proxy
| Modell-ID | Name | Kontext | Funktionen |
|---|---|---|---|
claude-opus-4-6 |
Claude Opus 4.6 (via Venice) | 1M | Reasoning, Vision |
claude-opus-4-5 |
Claude Opus 4.5 (via Venice) | 198k | Reasoning, Vision |
claude-sonnet-4-6 |
Claude Sonnet 4.6 (via Venice) | 1M | Reasoning, Vision |
claude-sonnet-4-5 |
Claude Sonnet 4.5 (via Venice) | 198k | Reasoning, Vision |
openai-gpt-54 |
GPT-5.4 (via Venice) | 1M | Reasoning, Vision |
openai-gpt-53-codex |
GPT-5.3 Codex (via Venice) | 400k | Reasoning, Vision, Coding |
openai-gpt-52 |
GPT-5.2 (via Venice) | 256k | Reasoning |
openai-gpt-52-codex |
GPT-5.2 Codex (via Venice) | 256k | Reasoning, Vision, Coding |
openai-gpt-4o-2024-11-20 |
GPT-4o (via Venice) | 128k | Vision |
openai-gpt-4o-mini-2024-07-18 |
GPT-4o Mini (via Venice) | 128k | Vision |
gemini-3-1-pro-preview |
Gemini 3.1 Pro (via Venice) | 1M | Reasoning, Vision |
gemini-3-pro-preview |
Gemini 3 Pro (via Venice) | 198k | Reasoning, Vision |
gemini-3-flash-preview |
Gemini 3 Flash (via Venice) | 256k | Reasoning, Vision |
grok-41-fast |
Grok 4.1 Fast (via Venice) | 1M | Reasoning, Vision |
grok-code-fast-1 |
Grok Code Fast 1 (via Venice) | 256k | Reasoning, Coding |
Modellerkennung
OpenClaw liefert einen manifestgestützten Venice-Seed-Katalog für die schreibgeschützte Modellauflistung aus. Die Laufzeitaktualisierung kann Modelle weiterhin über die Venice-API erkennen und fällt auf den Manifestkatalog zurück, wenn die API nicht erreichbar ist.
Der /models-Endpunkt ist öffentlich (keine Authentifizierung für die Auflistung erforderlich), aber Inferenz erfordert einen gültigen API-Schlüssel.
Streaming- und Tool-Unterstützung
| Funktion | Unterstützung |
|---|---|
| Streaming | Alle Modelle |
| Funktionsaufrufe | Die meisten Modelle (prüfen Sie supportsFunctionCalling in der API) |
| Vision/Bilder | Modelle, die mit der Funktion "Vision" gekennzeichnet sind |
| JSON-Modus | Unterstützt über response_format |
Preise
Venice verwendet ein guthabenbasiertes System. Aktuelle Preise finden Sie unter venice.ai/pricing:
- Private Modelle: In der Regel niedrigere Kosten
- Anonymisierte Modelle: Ähnlich wie direkte API-Preise + kleine Venice-Gebühr
Venice (anonymisiert) vs. direkte API
| Aspekt | Venice (anonymisiert) | Direkte API |
|---|---|---|
| Privacy | Metadaten entfernt, anonymisiert | Ihr Konto ist verknüpft |
| Latenz | +10-50 ms (Proxy) | Direkt |
| Funktionen | Die meisten Funktionen unterstützt | Voller Funktionsumfang |
| Abrechnung | Venice-Guthaben | Provider-Abrechnung |
Nutzungsbeispiele
# Use the default private model
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
# Use Claude Opus via Venice (anonymized)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
# Use uncensored model
openclaw agent --model venice/venice-uncensored --message "Draft options"
# Use vision model with image
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
# Use coding model
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
Fehlerbehebung
API-Schlüssel wird nicht erkannt
echo $VENICE_API_KEY
openclaw models list | grep venice
Stellen Sie sicher, dass der Schlüssel mit vapi_ beginnt.
Modell nicht verfügbar
Der Venice-Modellkatalog wird dynamisch aktualisiert. Führen Sie openclaw models list aus, um die derzeit verfügbaren Modelle anzuzeigen. Einige Modelle können vorübergehend offline sein.
Verbindungsprobleme
Die Venice API ist unter https://api.venice.ai/api/v1 erreichbar. Stellen Sie sicher, dass Ihr Netzwerk HTTPS-Verbindungen zulässt.
Erweiterte Konfiguration
Beispiel für Konfigurationsdatei
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2-5",
name: "Kimi K2.5",
reasoning: true,
input: ["text", "image"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 65536,
},
],
},
},
},
}