Providers

Venice AI

Venice AI bietet datenschutzorientierte KI-Inferenz mit Unterstützung für unzensierte Modelle und Zugriff auf große proprietäre Modelle über ihren anonymisierten Proxy. Jede Inferenz ist standardmäßig privat — kein Training mit Ihren Daten, keine Protokollierung.

Warum Venice in OpenClaw

  • Private Inferenz für Open-Source-Modelle (keine Protokollierung).
  • Unzensierte Modelle, wenn Sie sie benötigen.
  • Anonymisierter Zugriff auf proprietäre Modelle (Opus/GPT/Gemini), wenn Qualität entscheidend ist.
  • OpenAI-kompatible /v1-Endpunkte.

Datenschutzmodi

Venice bietet zwei Datenschutzstufen — dieses Verständnis ist entscheidend für die Wahl Ihres Modells:

Modus Beschreibung Modelle
Privat Vollständig privat. Prompts/Antworten werden niemals gespeichert oder protokolliert. Flüchtig. Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, etc.
Anonymisiert Über Venice mit entfernten Metadaten weitergeleitet. Der zugrunde liegende Provider (OpenAI, Anthropic, Google, xAI) sieht anonymisierte Anfragen. Claude, GPT, Gemini, Grok

Funktionen

  • Datenschutzorientiert: Wählen Sie zwischen den Modi „privat“ (vollständig privat) und „anonymisiert“ (über Proxy weitergeleitet)
  • Unzensierte Modelle: Zugriff auf Modelle ohne Inhaltsbeschränkungen
  • Zugriff auf große Modelle: Verwenden Sie Claude, GPT, Gemini und Grok über den anonymisierten Proxy von Venice
  • OpenAI-kompatible API: Standardmäßige /v1-Endpunkte für einfache Integration
  • Streaming: Auf allen Modellen unterstützt
  • Function Calling: Auf ausgewählten Modellen unterstützt (Modellfunktionen prüfen)
  • Vision: Auf Modellen mit Vision-Funktion unterstützt
  • Keine harten Rate Limits: Fair-Use-Drosselung kann bei extremer Nutzung gelten

Erste Schritte

  • API-Schlüssel abrufen

    1. Registrieren Sie sich unter venice.ai
    2. Gehen Sie zu Settings > API Keys > Create new key
    3. Kopieren Sie Ihren API-Schlüssel (Format: vapi_xxxxxxxxxxxx)
  • OpenClaw konfigurieren

    Wählen Sie Ihre bevorzugte Einrichtungsmethode:

    Interaktiv (empfohlen)

    openclaw onboard --auth-choice venice-api-key
    

    Dies wird:

    1. Ihren API-Schlüssel abfragen (oder vorhandenes VENICE_API_KEY verwenden)
    2. Alle verfügbaren Venice-Modelle anzeigen
    3. Sie Ihr Standardmodell auswählen lassen
    4. Den Provider automatisch konfigurieren

    Umgebungsvariable

    export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
    

    Nicht interaktiv

    openclaw onboard --non-interactive \
      --auth-choice venice-api-key \
      --venice-api-key "vapi_xxxxxxxxxxxx"
    
  • Einrichtung überprüfen

    openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"
    
  • Modellauswahl

    Nach der Einrichtung zeigt OpenClaw alle verfügbaren Venice-Modelle an. Wählen Sie passend zu Ihren Anforderungen:

    • Standardmodell: venice/kimi-k2-5 für starkes privates Reasoning plus Vision.
    • Option mit hoher Leistungsfähigkeit: venice/claude-opus-4-6 für den stärksten anonymisierten Venice-Pfad.
    • Datenschutz: Wählen Sie „private“ Modelle für vollständig private Inferenz.
    • Fähigkeit: Wählen Sie „anonymisierte“ Modelle, um über den Proxy von Venice auf Claude, GPT und Gemini zuzugreifen.

    Ändern Sie Ihr Standardmodell jederzeit:

    openclaw models set venice/kimi-k2-5
    openclaw models set venice/claude-opus-4-6
    

    Alle verfügbaren Modelle auflisten:

    openclaw models list --all --provider venice
    

    Sie können auch openclaw configure ausführen, Model/auth auswählen und Venice AI wählen.

    DeepSeek-V4-Replay-Verhalten

    Wenn Venice DeepSeek-V4-Modelle wie venice/deepseek-v4-pro oder venice/deepseek-v4-flash bereitstellt, füllt OpenClaw den erforderlichen DeepSeek-V4- reasoning_content-Replay-Platzhalter in Assistant-Nachrichten aus, wenn der Proxy ihn auslässt. Venice lehnt DeepSeeks native Top-Level-thinking-Steuerung ab, daher hält OpenClaw diese Provider-spezifische Replay-Korrektur von den Thinking-Steuerungen des nativen DeepSeek-Providers getrennt.

    Integrierter Katalog (insgesamt 41)

    Private Modelle (26) — vollständig privat, keine Protokollierung
    Modell-ID Name Kontext Funktionen
    kimi-k2-5 Kimi K2.5 256k Standard, Reasoning, Vision
    kimi-k2-thinking Kimi K2 Thinking 256k Reasoning
    llama-3.3-70b Llama 3.3 70B 128k Allgemein
    llama-3.2-3b Llama 3.2 3B 128k Allgemein
    hermes-3-llama-3.1-405b Hermes 3 Llama 3.1 405B 128k Allgemein, Tools deaktiviert
    qwen3-235b-a22b-thinking-2507 Qwen3 235B Thinking 128k Reasoning
    qwen3-235b-a22b-instruct-2507 Qwen3 235B Instruct 128k Allgemein
    qwen3-coder-480b-a35b-instruct Qwen3 Coder 480B 256k Coding
    qwen3-coder-480b-a35b-instruct-turbo Qwen3 Coder 480B Turbo 256k Coding
    qwen3-5-35b-a3b Qwen3.5 35B A3B 256k Reasoning, Vision
    qwen3-next-80b Qwen3 Next 80B 256k Allgemein
    qwen3-vl-235b-a22b Qwen3 VL 235B (Vision) 256k Vision
    qwen3-4b Venice Small (Qwen3 4B) 32k Schnell, Reasoning
    deepseek-v3.2 DeepSeek V3.2 160k Reasoning, Tools deaktiviert
    venice-uncensored Venice Uncensored (Dolphin-Mistral) 32k Unzensiert, Tools deaktiviert
    mistral-31-24b Venice Medium (Mistral) 128k Vision
    google-gemma-3-27b-it Google Gemma 3 27B Instruct 198k Vision
    openai-gpt-oss-120b OpenAI GPT OSS 120B 128k Allgemein
    nvidia-nemotron-3-nano-30b-a3b NVIDIA Nemotron 3 Nano 30B 128k Allgemein
    olafangensan-glm-4.7-flash-heretic GLM 4.7 Flash Heretic 128k Reasoning
    zai-org-glm-4.6 GLM 4.6 198k Allgemein
    zai-org-glm-4.7 GLM 4.7 198k Reasoning
    zai-org-glm-4.7-flash GLM 4.7 Flash 128k Reasoning
    zai-org-glm-5 GLM 5 198k Reasoning
    minimax-m21 MiniMax M2.1 198k Reasoning
    minimax-m25 MiniMax M2.5 198k Reasoning
    Anonymisierte Modelle (15) — über Venice-Proxy
    Modell-ID Name Kontext Funktionen
    claude-opus-4-6 Claude Opus 4.6 (via Venice) 1M Reasoning, Vision
    claude-opus-4-5 Claude Opus 4.5 (via Venice) 198k Reasoning, Vision
    claude-sonnet-4-6 Claude Sonnet 4.6 (via Venice) 1M Reasoning, Vision
    claude-sonnet-4-5 Claude Sonnet 4.5 (via Venice) 198k Reasoning, Vision
    openai-gpt-54 GPT-5.4 (via Venice) 1M Reasoning, Vision
    openai-gpt-53-codex GPT-5.3 Codex (via Venice) 400k Reasoning, Vision, Coding
    openai-gpt-52 GPT-5.2 (via Venice) 256k Reasoning
    openai-gpt-52-codex GPT-5.2 Codex (via Venice) 256k Reasoning, Vision, Coding
    openai-gpt-4o-2024-11-20 GPT-4o (via Venice) 128k Vision
    openai-gpt-4o-mini-2024-07-18 GPT-4o Mini (via Venice) 128k Vision
    gemini-3-1-pro-preview Gemini 3.1 Pro (via Venice) 1M Reasoning, Vision
    gemini-3-pro-preview Gemini 3 Pro (via Venice) 198k Reasoning, Vision
    gemini-3-flash-preview Gemini 3 Flash (via Venice) 256k Reasoning, Vision
    grok-41-fast Grok 4.1 Fast (via Venice) 1M Reasoning, Vision
    grok-code-fast-1 Grok Code Fast 1 (via Venice) 256k Reasoning, Coding

    Modellerkennung

    OpenClaw liefert einen manifestgestützten Venice-Seed-Katalog für die schreibgeschützte Modellauflistung aus. Die Laufzeitaktualisierung kann Modelle weiterhin über die Venice-API erkennen und fällt auf den Manifestkatalog zurück, wenn die API nicht erreichbar ist.

    Der /models-Endpunkt ist öffentlich (keine Authentifizierung für die Auflistung erforderlich), aber Inferenz erfordert einen gültigen API-Schlüssel.

    Streaming- und Tool-Unterstützung

    Funktion Unterstützung
    Streaming Alle Modelle
    Funktionsaufrufe Die meisten Modelle (prüfen Sie supportsFunctionCalling in der API)
    Vision/Bilder Modelle, die mit der Funktion "Vision" gekennzeichnet sind
    JSON-Modus Unterstützt über response_format

    Preise

    Venice verwendet ein guthabenbasiertes System. Aktuelle Preise finden Sie unter venice.ai/pricing:

    • Private Modelle: In der Regel niedrigere Kosten
    • Anonymisierte Modelle: Ähnlich wie direkte API-Preise + kleine Venice-Gebühr

    Venice (anonymisiert) vs. direkte API

    Aspekt Venice (anonymisiert) Direkte API
    Privacy Metadaten entfernt, anonymisiert Ihr Konto ist verknüpft
    Latenz +10-50 ms (Proxy) Direkt
    Funktionen Die meisten Funktionen unterstützt Voller Funktionsumfang
    Abrechnung Venice-Guthaben Provider-Abrechnung

    Nutzungsbeispiele

    # Use the default private model
    openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
    
    # Use Claude Opus via Venice (anonymized)
    openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
    
    # Use uncensored model
    openclaw agent --model venice/venice-uncensored --message "Draft options"
    
    # Use vision model with image
    openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
    
    # Use coding model
    openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
    

    Fehlerbehebung

    API-Schlüssel wird nicht erkannt
    echo $VENICE_API_KEY
    openclaw models list | grep venice
    

    Stellen Sie sicher, dass der Schlüssel mit vapi_ beginnt.

    Modell nicht verfügbar

    Der Venice-Modellkatalog wird dynamisch aktualisiert. Führen Sie openclaw models list aus, um die derzeit verfügbaren Modelle anzuzeigen. Einige Modelle können vorübergehend offline sein.

    Verbindungsprobleme

    Die Venice API ist unter https://api.venice.ai/api/v1 erreichbar. Stellen Sie sicher, dass Ihr Netzwerk HTTPS-Verbindungen zulässt.

    Erweiterte Konfiguration

    Beispiel für Konfigurationsdatei
    {
      env: { VENICE_API_KEY: "vapi_..." },
      agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
      models: {
        mode: "merge",
        providers: {
          venice: {
            baseUrl: "https://api.venice.ai/api/v1",
            apiKey: "${VENICE_API_KEY}",
            api: "openai-completions",
            models: [
              {
                id: "kimi-k2-5",
                name: "Kimi K2.5",
                reasoning: true,
                input: ["text", "image"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 256000,
                maxTokens: 65536,
              },
            ],
          },
        },
      },
    }
    

    Verwandt