Providers

Venice AI

Venice AI zapewnia wnioskowanie AI z naciskiem na prywatność, z obsługą modeli bez cenzury oraz dostępem do głównych modeli własnościowych przez ich anonimizowany proxy. Całe wnioskowanie jest domyślnie prywatne — bez trenowania na Twoich danych, bez logowania.

Dlaczego Venice w OpenClaw

  • Prywatne wnioskowanie dla modeli open source (bez logowania).
  • Modele bez cenzury, gdy ich potrzebujesz.
  • Anonimizowany dostęp do modeli własnościowych (Opus/GPT/Gemini), gdy liczy się jakość.
  • Endpointy /v1 zgodne z OpenAI.

Tryby prywatności

Venice oferuje dwa poziomy prywatności — zrozumienie tego jest kluczowe przy wyborze modelu:

Tryb Opis Modele
Prywatny W pełni prywatny. Prompty/odpowiedzi nigdy nie są przechowywane ani logowane. Efemeryczny. Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored itd.
Anonimizowany Przekazywany przez Venice z usuniętymi metadanymi. Bazowy dostawca (OpenAI, Anthropic, Google, xAI) widzi zanonimizowane żądania. Claude, GPT, Gemini, Grok

Funkcje

  • Nacisk na prywatność: Wybierz między trybami „private” (w pełni prywatny) i „anonymized” (przez proxy)
  • Modele bez cenzury: Dostęp do modeli bez ograniczeń treści
  • Dostęp do głównych modeli: Używaj Claude, GPT, Gemini i Grok przez anonimizowany proxy Venice
  • API zgodne z OpenAI: Standardowe endpointy /v1 ułatwiające integrację
  • Streaming: Obsługiwany we wszystkich modelach
  • Wywoływanie funkcji: Obsługiwane w wybranych modelach (sprawdź możliwości modelu)
  • Wizja: Obsługiwana w modelach z możliwością przetwarzania obrazu
  • Brak sztywnych limitów szybkości: Przy ekstremalnym użyciu może obowiązywać ograniczanie zgodnie z zasadami uczciwego korzystania

Pierwsze kroki

  • Get your API key

    1. Zarejestruj się na venice.ai
    2. Przejdź do Settings > API Keys > Create new key
    3. Skopiuj swój klucz API (format: vapi_xxxxxxxxxxxx)
  • Configure OpenClaw

    Wybierz preferowaną metodę konfiguracji:

    Interactive (recommended)

    openclaw onboard --auth-choice venice-api-key
    

    To:

    1. Poprosi o klucz API (lub użyje istniejącego VENICE_API_KEY)
    2. Pokaże wszystkie dostępne modele Venice
    3. Pozwoli wybrać model domyślny
    4. Automatycznie skonfiguruje dostawcę

    Environment variable

    export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
    

    Non-interactive

    openclaw onboard --non-interactive \
      --auth-choice venice-api-key \
      --venice-api-key "vapi_xxxxxxxxxxxx"
    
  • Verify setup

    openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"
    
  • Wybór modelu

    Po konfiguracji OpenClaw pokazuje wszystkie dostępne modele Venice. Wybierz w zależności od potrzeb:

    • Model domyślny: venice/kimi-k2-5 do silnego prywatnego rozumowania oraz wizji.
    • Opcja o dużych możliwościach: venice/claude-opus-4-6 jako najmocniejsza anonimizowana ścieżka Venice.
    • Prywatność: Wybierz modele „private” do w pełni prywatnego wnioskowania.
    • Możliwości: Wybierz modele „anonymized”, aby uzyskać dostęp do Claude, GPT, Gemini przez proxy Venice.

    Zmień swój model domyślny w dowolnym momencie:

    openclaw models set venice/kimi-k2-5
    openclaw models set venice/claude-opus-4-6
    

    Wyświetl wszystkie dostępne modele:

    openclaw models list --all --provider venice
    

    Możesz też uruchomić openclaw configure, wybrać Model/auth i wybrać Venice AI.

    Zachowanie odtwarzania DeepSeek V4

    Jeśli Venice udostępnia modele DeepSeek V4, takie jak venice/deepseek-v4-pro lub venice/deepseek-v4-flash, OpenClaw uzupełnia wymagany przez DeepSeek V4 placeholder odtwarzania reasoning_content w wiadomościach asystenta, gdy proxy go pomija. Venice odrzuca natywną kontrolę najwyższego poziomu DeepSeek thinking, więc OpenClaw utrzymuje tę specyficzną dla dostawcy poprawkę odtwarzania oddzielnie od natywnych kontrolek myślenia dostawcy DeepSeek.

    Wbudowany katalog (łącznie 41)

    Private models (26) — fully private, no logging
    ID modelu Nazwa Kontekst Funkcje
    kimi-k2-5 Kimi K2.5 256k Domyślny, rozumowanie, wizja
    kimi-k2-thinking Kimi K2 Thinking 256k Rozumowanie
    llama-3.3-70b Llama 3.3 70B 128k Ogólne
    llama-3.2-3b Llama 3.2 3B 128k Ogólne
    hermes-3-llama-3.1-405b Hermes 3 Llama 3.1 405B 128k Ogólne, narzędzia wyłączone
    qwen3-235b-a22b-thinking-2507 Qwen3 235B Thinking 128k Rozumowanie
    qwen3-235b-a22b-instruct-2507 Qwen3 235B Instruct 128k Ogólne
    qwen3-coder-480b-a35b-instruct Qwen3 Coder 480B 256k Kodowanie
    qwen3-coder-480b-a35b-instruct-turbo Qwen3 Coder 480B Turbo 256k Kodowanie
    qwen3-5-35b-a3b Qwen3.5 35B A3B 256k Rozumowanie, wizja
    qwen3-next-80b Qwen3 Next 80B 256k Ogólne
    qwen3-vl-235b-a22b Qwen3 VL 235B (Vision) 256k Wizja
    qwen3-4b Venice Small (Qwen3 4B) 32k Szybki, rozumowanie
    deepseek-v3.2 DeepSeek V3.2 160k Rozumowanie, narzędzia wyłączone
    venice-uncensored Venice Uncensored (Dolphin-Mistral) 32k Bez cenzury, narzędzia wyłączone
    mistral-31-24b Venice Medium (Mistral) 128k Wizja
    google-gemma-3-27b-it Google Gemma 3 27B Instruct 198k Wizja
    openai-gpt-oss-120b OpenAI GPT OSS 120B 128k Ogólne
    nvidia-nemotron-3-nano-30b-a3b NVIDIA Nemotron 3 Nano 30B 128k Ogólne
    olafangensan-glm-4.7-flash-heretic GLM 4.7 Flash Heretic 128k Rozumowanie
    zai-org-glm-4.6 GLM 4.6 198k Ogólne
    zai-org-glm-4.7 GLM 4.7 198k Rozumowanie
    zai-org-glm-4.7-flash GLM 4.7 Flash 128k Rozumowanie
    zai-org-glm-5 GLM 5 198k Rozumowanie
    minimax-m21 MiniMax M2.1 198k Rozumowanie
    minimax-m25 MiniMax M2.5 198k Rozumowanie
    Anonymized models (15) — via Venice proxy
    ID modelu Nazwa Kontekst Funkcje
    claude-opus-4-6 Claude Opus 4.6 (via Venice) 1M Rozumowanie, wizja
    claude-opus-4-5 Claude Opus 4.5 (via Venice) 198k Rozumowanie, wizja
    claude-sonnet-4-6 Claude Sonnet 4.6 (via Venice) 1M Rozumowanie, wizja
    claude-sonnet-4-5 Claude Sonnet 4.5 (via Venice) 198k Rozumowanie, wizja
    openai-gpt-54 GPT-5.4 (via Venice) 1M Rozumowanie, wizja
    openai-gpt-53-codex GPT-5.3 Codex (via Venice) 400k Rozumowanie, wizja, kodowanie
    openai-gpt-52 GPT-5.2 (via Venice) 256k Rozumowanie
    openai-gpt-52-codex GPT-5.2 Codex (via Venice) 256k Rozumowanie, wizja, kodowanie
    openai-gpt-4o-2024-11-20 GPT-4o (via Venice) 128k Wizja
    openai-gpt-4o-mini-2024-07-18 GPT-4o Mini (via Venice) 128k Wizja
    gemini-3-1-pro-preview Gemini 3.1 Pro (via Venice) 1M Rozumowanie, wizja
    gemini-3-pro-preview Gemini 3 Pro (via Venice) 198k Rozumowanie, wizja
    gemini-3-flash-preview Gemini 3 Flash (via Venice) 256k Rozumowanie, wizja
    grok-41-fast Grok 4.1 Fast (via Venice) 1M Rozumowanie, wizja
    grok-code-fast-1 Grok Code Fast 1 (via Venice) 256k Rozumowanie, kodowanie

    Wykrywanie modeli

    OpenClaw dostarcza oparty na manifeście katalog początkowy Venice do listy modeli tylko do odczytu. Odświeżanie w czasie działania nadal może wykrywać modele z API Venice i wraca do katalogu manifestu, jeśli API jest nieosiągalne.

    Endpoint /models jest publiczny (do listowania nie jest potrzebne uwierzytelnienie), ale wnioskowanie wymaga prawidłowego klucza API.

    Streaming i obsługa narzędzi

    Funkcja Obsługa
    Streaming Wszystkie modele
    Wywoływanie funkcji Większość modeli (sprawdź supportsFunctionCalling w API)
    Vision/Obrazy Modele oznaczone funkcją „Vision”
    Tryb JSON Obsługiwany przez response_format

    Cennik

    Venice używa systemu opartego na kredytach. Sprawdź aktualne stawki na venice.ai/pricing:

    • Modele prywatne: Zwykle niższy koszt
    • Modele anonimizowane: Podobne do cen bezpośredniego API + niewielka opłata Venice

    Venice (anonimizowane) a bezpośrednie API

    Aspekt Venice (anonimizowane) Bezpośrednie API
    Prywatność Metadane usuwane, anonimizowane Połączone z Twoim kontem
    Opóźnienie +10-50 ms (proxy) Bezpośrednie
    Funkcje Obsługiwana większość funkcji Pełny zestaw funkcji
    Rozliczenia Kredyty Venice Rozliczenia dostawcy

    Przykłady użycia

    # Use the default private model
    openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
    
    # Use Claude Opus via Venice (anonymized)
    openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
    
    # Use uncensored model
    openclaw agent --model venice/venice-uncensored --message "Draft options"
    
    # Use vision model with image
    openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
    
    # Use coding model
    openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
    

    Rozwiązywanie problemów

    Klucz API nie został rozpoznany
    echo $VENICE_API_KEY
    openclaw models list | grep venice
    

    Upewnij się, że klucz zaczyna się od vapi_.

    Model jest niedostępny

    Katalog modeli Venice aktualizuje się dynamicznie. Uruchom openclaw models list, aby zobaczyć aktualnie dostępne modele. Niektóre modele mogą być tymczasowo offline.

    Problemy z połączeniem

    API Venice znajduje się pod adresem https://api.venice.ai/api/v1. Upewnij się, że Twoja sieć zezwala na połączenia HTTPS.

    Konfiguracja zaawansowana

    Przykład pliku konfiguracji
    {
      env: { VENICE_API_KEY: "vapi_..." },
      agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
      models: {
        mode: "merge",
        providers: {
          venice: {
            baseUrl: "https://api.venice.ai/api/v1",
            apiKey: "${VENICE_API_KEY}",
            api: "openai-completions",
            models: [
              {
                id: "kimi-k2-5",
                name: "Kimi K2.5",
                reasoning: true,
                input: ["text", "image"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 256000,
                maxTokens: 65536,
              },
            ],
          },
        },
      },
    }
    

    Powiązane