Providers

Venice AI

Venice AI oferece inferência de IA com foco em privacidade com suporte a modelos sem censura e acesso a grandes modelos proprietários por meio de seu proxy anonimizado. Toda inferência é privada por padrão — sem treinamento com seus dados, sem registro.

Por que usar Venice no OpenClaw

  • Inferência privada para modelos de código aberto (sem registro).
  • Modelos sem censura quando você precisar deles.
  • Acesso anonimizado a modelos proprietários (Opus/GPT/Gemini) quando a qualidade importa.
  • Endpoints /v1 compatíveis com OpenAI.

Modos de privacidade

A Venice oferece dois níveis de privacidade — entender isso é essencial para escolher seu modelo:

Modo Descrição Modelos
Privado Totalmente privado. Prompts/respostas nunca são armazenados ou registrados. Efêmero. Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, etc.
Anonimizado Encaminhado por proxy pela Venice com metadados removidos. O provedor subjacente (OpenAI, Anthropic, Google, xAI) vê solicitações anonimizadas. Claude, GPT, Gemini, Grok

Recursos

  • Foco em privacidade: escolha entre os modos "privado" (totalmente privado) e "anonimizado" (por proxy)
  • Modelos sem censura: acesso a modelos sem restrições de conteúdo
  • Acesso a grandes modelos: use Claude, GPT, Gemini e Grok pelo proxy anonimizado da Venice
  • API compatível com OpenAI: endpoints /v1 padrão para integração fácil
  • Streaming: compatível com todos os modelos
  • Chamada de funções: compatível com modelos selecionados (verifique os recursos do modelo)
  • Visão: compatível com modelos com capacidade de visão
  • Sem limites rígidos de taxa: limitação por uso justo pode ser aplicada em uso extremo

Introdução

  • Obtenha sua chave de API

    1. Cadastre-se em venice.ai
    2. Acesse Configurações > Chaves de API > Criar nova chave
    3. Copie sua chave de API (formato: vapi_xxxxxxxxxxxx)
  • Configure o OpenClaw

    Escolha seu método de configuração preferido:

    Interativo (recomendado)

    openclaw onboard --auth-choice venice-api-key
    

    Isso vai:

    1. Solicitar sua chave de API (ou usar VENICE_API_KEY existente)
    2. Mostrar todos os modelos Venice disponíveis
    3. Permitir que você escolha seu modelo padrão
    4. Configurar o provedor automaticamente

    Variável de ambiente

    export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
    

    Não interativo

    openclaw onboard --non-interactive \
      --auth-choice venice-api-key \
      --venice-api-key "vapi_xxxxxxxxxxxx"
    
  • Verifique a configuração

    openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"
    
  • Seleção de modelo

    Após a configuração, o OpenClaw mostra todos os modelos Venice disponíveis. Escolha com base nas suas necessidades:

    • Modelo padrão: venice/kimi-k2-5 para raciocínio privado forte mais visão.
    • Opção de alta capacidade: venice/claude-opus-4-6 para o caminho Venice anonimizado mais forte.
    • Privacidade: escolha modelos "privados" para inferência totalmente privada.
    • Capacidade: escolha modelos "anonimizados" para acessar Claude, GPT, Gemini pelo proxy da Venice.

    Altere seu modelo padrão a qualquer momento:

    openclaw models set venice/kimi-k2-5
    openclaw models set venice/claude-opus-4-6
    

    Liste todos os modelos disponíveis:

    openclaw models list --all --provider venice
    

    Você também pode executar openclaw configure, selecionar Modelo/autenticação e escolher Venice AI.

    Comportamento de reprodução do DeepSeek V4

    Se a Venice expuser modelos DeepSeek V4, como venice/deepseek-v4-pro ou venice/deepseek-v4-flash, o OpenClaw preenche o placeholder obrigatório de reprodução reasoning_content do DeepSeek V4 em mensagens do assistente quando o proxy o omite. A Venice rejeita o controle nativo de nível superior thinking do DeepSeek, portanto o OpenClaw mantém essa correção de reprodução específica do provedor separada dos controles de pensamento do provedor DeepSeek nativo.

    Catálogo integrado (41 no total)

    Modelos privados (26) — totalmente privados, sem registro
    ID do modelo Nome Contexto Recursos
    kimi-k2-5 Kimi K2.5 256k Padrão, raciocínio, visão
    kimi-k2-thinking Kimi K2 Thinking 256k Raciocínio
    llama-3.3-70b Llama 3.3 70B 128k Geral
    llama-3.2-3b Llama 3.2 3B 128k Geral
    hermes-3-llama-3.1-405b Hermes 3 Llama 3.1 405B 128k Geral, ferramentas desativadas
    qwen3-235b-a22b-thinking-2507 Qwen3 235B Thinking 128k Raciocínio
    qwen3-235b-a22b-instruct-2507 Qwen3 235B Instruct 128k Geral
    qwen3-coder-480b-a35b-instruct Qwen3 Coder 480B 256k Programação
    qwen3-coder-480b-a35b-instruct-turbo Qwen3 Coder 480B Turbo 256k Programação
    qwen3-5-35b-a3b Qwen3.5 35B A3B 256k Raciocínio, visão
    qwen3-next-80b Qwen3 Next 80B 256k Geral
    qwen3-vl-235b-a22b Qwen3 VL 235B (Visão) 256k Visão
    qwen3-4b Venice Small (Qwen3 4B) 32k Rápido, raciocínio
    deepseek-v3.2 DeepSeek V3.2 160k Raciocínio, ferramentas desativadas
    venice-uncensored Venice Uncensored (Dolphin-Mistral) 32k Sem censura, ferramentas desativadas
    mistral-31-24b Venice Medium (Mistral) 128k Visão
    google-gemma-3-27b-it Google Gemma 3 27B Instruct 198k Visão
    openai-gpt-oss-120b OpenAI GPT OSS 120B 128k Geral
    nvidia-nemotron-3-nano-30b-a3b NVIDIA Nemotron 3 Nano 30B 128k Geral
    olafangensan-glm-4.7-flash-heretic GLM 4.7 Flash Heretic 128k Raciocínio
    zai-org-glm-4.6 GLM 4.6 198k Geral
    zai-org-glm-4.7 GLM 4.7 198k Raciocínio
    zai-org-glm-4.7-flash GLM 4.7 Flash 128k Raciocínio
    zai-org-glm-5 GLM 5 198k Raciocínio
    minimax-m21 MiniMax M2.1 198k Raciocínio
    minimax-m25 MiniMax M2.5 198k Raciocínio
    Modelos anonimizados (15) — via proxy da Venice
    ID do modelo Nome Contexto Recursos
    claude-opus-4-6 Claude Opus 4.6 (via Venice) 1M Raciocínio, visão
    claude-opus-4-5 Claude Opus 4.5 (via Venice) 198k Raciocínio, visão
    claude-sonnet-4-6 Claude Sonnet 4.6 (via Venice) 1M Raciocínio, visão
    claude-sonnet-4-5 Claude Sonnet 4.5 (via Venice) 198k Raciocínio, visão
    openai-gpt-54 GPT-5.4 (via Venice) 1M Raciocínio, visão
    openai-gpt-53-codex GPT-5.3 Codex (via Venice) 400k Raciocínio, visão, programação
    openai-gpt-52 GPT-5.2 (via Venice) 256k Raciocínio
    openai-gpt-52-codex GPT-5.2 Codex (via Venice) 256k Raciocínio, visão, programação
    openai-gpt-4o-2024-11-20 GPT-4o (via Venice) 128k Visão
    openai-gpt-4o-mini-2024-07-18 GPT-4o Mini (via Venice) 128k Visão
    gemini-3-1-pro-preview Gemini 3.1 Pro (via Venice) 1M Raciocínio, visão
    gemini-3-pro-preview Gemini 3 Pro (via Venice) 198k Raciocínio, visão
    gemini-3-flash-preview Gemini 3 Flash (via Venice) 256k Raciocínio, visão
    grok-41-fast Grok 4.1 Fast (via Venice) 1M Raciocínio, visão
    grok-code-fast-1 Grok Code Fast 1 (via Venice) 256k Raciocínio, programação

    Descoberta de modelos

    O OpenClaw inclui um catálogo inicial Venice respaldado por manifesto para listagem de modelos somente leitura. A atualização em tempo de execução ainda pode descobrir modelos pela API da Venice e recorre ao catálogo do manifesto se a API estiver inacessível.

    O endpoint /models é público (nenhuma autenticação necessária para listar), mas a inferência requer uma chave de API válida.

    Streaming e suporte a ferramentas

    Recurso Suporte
    Streaming Todos os modelos
    Chamada de função A maioria dos modelos (verifique supportsFunctionCalling na API)
    Visão/Imagens Modelos marcados com o recurso "Visão"
    Modo JSON Compatível via response_format

    Preços

    A Venice usa um sistema baseado em créditos. Consulte venice.ai/pricing para ver as tarifas atuais:

    • Modelos privados: Geralmente têm custo menor
    • Modelos anonimizados: Semelhante ao preço da API direta + pequena taxa da Venice

    Venice (anonimizada) vs API direta

    Aspecto Venice (Anonimizada) API direta
    Privacidade Metadados removidos, anonimizado Sua conta vinculada
    Latência +10-50ms (proxy) Direta
    Recursos A maioria dos recursos é compatível Recursos completos
    Cobrança Créditos da Venice Cobrança do provedor

    Exemplos de uso

    # Use the default private model
    openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
    
    # Use Claude Opus via Venice (anonymized)
    openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
    
    # Use uncensored model
    openclaw agent --model venice/venice-uncensored --message "Draft options"
    
    # Use vision model with image
    openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
    
    # Use coding model
    openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
    

    Solução de problemas

    API key not recognized
    echo $VENICE_API_KEY
    openclaw models list | grep venice
    

    Verifique se a chave começa com vapi_.

    Model not available

    O catálogo de modelos da Venice é atualizado dinamicamente. Execute openclaw models list para ver os modelos disponíveis no momento. Alguns modelos podem estar temporariamente offline.

    Connection issues

    A API da Venice fica em https://api.venice.ai/api/v1. Verifique se sua rede permite conexões HTTPS.

    Configuração avançada

    Config file example
    {
      env: { VENICE_API_KEY: "vapi_..." },
      agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
      models: {
        mode: "merge",
        providers: {
          venice: {
            baseUrl: "https://api.venice.ai/api/v1",
            apiKey: "${VENICE_API_KEY}",
            api: "openai-completions",
            models: [
              {
                id: "kimi-k2-5",
                name: "Kimi K2.5",
                reasoning: true,
                input: ["text", "image"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 256000,
                maxTokens: 65536,
              },
            ],
          },
        },
      },
    }
    

    Relacionados