Providers
Venice AI
Venice AI offre inferenza IA orientata alla privacy con supporto per modelli non censurati e accesso ai principali modelli proprietari tramite il loro proxy anonimizzato. Tutta l'inferenza è privata per impostazione predefinita: nessun addestramento sui tuoi dati, nessuna registrazione.
Perché Venice in OpenClaw
- Inferenza privata per modelli open source (nessuna registrazione).
- Modelli non censurati quando ne hai bisogno.
- Accesso anonimizzato a modelli proprietari (Opus/GPT/Gemini) quando la qualità è importante.
- Endpoint
/v1compatibili con OpenAI.
Modalità di privacy
Venice offre due livelli di privacy: comprenderli è fondamentale per scegliere il modello:
| Modalità | Descrizione | Modelli |
|---|---|---|
| Privata | Completamente privata. Prompt/risposte non vengono mai archiviati o registrati. Effimera. | Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, ecc. |
| Anonimizzata | Instradata tramite proxy attraverso Venice con i metadati rimossi. Il fornitore sottostante (OpenAI, Anthropic, Google, xAI) vede richieste anonimizzate. | Claude, GPT, Gemini, Grok |
Funzionalità
- Orientato alla privacy: scegli tra modalità "privata" (completamente privata) e "anonimizzata" (tramite proxy)
- Modelli non censurati: accesso a modelli senza restrizioni sui contenuti
- Accesso ai principali modelli: usa Claude, GPT, Gemini e Grok tramite il proxy anonimizzato di Venice
- API compatibile con OpenAI: endpoint
/v1standard per una facile integrazione - Streaming: supportato su tutti i modelli
- Chiamata di funzioni: supportata su modelli selezionati (controlla le capacità del modello)
- Visione: supportata sui modelli con capacità di visione
- Nessun limite di frequenza rigido: potrebbe essere applicata una limitazione per uso corretto in caso di utilizzo estremo
Per iniziare
Ottieni la tua chiave API
- Registrati su venice.ai
- Vai a Impostazioni > Chiavi API > Crea nuova chiave
- Copia la tua chiave API (formato:
vapi_xxxxxxxxxxxx)
Configura OpenClaw
Scegli il metodo di configurazione preferito:
Interattiva (consigliata)
openclaw onboard --auth-choice venice-api-key
Questo:
- Richiederà la tua chiave API (oppure userà
VENICE_API_KEYesistente) - Mostrerà tutti i modelli Venice disponibili
- Ti consentirà di scegliere il modello predefinito
- Configurerà automaticamente il provider
Variabile d'ambiente
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
Non interattiva
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
Verifica la configurazione
openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"
Selezione del modello
Dopo la configurazione, OpenClaw mostra tutti i modelli Venice disponibili. Scegli in base alle tue esigenze:
- Modello predefinito:
venice/kimi-k2-5per un solido ragionamento privato con supporto alla visione. - Opzione ad alta capacità:
venice/claude-opus-4-6per il percorso Venice anonimizzato più potente. - Privacy: scegli modelli "privati" per un'inferenza completamente privata.
- Capacità: scegli modelli "anonimizzati" per accedere a Claude, GPT, Gemini tramite il proxy di Venice.
Cambia il modello predefinito in qualsiasi momento:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Elenca tutti i modelli disponibili:
openclaw models list --all --provider venice
Puoi anche eseguire openclaw configure, selezionare Modello/autenticazione e scegliere Venice AI.
Comportamento di riproduzione di DeepSeek V4
Se Venice espone modelli DeepSeek V4 come venice/deepseek-v4-pro o
venice/deepseek-v4-flash, OpenClaw inserisce il segnaposto di riproduzione
reasoning_content richiesto da DeepSeek V4 nei messaggi dell'assistente quando il proxy
lo omette. Venice rifiuta il controllo nativo di primo livello thinking di DeepSeek, quindi
OpenClaw mantiene quella correzione di riproduzione specifica del provider separata dai controlli di ragionamento
del provider DeepSeek nativo.
Catalogo integrato (41 in totale)
Modelli privati (26) — completamente privati, nessuna registrazione
| ID modello | Nome | Contesto | Funzionalità |
|---|---|---|---|
kimi-k2-5 |
Kimi K2.5 | 256k | Predefinito, ragionamento, visione |
kimi-k2-thinking |
Kimi K2 Thinking | 256k | Ragionamento |
llama-3.3-70b |
Llama 3.3 70B | 128k | Generale |
llama-3.2-3b |
Llama 3.2 3B | 128k | Generale |
hermes-3-llama-3.1-405b |
Hermes 3 Llama 3.1 405B | 128k | Generale, strumenti disabilitati |
qwen3-235b-a22b-thinking-2507 |
Qwen3 235B Thinking | 128k | Ragionamento |
qwen3-235b-a22b-instruct-2507 |
Qwen3 235B Instruct | 128k | Generale |
qwen3-coder-480b-a35b-instruct |
Qwen3 Coder 480B | 256k | Programmazione |
qwen3-coder-480b-a35b-instruct-turbo |
Qwen3 Coder 480B Turbo | 256k | Programmazione |
qwen3-5-35b-a3b |
Qwen3.5 35B A3B | 256k | Ragionamento, visione |
qwen3-next-80b |
Qwen3 Next 80B | 256k | Generale |
qwen3-vl-235b-a22b |
Qwen3 VL 235B (Vision) | 256k | Visione |
qwen3-4b |
Venice Small (Qwen3 4B) | 32k | Veloce, ragionamento |
deepseek-v3.2 |
DeepSeek V3.2 | 160k | Ragionamento, strumenti disabilitati |
venice-uncensored |
Venice Uncensored (Dolphin-Mistral) | 32k | Non censurato, strumenti disabilitati |
mistral-31-24b |
Venice Medium (Mistral) | 128k | Visione |
google-gemma-3-27b-it |
Google Gemma 3 27B Instruct | 198k | Visione |
openai-gpt-oss-120b |
OpenAI GPT OSS 120B | 128k | Generale |
nvidia-nemotron-3-nano-30b-a3b |
NVIDIA Nemotron 3 Nano 30B | 128k | Generale |
olafangensan-glm-4.7-flash-heretic |
GLM 4.7 Flash Heretic | 128k | Ragionamento |
zai-org-glm-4.6 |
GLM 4.6 | 198k | Generale |
zai-org-glm-4.7 |
GLM 4.7 | 198k | Ragionamento |
zai-org-glm-4.7-flash |
GLM 4.7 Flash | 128k | Ragionamento |
zai-org-glm-5 |
GLM 5 | 198k | Ragionamento |
minimax-m21 |
MiniMax M2.1 | 198k | Ragionamento |
minimax-m25 |
MiniMax M2.5 | 198k | Ragionamento |
Modelli anonimizzati (15) — tramite proxy Venice
| ID modello | Nome | Contesto | Funzionalità |
|---|---|---|---|
claude-opus-4-6 |
Claude Opus 4.6 (tramite Venice) | 1M | Ragionamento, visione |
claude-opus-4-5 |
Claude Opus 4.5 (tramite Venice) | 198k | Ragionamento, visione |
claude-sonnet-4-6 |
Claude Sonnet 4.6 (tramite Venice) | 1M | Ragionamento, visione |
claude-sonnet-4-5 |
Claude Sonnet 4.5 (tramite Venice) | 198k | Ragionamento, visione |
openai-gpt-54 |
GPT-5.4 (tramite Venice) | 1M | Ragionamento, visione |
openai-gpt-53-codex |
GPT-5.3 Codex (tramite Venice) | 400k | Ragionamento, visione, programmazione |
openai-gpt-52 |
GPT-5.2 (tramite Venice) | 256k | Ragionamento |
openai-gpt-52-codex |
GPT-5.2 Codex (tramite Venice) | 256k | Ragionamento, visione, programmazione |
openai-gpt-4o-2024-11-20 |
GPT-4o (tramite Venice) | 128k | Visione |
openai-gpt-4o-mini-2024-07-18 |
GPT-4o Mini (tramite Venice) | 128k | Visione |
gemini-3-1-pro-preview |
Gemini 3.1 Pro (tramite Venice) | 1M | Ragionamento, visione |
gemini-3-pro-preview |
Gemini 3 Pro (tramite Venice) | 198k | Ragionamento, visione |
gemini-3-flash-preview |
Gemini 3 Flash (tramite Venice) | 256k | Ragionamento, visione |
grok-41-fast |
Grok 4.1 Fast (tramite Venice) | 1M | Ragionamento, visione |
grok-code-fast-1 |
Grok Code Fast 1 (tramite Venice) | 256k | Ragionamento, programmazione |
Rilevamento dei modelli
OpenClaw include un catalogo iniziale Venice basato su manifest per l'elenco dei modelli in sola lettura. L'aggiornamento a runtime può comunque rilevare i modelli dall'API Venice e ripiega sul catalogo del manifest se l'API non è raggiungibile.
L'endpoint /models è pubblico (non serve autenticazione per l'elenco), ma l'inferenza richiede una chiave API valida.
Streaming e supporto degli strumenti
| Funzionalità | Supporto |
|---|---|
| Streaming | Tutti i modelli |
| Chiamata di funzioni | La maggior parte dei modelli (controlla supportsFunctionCalling nell'API) |
| Visione/Immagini | Modelli contrassegnati con la funzionalità "Visione" |
| Modalità JSON | Supportata tramite response_format |
Prezzi
Venice usa un sistema basato su crediti. Consulta venice.ai/pricing per le tariffe attuali:
- Modelli privati: in genere hanno un costo inferiore
- Modelli anonimizzati: simili ai prezzi dell'API diretta + una piccola commissione Venice
Venice (anonimizzata) vs API diretta
| Aspetto | Venice (anonimizzata) | API diretta |
|---|---|---|
| Privacy | Metadati rimossi, anonimizzati | Account collegato |
| Latenza | +10-50 ms (proxy) | Diretta |
| Funzionalità | La maggior parte delle funzionalità supportata | Funzionalità complete |
| Fatturazione | Crediti Venice | Fatturazione del provider |
Esempi di utilizzo
# Use the default private model
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
# Use Claude Opus via Venice (anonymized)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
# Use uncensored model
openclaw agent --model venice/venice-uncensored --message "Draft options"
# Use vision model with image
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
# Use coding model
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
Risoluzione dei problemi
API key not recognized
echo $VENICE_API_KEY
openclaw models list | grep venice
Assicurati che la chiave inizi con vapi_.
Model not available
Il catalogo dei modelli Venice si aggiorna dinamicamente. Esegui openclaw models list per vedere i modelli attualmente disponibili. Alcuni modelli potrebbero essere temporaneamente offline.
Connection issues
L'API Venice si trova su https://api.venice.ai/api/v1. Assicurati che la tua rete consenta connessioni HTTPS.
Configurazione avanzata
Config file example
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2-5",
name: "Kimi K2.5",
reasoning: true,
input: ["text", "image"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 65536,
},
],
},
},
},
}