Providers
Venice AI
Venice AI fournit une inférence IA axée sur la confidentialité, avec prise en charge de modèles non censurés et accès aux principaux modèles propriétaires via leur proxy anonymisé. Toute inférence est privée par défaut — pas d'entraînement sur vos données, pas de journalisation.
Pourquoi Venice dans OpenClaw
- Inférence privée pour les modèles open source (pas de journalisation).
- Modèles non censurés quand vous en avez besoin.
- Accès anonymisé aux modèles propriétaires (Opus/GPT/Gemini) lorsque la qualité compte.
- Points de terminaison
/v1compatibles avec OpenAI.
Modes de confidentialité
Venice propose deux niveaux de confidentialité — il est essentiel de les comprendre pour choisir votre modèle :
| Mode | Description | Modèles |
|---|---|---|
| Privé | Entièrement privé. Les prompts/réponses ne sont jamais stockés ni journalisés. Éphémère. | Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, etc. |
| Anonymisé | Relayé via Venice avec les métadonnées supprimées. Le fournisseur sous-jacent (OpenAI, Anthropic, Google, xAI) voit des requêtes anonymisées. | Claude, GPT, Gemini, Grok |
Fonctionnalités
- Axé sur la confidentialité : choisissez entre les modes "privé" (entièrement privé) et "anonymisé" (relayé)
- Modèles non censurés : accès à des modèles sans restrictions de contenu
- Accès aux grands modèles : utilisez Claude, GPT, Gemini et Grok via le proxy anonymisé de Venice
- API compatible avec OpenAI : points de terminaison
/v1standard pour une intégration facile - Streaming : pris en charge sur tous les modèles
- Appel de fonctions : pris en charge sur certains modèles (vérifiez les capacités du modèle)
- Vision : prise en charge sur les modèles dotés de capacités de vision
- Aucune limite de débit stricte : une limitation d'utilisation équitable peut s'appliquer en cas d'usage extrême
Premiers pas
Obtenir votre clé API
- Inscrivez-vous sur venice.ai
- Accédez à Settings > API Keys > Create new key
- Copiez votre clé API (format :
vapi_xxxxxxxxxxxx)
Configurer OpenClaw
Choisissez votre méthode de configuration préférée :
Interactif (recommandé)
openclaw onboard --auth-choice venice-api-key
Cela va :
- Demander votre clé API (ou utiliser
VENICE_API_KEYexistante) - Afficher tous les modèles Venice disponibles
- Vous laisser choisir votre modèle par défaut
- Configurer le fournisseur automatiquement
Variable d'environnement
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
Non interactif
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
Vérifier la configuration
openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"
Sélection du modèle
Après la configuration, OpenClaw affiche tous les modèles Venice disponibles. Choisissez selon vos besoins :
- Modèle par défaut :
venice/kimi-k2-5pour un raisonnement privé solide avec vision. - Option à capacités élevées :
venice/claude-opus-4-6pour le chemin Venice anonymisé le plus performant. - Confidentialité : choisissez des modèles "privé" pour une inférence entièrement privée.
- Capacité : choisissez des modèles "anonymisé" pour accéder à Claude, GPT et Gemini via le proxy de Venice.
Changez votre modèle par défaut à tout moment :
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Lister tous les modèles disponibles :
openclaw models list --all --provider venice
Vous pouvez aussi exécuter openclaw configure, sélectionner Model/auth, puis choisir Venice AI.
Comportement de rejeu DeepSeek V4
Si Venice expose des modèles DeepSeek V4 tels que venice/deepseek-v4-pro ou
venice/deepseek-v4-flash, OpenClaw renseigne l'espace réservé de rejeu DeepSeek V4 requis
reasoning_content sur les messages de l'assistant lorsque le proxy
l'omet. Venice rejette le contrôle thinking natif de premier niveau de DeepSeek, donc
OpenClaw conserve ce correctif de rejeu propre au fournisseur séparé des contrôles de pensée
du fournisseur DeepSeek natif.
Catalogue intégré (41 au total)
Modèles privés (26) — entièrement privés, aucune journalisation
| ID de modèle | Nom | Contexte | Fonctionnalités |
|---|---|---|---|
kimi-k2-5 |
Kimi K2.5 | 256k | Par défaut, raisonnement, vision |
kimi-k2-thinking |
Kimi K2 Thinking | 256k | Raisonnement |
llama-3.3-70b |
Llama 3.3 70B | 128k | Général |
llama-3.2-3b |
Llama 3.2 3B | 128k | Général |
hermes-3-llama-3.1-405b |
Hermes 3 Llama 3.1 405B | 128k | Général, outils désactivés |
qwen3-235b-a22b-thinking-2507 |
Qwen3 235B Thinking | 128k | Raisonnement |
qwen3-235b-a22b-instruct-2507 |
Qwen3 235B Instruct | 128k | Général |
qwen3-coder-480b-a35b-instruct |
Qwen3 Coder 480B | 256k | Codage |
qwen3-coder-480b-a35b-instruct-turbo |
Qwen3 Coder 480B Turbo | 256k | Codage |
qwen3-5-35b-a3b |
Qwen3.5 35B A3B | 256k | Raisonnement, vision |
qwen3-next-80b |
Qwen3 Next 80B | 256k | Général |
qwen3-vl-235b-a22b |
Qwen3 VL 235B (Vision) | 256k | Vision |
qwen3-4b |
Venice Small (Qwen3 4B) | 32k | Rapide, raisonnement |
deepseek-v3.2 |
DeepSeek V3.2 | 160k | Raisonnement, outils désactivés |
venice-uncensored |
Venice Uncensored (Dolphin-Mistral) | 32k | Non censuré, outils désactivés |
mistral-31-24b |
Venice Medium (Mistral) | 128k | Vision |
google-gemma-3-27b-it |
Google Gemma 3 27B Instruct | 198k | Vision |
openai-gpt-oss-120b |
OpenAI GPT OSS 120B | 128k | Général |
nvidia-nemotron-3-nano-30b-a3b |
NVIDIA Nemotron 3 Nano 30B | 128k | Général |
olafangensan-glm-4.7-flash-heretic |
GLM 4.7 Flash Heretic | 128k | Raisonnement |
zai-org-glm-4.6 |
GLM 4.6 | 198k | Général |
zai-org-glm-4.7 |
GLM 4.7 | 198k | Raisonnement |
zai-org-glm-4.7-flash |
GLM 4.7 Flash | 128k | Raisonnement |
zai-org-glm-5 |
GLM 5 | 198k | Raisonnement |
minimax-m21 |
MiniMax M2.1 | 198k | Raisonnement |
minimax-m25 |
MiniMax M2.5 | 198k | Raisonnement |
Modèles anonymisés (15) — via le proxy Venice
| ID de modèle | Nom | Contexte | Fonctionnalités |
|---|---|---|---|
claude-opus-4-6 |
Claude Opus 4.6 (via Venice) | 1M | Raisonnement, vision |
claude-opus-4-5 |
Claude Opus 4.5 (via Venice) | 198k | Raisonnement, vision |
claude-sonnet-4-6 |
Claude Sonnet 4.6 (via Venice) | 1M | Raisonnement, vision |
claude-sonnet-4-5 |
Claude Sonnet 4.5 (via Venice) | 198k | Raisonnement, vision |
openai-gpt-54 |
GPT-5.4 (via Venice) | 1M | Raisonnement, vision |
openai-gpt-53-codex |
GPT-5.3 Codex (via Venice) | 400k | Raisonnement, vision, codage |
openai-gpt-52 |
GPT-5.2 (via Venice) | 256k | Raisonnement |
openai-gpt-52-codex |
GPT-5.2 Codex (via Venice) | 256k | Raisonnement, vision, codage |
openai-gpt-4o-2024-11-20 |
GPT-4o (via Venice) | 128k | Vision |
openai-gpt-4o-mini-2024-07-18 |
GPT-4o Mini (via Venice) | 128k | Vision |
gemini-3-1-pro-preview |
Gemini 3.1 Pro (via Venice) | 1M | Raisonnement, vision |
gemini-3-pro-preview |
Gemini 3 Pro (via Venice) | 198k | Raisonnement, vision |
gemini-3-flash-preview |
Gemini 3 Flash (via Venice) | 256k | Raisonnement, vision |
grok-41-fast |
Grok 4.1 Fast (via Venice) | 1M | Raisonnement, vision |
grok-code-fast-1 |
Grok Code Fast 1 (via Venice) | 256k | Raisonnement, codage |
Découverte des modèles
OpenClaw fournit un catalogue d'amorçage Venice adossé à un manifeste pour la liste des modèles en lecture seule. L'actualisation à l'exécution peut toujours découvrir les modèles depuis l'API Venice et revient au catalogue du manifeste si l'API est injoignable.
Le point de terminaison /models est public (aucune authentification nécessaire pour la liste), mais l'inférence nécessite une clé API valide.
Streaming et prise en charge des outils
| Fonctionnalité | Prise en charge |
|---|---|
| Streaming | Tous les modèles |
| Appel de fonctions | La plupart des modèles (vérifiez supportsFunctionCalling dans l’API) |
| Vision/images | Modèles marqués avec la fonctionnalité « Vision » |
| Mode JSON | Pris en charge via response_format |
Tarification
Venice utilise un système basé sur des crédits. Consultez venice.ai/pricing pour les tarifs actuels :
- Modèles privés : coût généralement inférieur
- Modèles anonymisés : similaire à la tarification directe de l’API + petits frais Venice
Venice (anonymisé) vs API directe
| Aspect | Venice (anonymisé) | API directe |
|---|---|---|
| Confidentialité | Métadonnées supprimées, anonymisées | Votre compte est lié |
| Latence | +10-50 ms (proxy) | Directe |
| Fonctionnalités | La plupart des fonctionnalités prises en charge | Fonctionnalités complètes |
| Facturation | Crédits Venice | Facturation du fournisseur |
Exemples d’utilisation
# Use the default private model
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
# Use Claude Opus via Venice (anonymized)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
# Use uncensored model
openclaw agent --model venice/venice-uncensored --message "Draft options"
# Use vision model with image
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
# Use coding model
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
Dépannage
API key not recognized
echo $VENICE_API_KEY
openclaw models list | grep venice
Assurez-vous que la clé commence par vapi_.
Model not available
Le catalogue de modèles Venice se met à jour dynamiquement. Exécutez openclaw models list pour voir les modèles actuellement disponibles. Certains modèles peuvent être temporairement hors ligne.
Connection issues
L’API Venice se trouve à https://api.venice.ai/api/v1. Assurez-vous que votre réseau autorise les connexions HTTPS.
Configuration avancée
Config file example
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2-5",
name: "Kimi K2.5",
reasoning: true,
input: ["text", "image"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 65536,
},
],
},
},
},
}