提供商
Venice AI
Venice AI 提供注重隐私的 AI 推理,支持无审查模型,并可通过其匿名化代理访问主要专有模型。默认情况下,所有推理都是私密的,不会用你的数据训练,也不会记录日志。
为什么在 OpenClaw 中使用 Venice
- 面向开源模型的私密推理(不记录日志)。
- 在你需要时使用无审查模型。
- 在质量很重要时,匿名化访问专有模型(Opus/GPT/Gemini)。
- OpenAI 兼容的
/v1端点。
隐私模式
Venice 提供两种隐私级别,理解这一点是选择模型的关键:
| 模式 | 描述 | 模型 |
|---|---|---|
| 私密 | 完全私密。提示词/响应绝不会被存储或记录。临时存在。 | Llama、Qwen、DeepSeek、Kimi、MiniMax、Venice Uncensored 等。 |
| 匿名化 | 通过 Venice 代理并剥离元数据。底层提供商(OpenAI、Anthropic、Google、xAI)会看到匿名化请求。 | Claude、GPT、Gemini、Grok |
功能
- 注重隐私:在“私密”(完全私密)和“匿名化”(代理)模式之间选择
- 无审查模型:访问不带内容限制的模型
- 主要模型访问:通过 Venice 的匿名化代理使用 Claude、GPT、Gemini 和 Grok
- OpenAI 兼容 API:标准
/v1端点,便于集成 - 流式传输:所有模型均支持
- 函数调用:部分模型支持(请查看模型能力)
- 视觉:具备视觉能力的模型支持
- 无硬性速率限制:极端使用情况下可能会应用公平使用节流
入门指南
Get your API key
- 在 venice.ai 注册
- 前往 Settings > API Keys > Create new key
- 复制你的 API key(格式:
vapi_xxxxxxxxxxxx)
Configure OpenClaw
选择你偏好的设置方法:
Interactive (recommended)
openclaw onboard --auth-choice venice-api-key
这会:
- 提示输入你的 API key(或使用现有
VENICE_API_KEY) - 显示所有可用的 Venice 模型
- 让你选择默认模型
- 自动配置提供商
Environment variable
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
Non-interactive
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
Verify setup
openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"
模型选择
设置完成后,OpenClaw 会显示所有可用的 Venice 模型。根据你的需求选择:
- 默认模型:
venice/kimi-k2-5,用于强大的私密推理并支持视觉。 - 高能力选项:
venice/claude-opus-4-6,用于最强的匿名化 Venice 路径。 - 隐私:选择“私密”模型以获得完全私密的推理。
- 能力:选择“匿名化”模型,通过 Venice 的代理访问 Claude、GPT、Gemini。
随时更改你的默认模型:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
列出所有可用模型:
openclaw models list --all --provider venice
你也可以运行 openclaw configure,选择 Model/auth,然后选择 Venice AI。
DeepSeek V4 重放行为
如果 Venice 暴露了 DeepSeek V4 模型,例如 venice/deepseek-v4-pro 或
venice/deepseek-v4-flash,当代理省略必需的 DeepSeek V4
reasoning_content 重放占位符时,OpenClaw 会在助手消息中填充它。
Venice 会拒绝 DeepSeek 原生的顶层 thinking 控制,因此
OpenClaw 会将该提供商特定的重放修复与原生
DeepSeek 提供商的 thinking 控制分开处理。
内置目录(共 41 个)
Private models (26) — fully private, no logging
| 模型 ID | 名称 | 上下文 | 功能 |
|---|---|---|---|
kimi-k2-5 |
Kimi K2.5 | 256k | 默认、推理、视觉 |
kimi-k2-thinking |
Kimi K2 Thinking | 256k | 推理 |
llama-3.3-70b |
Llama 3.3 70B | 128k | 通用 |
llama-3.2-3b |
Llama 3.2 3B | 128k | 通用 |
hermes-3-llama-3.1-405b |
Hermes 3 Llama 3.1 405B | 128k | 通用、已禁用工具 |
qwen3-235b-a22b-thinking-2507 |
Qwen3 235B Thinking | 128k | 推理 |
qwen3-235b-a22b-instruct-2507 |
Qwen3 235B Instruct | 128k | 通用 |
qwen3-coder-480b-a35b-instruct |
Qwen3 Coder 480B | 256k | 编码 |
qwen3-coder-480b-a35b-instruct-turbo |
Qwen3 Coder 480B Turbo | 256k | 编码 |
qwen3-5-35b-a3b |
Qwen3.5 35B A3B | 256k | 推理、视觉 |
qwen3-next-80b |
Qwen3 Next 80B | 256k | 通用 |
qwen3-vl-235b-a22b |
Qwen3 VL 235B(视觉) | 256k | 视觉 |
qwen3-4b |
Venice Small(Qwen3 4B) | 32k | 快速、推理 |
deepseek-v3.2 |
DeepSeek V3.2 | 160k | 推理、已禁用工具 |
venice-uncensored |
Venice Uncensored(Dolphin-Mistral) | 32k | 无审查、已禁用工具 |
mistral-31-24b |
Venice Medium(Mistral) | 128k | 视觉 |
google-gemma-3-27b-it |
Google Gemma 3 27B Instruct | 198k | 视觉 |
openai-gpt-oss-120b |
OpenAI GPT OSS 120B | 128k | 通用 |
nvidia-nemotron-3-nano-30b-a3b |
NVIDIA Nemotron 3 Nano 30B | 128k | 通用 |
olafangensan-glm-4.7-flash-heretic |
GLM 4.7 Flash Heretic | 128k | 推理 |
zai-org-glm-4.6 |
GLM 4.6 | 198k | 通用 |
zai-org-glm-4.7 |
GLM 4.7 | 198k | 推理 |
zai-org-glm-4.7-flash |
GLM 4.7 Flash | 128k | 推理 |
zai-org-glm-5 |
GLM 5 | 198k | 推理 |
minimax-m21 |
MiniMax M2.1 | 198k | 推理 |
minimax-m25 |
MiniMax M2.5 | 198k | 推理 |
Anonymized models (15) — via Venice proxy
| 模型 ID | 名称 | 上下文 | 功能 |
|---|---|---|---|
claude-opus-4-6 |
Claude Opus 4.6(通过 Venice) | 1M | 推理、视觉 |
claude-opus-4-5 |
Claude Opus 4.5(通过 Venice) | 198k | 推理、视觉 |
claude-sonnet-4-6 |
Claude Sonnet 4.6(通过 Venice) | 1M | 推理、视觉 |
claude-sonnet-4-5 |
Claude Sonnet 4.5(通过 Venice) | 198k | 推理、视觉 |
openai-gpt-54 |
GPT-5.4(通过 Venice) | 1M | 推理、视觉 |
openai-gpt-53-codex |
GPT-5.3 Codex(通过 Venice) | 400k | 推理、视觉、编码 |
openai-gpt-52 |
GPT-5.2(通过 Venice) | 256k | 推理 |
openai-gpt-52-codex |
GPT-5.2 Codex(通过 Venice) | 256k | 推理、视觉、编码 |
openai-gpt-4o-2024-11-20 |
GPT-4o(通过 Venice) | 128k | 视觉 |
openai-gpt-4o-mini-2024-07-18 |
GPT-4o Mini(通过 Venice) | 128k | 视觉 |
gemini-3-1-pro-preview |
Gemini 3.1 Pro(通过 Venice) | 1M | 推理、视觉 |
gemini-3-pro-preview |
Gemini 3 Pro(通过 Venice) | 198k | 推理、视觉 |
gemini-3-flash-preview |
Gemini 3 Flash(通过 Venice) | 256k | 推理、视觉 |
grok-41-fast |
Grok 4.1 Fast(通过 Venice) | 1M | 推理、视觉 |
grok-code-fast-1 |
Grok Code Fast 1(通过 Venice) | 256k | 推理、编码 |
模型发现
OpenClaw 随附一个由清单支持的 Venice 种子目录,用于只读模型列表。运行时刷新仍然可以从 Venice API 发现模型;如果 API 无法访问,则会回退到清单目录。
/models 端点是公开的(列出模型不需要身份验证),但推理需要有效的 API key。
流式传输和工具支持
| 功能 | 支持 |
|---|---|
| 流式传输 | 所有模型 |
| 函数调用 | 大多数模型(查看 API 中的 supportsFunctionCalling) |
| 视觉/图像 | 标记有 “Vision” 功能的模型 |
| JSON 模式 | 通过 response_format 支持 |
价格
Venice 使用基于点数的系统。查看 venice.ai/pricing 了解当前费率:
- 私有模型:通常成本较低
- 匿名化模型:类似于直接 API 定价 + 少量 Venice 费用
Venice(匿名化)与直接 API
| 方面 | Venice(匿名化) | 直接 API |
|---|---|---|
| 隐私 | 元数据被剥离,已匿名化 | 你的账号会被关联 |
| 延迟 | +10-50ms(代理) | 直接连接 |
| 功能 | 支持大多数功能 | 完整功能 |
| 计费 | Venice 点数 | 提供商计费 |
用法示例
# Use the default private model
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
# Use Claude Opus via Venice (anonymized)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
# Use uncensored model
openclaw agent --model venice/venice-uncensored --message "Draft options"
# Use vision model with image
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
# Use coding model
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
故障排除
API key not recognized
echo $VENICE_API_KEY
openclaw models list | grep venice
确保密钥以 vapi_ 开头。
Model not available
Venice 模型目录会动态更新。运行 openclaw models list 查看当前可用的模型。某些模型可能会暂时离线。
Connection issues
Venice API 位于 https://api.venice.ai/api/v1。确保你的网络允许 HTTPS 连接。
高级配置
Config file example
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2-5",
name: "Kimi K2.5",
reasoning: true,
input: ["text", "image"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 65536,
},
],
},
},
},
}