提供商

Venice AI

Venice AI 提供注重隐私的 AI 推理,支持无审查模型,并可通过其匿名化代理访问主要专有模型。默认情况下,所有推理都是私密的,不会用你的数据训练,也不会记录日志。

为什么在 OpenClaw 中使用 Venice

  • 面向开源模型的私密推理(不记录日志)。
  • 在你需要时使用无审查模型
  • 在质量很重要时,匿名化访问专有模型(Opus/GPT/Gemini)。
  • OpenAI 兼容的 /v1 端点。

隐私模式

Venice 提供两种隐私级别,理解这一点是选择模型的关键:

模式 描述 模型
私密 完全私密。提示词/响应绝不会被存储或记录。临时存在。 Llama、Qwen、DeepSeek、Kimi、MiniMax、Venice Uncensored 等。
匿名化 通过 Venice 代理并剥离元数据。底层提供商(OpenAI、Anthropic、Google、xAI)会看到匿名化请求。 Claude、GPT、Gemini、Grok

功能

  • 注重隐私:在“私密”(完全私密)和“匿名化”(代理)模式之间选择
  • 无审查模型:访问不带内容限制的模型
  • 主要模型访问:通过 Venice 的匿名化代理使用 Claude、GPT、Gemini 和 Grok
  • OpenAI 兼容 API:标准 /v1 端点,便于集成
  • 流式传输:所有模型均支持
  • 函数调用:部分模型支持(请查看模型能力)
  • 视觉:具备视觉能力的模型支持
  • 无硬性速率限制:极端使用情况下可能会应用公平使用节流

入门指南

  • Get your API key

    1. venice.ai 注册
    2. 前往 Settings > API Keys > Create new key
    3. 复制你的 API key(格式:vapi_xxxxxxxxxxxx
  • Configure OpenClaw

    选择你偏好的设置方法:

    Interactive (recommended)

    openclaw onboard --auth-choice venice-api-key
    

    这会:

    1. 提示输入你的 API key(或使用现有 VENICE_API_KEY
    2. 显示所有可用的 Venice 模型
    3. 让你选择默认模型
    4. 自动配置提供商

    Environment variable

    export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
    

    Non-interactive

    openclaw onboard --non-interactive \
      --auth-choice venice-api-key \
      --venice-api-key "vapi_xxxxxxxxxxxx"
    
  • Verify setup

    openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"
    
  • 模型选择

    设置完成后,OpenClaw 会显示所有可用的 Venice 模型。根据你的需求选择:

    • 默认模型venice/kimi-k2-5,用于强大的私密推理并支持视觉。
    • 高能力选项venice/claude-opus-4-6,用于最强的匿名化 Venice 路径。
    • 隐私:选择“私密”模型以获得完全私密的推理。
    • 能力:选择“匿名化”模型,通过 Venice 的代理访问 Claude、GPT、Gemini。

    随时更改你的默认模型:

    openclaw models set venice/kimi-k2-5
    openclaw models set venice/claude-opus-4-6
    

    列出所有可用模型:

    openclaw models list --all --provider venice
    

    你也可以运行 openclaw configure,选择 Model/auth,然后选择 Venice AI

    DeepSeek V4 重放行为

    如果 Venice 暴露了 DeepSeek V4 模型,例如 venice/deepseek-v4-provenice/deepseek-v4-flash,当代理省略必需的 DeepSeek V4 reasoning_content 重放占位符时,OpenClaw 会在助手消息中填充它。 Venice 会拒绝 DeepSeek 原生的顶层 thinking 控制,因此 OpenClaw 会将该提供商特定的重放修复与原生 DeepSeek 提供商的 thinking 控制分开处理。

    内置目录(共 41 个)

    Private models (26) — fully private, no logging
    模型 ID 名称 上下文 功能
    kimi-k2-5 Kimi K2.5 256k 默认、推理、视觉
    kimi-k2-thinking Kimi K2 Thinking 256k 推理
    llama-3.3-70b Llama 3.3 70B 128k 通用
    llama-3.2-3b Llama 3.2 3B 128k 通用
    hermes-3-llama-3.1-405b Hermes 3 Llama 3.1 405B 128k 通用、已禁用工具
    qwen3-235b-a22b-thinking-2507 Qwen3 235B Thinking 128k 推理
    qwen3-235b-a22b-instruct-2507 Qwen3 235B Instruct 128k 通用
    qwen3-coder-480b-a35b-instruct Qwen3 Coder 480B 256k 编码
    qwen3-coder-480b-a35b-instruct-turbo Qwen3 Coder 480B Turbo 256k 编码
    qwen3-5-35b-a3b Qwen3.5 35B A3B 256k 推理、视觉
    qwen3-next-80b Qwen3 Next 80B 256k 通用
    qwen3-vl-235b-a22b Qwen3 VL 235B(视觉) 256k 视觉
    qwen3-4b Venice Small(Qwen3 4B) 32k 快速、推理
    deepseek-v3.2 DeepSeek V3.2 160k 推理、已禁用工具
    venice-uncensored Venice Uncensored(Dolphin-Mistral) 32k 无审查、已禁用工具
    mistral-31-24b Venice Medium(Mistral) 128k 视觉
    google-gemma-3-27b-it Google Gemma 3 27B Instruct 198k 视觉
    openai-gpt-oss-120b OpenAI GPT OSS 120B 128k 通用
    nvidia-nemotron-3-nano-30b-a3b NVIDIA Nemotron 3 Nano 30B 128k 通用
    olafangensan-glm-4.7-flash-heretic GLM 4.7 Flash Heretic 128k 推理
    zai-org-glm-4.6 GLM 4.6 198k 通用
    zai-org-glm-4.7 GLM 4.7 198k 推理
    zai-org-glm-4.7-flash GLM 4.7 Flash 128k 推理
    zai-org-glm-5 GLM 5 198k 推理
    minimax-m21 MiniMax M2.1 198k 推理
    minimax-m25 MiniMax M2.5 198k 推理
    Anonymized models (15) — via Venice proxy
    模型 ID 名称 上下文 功能
    claude-opus-4-6 Claude Opus 4.6(通过 Venice) 1M 推理、视觉
    claude-opus-4-5 Claude Opus 4.5(通过 Venice) 198k 推理、视觉
    claude-sonnet-4-6 Claude Sonnet 4.6(通过 Venice) 1M 推理、视觉
    claude-sonnet-4-5 Claude Sonnet 4.5(通过 Venice) 198k 推理、视觉
    openai-gpt-54 GPT-5.4(通过 Venice) 1M 推理、视觉
    openai-gpt-53-codex GPT-5.3 Codex(通过 Venice) 400k 推理、视觉、编码
    openai-gpt-52 GPT-5.2(通过 Venice) 256k 推理
    openai-gpt-52-codex GPT-5.2 Codex(通过 Venice) 256k 推理、视觉、编码
    openai-gpt-4o-2024-11-20 GPT-4o(通过 Venice) 128k 视觉
    openai-gpt-4o-mini-2024-07-18 GPT-4o Mini(通过 Venice) 128k 视觉
    gemini-3-1-pro-preview Gemini 3.1 Pro(通过 Venice) 1M 推理、视觉
    gemini-3-pro-preview Gemini 3 Pro(通过 Venice) 198k 推理、视觉
    gemini-3-flash-preview Gemini 3 Flash(通过 Venice) 256k 推理、视觉
    grok-41-fast Grok 4.1 Fast(通过 Venice) 1M 推理、视觉
    grok-code-fast-1 Grok Code Fast 1(通过 Venice) 256k 推理、编码

    模型发现

    OpenClaw 随附一个由清单支持的 Venice 种子目录,用于只读模型列表。运行时刷新仍然可以从 Venice API 发现模型;如果 API 无法访问,则会回退到清单目录。

    /models 端点是公开的(列出模型不需要身份验证),但推理需要有效的 API key。

    流式传输和工具支持

    功能 支持
    流式传输 所有模型
    函数调用 大多数模型(查看 API 中的 supportsFunctionCalling
    视觉/图像 标记有 “Vision” 功能的模型
    JSON 模式 通过 response_format 支持

    价格

    Venice 使用基于点数的系统。查看 venice.ai/pricing 了解当前费率:

    • 私有模型:通常成本较低
    • 匿名化模型:类似于直接 API 定价 + 少量 Venice 费用

    Venice(匿名化)与直接 API

    方面 Venice(匿名化) 直接 API
    隐私 元数据被剥离,已匿名化 你的账号会被关联
    延迟 +10-50ms(代理) 直接连接
    功能 支持大多数功能 完整功能
    计费 Venice 点数 提供商计费

    用法示例

    # Use the default private model
    openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
    
    # Use Claude Opus via Venice (anonymized)
    openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
    
    # Use uncensored model
    openclaw agent --model venice/venice-uncensored --message "Draft options"
    
    # Use vision model with image
    openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
    
    # Use coding model
    openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
    

    故障排除

    API key not recognized
    echo $VENICE_API_KEY
    openclaw models list | grep venice
    

    确保密钥以 vapi_ 开头。

    Model not available

    Venice 模型目录会动态更新。运行 openclaw models list 查看当前可用的模型。某些模型可能会暂时离线。

    Connection issues

    Venice API 位于 https://api.venice.ai/api/v1。确保你的网络允许 HTTPS 连接。

    高级配置

    Config file example
    {
      env: { VENICE_API_KEY: "vapi_..." },
      agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
      models: {
        mode: "merge",
        providers: {
          venice: {
            baseUrl: "https://api.venice.ai/api/v1",
            apiKey: "${VENICE_API_KEY}",
            api: "openai-completions",
            models: [
              {
                id: "kimi-k2-5",
                name: "Kimi K2.5",
                reasoning: true,
                input: ["text", "image"],
                cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
                contextWindow: 256000,
                maxTokens: 65536,
              },
            ],
          },
        },
      },
    }
    

    相关内容