Providers
Venice AI
Venice AI ให้บริการ AI inference ที่เน้นความเป็นส่วนตัว พร้อมรองรับโมเดลแบบไม่ถูกเซ็นเซอร์และการเข้าถึงโมเดล proprietary รายใหญ่ผ่าน proxy แบบไม่ระบุตัวตนของตนเอง inference ทั้งหมดเป็นส่วนตัวตามค่าเริ่มต้น — ไม่มีการฝึกด้วยข้อมูลของคุณ ไม่มีการบันทึก log
ทำไมจึงใช้ Venice ใน OpenClaw
- inference แบบส่วนตัว สำหรับโมเดล open-source (ไม่มีการบันทึก log)
- โมเดลแบบไม่ถูกเซ็นเซอร์ เมื่อคุณต้องการ
- การเข้าถึงแบบไม่ระบุตัวตน ไปยังโมเดล proprietary (Opus/GPT/Gemini) เมื่อคุณภาพเป็นสิ่งสำคัญ
- endpoint
/v1ที่เข้ากันได้กับ OpenAI
โหมดความเป็นส่วนตัว
Venice มีระดับความเป็นส่วนตัวสองระดับ — การเข้าใจส่วนนี้เป็นกุญแจสำคัญในการเลือกโมเดลของคุณ:
| โหมด | คำอธิบาย | โมเดล |
|---|---|---|
| ส่วนตัว | เป็นส่วนตัวอย่างสมบูรณ์ prompt/response จะ ไม่ถูกจัดเก็บหรือบันทึก log โดยเด็ดขาด เป็นข้อมูลชั่วคราว | Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, ฯลฯ |
| ทำให้ไม่ระบุตัวตน | ส่งผ่าน proxy ของ Venice โดยตัด metadata ออก provider ต้นทาง (OpenAI, Anthropic, Google, xAI) จะเห็น request แบบไม่ระบุตัวตน | Claude, GPT, Gemini, Grok |
คุณสมบัติ
- เน้นความเป็นส่วนตัว: เลือกระหว่างโหมด "ส่วนตัว" (ส่วนตัวอย่างสมบูรณ์) และ "ทำให้ไม่ระบุตัวตน" (ผ่าน proxy)
- โมเดลแบบไม่ถูกเซ็นเซอร์: เข้าถึงโมเดลโดยไม่มีข้อจำกัดด้านเนื้อหา
- เข้าถึงโมเดลรายใหญ่: ใช้ Claude, GPT, Gemini และ Grok ผ่าน proxy แบบไม่ระบุตัวตนของ Venice
- API ที่เข้ากันได้กับ OpenAI: endpoint
/v1มาตรฐานเพื่อการผสานรวมที่ง่าย - การสตรีม: รองรับในทุกโมเดล
- การเรียกใช้ฟังก์ชัน: รองรับในบางโมเดล (ตรวจสอบความสามารถของโมเดล)
- วิสัยทัศน์: รองรับในโมเดลที่มีความสามารถด้าน vision
- ไม่มี rate limit แบบตายตัว: อาจมีการจำกัดความเร็วตาม fair-use สำหรับการใช้งานที่สูงมาก
เริ่มต้นใช้งาน
รับ API key ของคุณ
- สมัครที่ venice.ai
- ไปที่ Settings > API Keys > Create new key
- คัดลอก API key ของคุณ (รูปแบบ:
vapi_xxxxxxxxxxxx)
กำหนดค่า OpenClaw
เลือกวิธีตั้งค่าที่คุณต้องการ:
แบบโต้ตอบ (แนะนำ)
openclaw onboard --auth-choice venice-api-key
สิ่งนี้จะ:
- ถาม API key ของคุณ (หรือใช้
VENICE_API_KEYที่มีอยู่) - แสดงโมเดล Venice ทั้งหมดที่มี
- ให้คุณเลือกโมเดลเริ่มต้นของคุณ
- กำหนดค่า provider โดยอัตโนมัติ
Environment variable
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
ไม่โต้ตอบ
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
ตรวจสอบการตั้งค่า
openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"
การเลือกโมเดล
หลังตั้งค่าแล้ว OpenClaw จะแสดงโมเดล Venice ทั้งหมดที่มี เลือกตามความต้องการของคุณ:
- โมเดลเริ่มต้น:
venice/kimi-k2-5สำหรับการให้เหตุผลแบบส่วนตัวที่แข็งแกร่งพร้อม vision - ตัวเลือกความสามารถสูง:
venice/claude-opus-4-6สำหรับเส้นทาง Venice แบบไม่ระบุตัวตนที่แข็งแกร่งที่สุด - ความเป็นส่วนตัว: เลือกโมเดล "ส่วนตัว" สำหรับ inference ที่เป็นส่วนตัวอย่างสมบูรณ์
- ความสามารถ: เลือกโมเดล "ทำให้ไม่ระบุตัวตน" เพื่อเข้าถึง Claude, GPT, Gemini ผ่าน proxy ของ Venice
เปลี่ยนโมเดลเริ่มต้นของคุณได้ทุกเมื่อ:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
แสดงรายการโมเดลทั้งหมดที่มี:
openclaw models list --all --provider venice
คุณยังสามารถเรียกใช้ openclaw configure เลือก Model/auth แล้วเลือก Venice AI
พฤติกรรม replay ของ DeepSeek V4
หาก Venice เปิดให้ใช้โมเดล DeepSeek V4 เช่น venice/deepseek-v4-pro หรือ
venice/deepseek-v4-flash OpenClaw จะเติม placeholder สำหรับ replay
reasoning_content ของ DeepSeek V4 ที่จำเป็นในข้อความ assistant เมื่อ proxy
ละไว้ Venice ปฏิเสธการควบคุม thinking ระดับบนสุดแบบ native ของ DeepSeek ดังนั้น
OpenClaw จึงแยกการแก้ไข replay เฉพาะ provider นี้ออกจากการควบคุม thinking ของ
provider DeepSeek แบบ native
catalog ในตัว (รวม 41 รายการ)
โมเดลส่วนตัว (26) — ส่วนตัวอย่างสมบูรณ์ ไม่มีการบันทึก log
| Model ID | ชื่อ | Context | คุณสมบัติ |
|---|---|---|---|
kimi-k2-5 |
Kimi K2.5 | 256k | ค่าเริ่มต้น, การให้เหตุผล, vision |
kimi-k2-thinking |
Kimi K2 Thinking | 256k | การให้เหตุผล |
llama-3.3-70b |
Llama 3.3 70B | 128k | ทั่วไป |
llama-3.2-3b |
Llama 3.2 3B | 128k | ทั่วไป |
hermes-3-llama-3.1-405b |
Hermes 3 Llama 3.1 405B | 128k | ทั่วไป, ปิดใช้งานเครื่องมือ |
qwen3-235b-a22b-thinking-2507 |
Qwen3 235B Thinking | 128k | การให้เหตุผล |
qwen3-235b-a22b-instruct-2507 |
Qwen3 235B Instruct | 128k | ทั่วไป |
qwen3-coder-480b-a35b-instruct |
Qwen3 Coder 480B | 256k | การเขียนโค้ด |
qwen3-coder-480b-a35b-instruct-turbo |
Qwen3 Coder 480B Turbo | 256k | การเขียนโค้ด |
qwen3-5-35b-a3b |
Qwen3.5 35B A3B | 256k | การให้เหตุผล, vision |
qwen3-next-80b |
Qwen3 Next 80B | 256k | ทั่วไป |
qwen3-vl-235b-a22b |
Qwen3 VL 235B (Vision) | 256k | Vision |
qwen3-4b |
Venice Small (Qwen3 4B) | 32k | เร็ว, การให้เหตุผล |
deepseek-v3.2 |
DeepSeek V3.2 | 160k | การให้เหตุผล, ปิดใช้งานเครื่องมือ |
venice-uncensored |
Venice Uncensored (Dolphin-Mistral) | 32k | ไม่ถูกเซ็นเซอร์, ปิดใช้งานเครื่องมือ |
mistral-31-24b |
Venice Medium (Mistral) | 128k | Vision |
google-gemma-3-27b-it |
Google Gemma 3 27B Instruct | 198k | Vision |
openai-gpt-oss-120b |
OpenAI GPT OSS 120B | 128k | ทั่วไป |
nvidia-nemotron-3-nano-30b-a3b |
NVIDIA Nemotron 3 Nano 30B | 128k | ทั่วไป |
olafangensan-glm-4.7-flash-heretic |
GLM 4.7 Flash Heretic | 128k | การให้เหตุผล |
zai-org-glm-4.6 |
GLM 4.6 | 198k | ทั่วไป |
zai-org-glm-4.7 |
GLM 4.7 | 198k | การให้เหตุผล |
zai-org-glm-4.7-flash |
GLM 4.7 Flash | 128k | การให้เหตุผล |
zai-org-glm-5 |
GLM 5 | 198k | การให้เหตุผล |
minimax-m21 |
MiniMax M2.1 | 198k | การให้เหตุผล |
minimax-m25 |
MiniMax M2.5 | 198k | การให้เหตุผล |
โมเดลแบบไม่ระบุตัวตน (15) — ผ่าน proxy ของ Venice
| Model ID | ชื่อ | Context | คุณสมบัติ |
|---|---|---|---|
claude-opus-4-6 |
Claude Opus 4.6 (ผ่าน Venice) | 1M | การให้เหตุผล, vision |
claude-opus-4-5 |
Claude Opus 4.5 (ผ่าน Venice) | 198k | การให้เหตุผล, vision |
claude-sonnet-4-6 |
Claude Sonnet 4.6 (ผ่าน Venice) | 1M | การให้เหตุผล, vision |
claude-sonnet-4-5 |
Claude Sonnet 4.5 (ผ่าน Venice) | 198k | การให้เหตุผล, vision |
openai-gpt-54 |
GPT-5.4 (ผ่าน Venice) | 1M | การให้เหตุผล, vision |
openai-gpt-53-codex |
GPT-5.3 Codex (ผ่าน Venice) | 400k | การให้เหตุผล, vision, การเขียนโค้ด |
openai-gpt-52 |
GPT-5.2 (ผ่าน Venice) | 256k | การให้เหตุผล |
openai-gpt-52-codex |
GPT-5.2 Codex (ผ่าน Venice) | 256k | การให้เหตุผล, vision, การเขียนโค้ด |
openai-gpt-4o-2024-11-20 |
GPT-4o (ผ่าน Venice) | 128k | Vision |
openai-gpt-4o-mini-2024-07-18 |
GPT-4o Mini (ผ่าน Venice) | 128k | Vision |
gemini-3-1-pro-preview |
Gemini 3.1 Pro (ผ่าน Venice) | 1M | การให้เหตุผล, vision |
gemini-3-pro-preview |
Gemini 3 Pro (ผ่าน Venice) | 198k | การให้เหตุผล, vision |
gemini-3-flash-preview |
Gemini 3 Flash (ผ่าน Venice) | 256k | การให้เหตุผล, vision |
grok-41-fast |
Grok 4.1 Fast (ผ่าน Venice) | 1M | การให้เหตุผล, vision |
grok-code-fast-1 |
Grok Code Fast 1 (ผ่าน Venice) | 256k | การให้เหตุผล, การเขียนโค้ด |
การค้นหาโมเดล
OpenClaw มาพร้อม seed catalog ของ Venice ที่หนุนด้วย manifest สำหรับการแสดงรายการโมเดลแบบอ่านอย่างเดียว การ refresh ขณะ runtime ยังค้นพบโมเดลจาก Venice API ได้ และจะ fallback ไปยัง manifest catalog หากเข้าถึง API ไม่ได้
endpoint /models เป็น public (ไม่ต้องใช้ auth สำหรับการแสดงรายการ) แต่ inference ต้องใช้ API key ที่ถูกต้อง
การสตรีมและการรองรับเครื่องมือ
| คุณสมบัติ | การรองรับ |
|---|---|
| Streaming | ทุกโมเดล |
| Function calling | โมเดลส่วนใหญ่ (ตรวจสอบ supportsFunctionCalling ใน API) |
| Vision/Images | โมเดลที่มีฟีเจอร์ "Vision" |
| JSON mode | รองรับผ่าน response_format |
ราคา
Venice ใช้ระบบแบบเครดิต ตรวจสอบ venice.ai/pricing สำหรับอัตราปัจจุบัน:
- โมเดลส่วนตัว: โดยทั่วไปมีต้นทุนต่ำกว่า
- โมเดลแบบนิรนาม: ใกล้เคียงกับราคา API โดยตรง + ค่าธรรมเนียม Venice เล็กน้อย
Venice (แบบนิรนาม) เทียบกับ API โดยตรง
| ด้าน | Venice (แบบนิรนาม) | API โดยตรง |
|---|---|---|
| ความเป็นส่วนตัว | ลบข้อมูลเมตาออกแล้ว ทำให้เป็นนิรนาม | เชื่อมโยงกับบัญชีของคุณ |
| เวลาแฝง | +10-50ms (พร็อกซี) | โดยตรง |
| ฟีเจอร์ | รองรับฟีเจอร์ส่วนใหญ่ | ฟีเจอร์ครบถ้วน |
| การเรียกเก็บเงิน | เครดิต Venice | การเรียกเก็บเงินจากผู้ให้บริการ |
ตัวอย่างการใช้งาน
# Use the default private model
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
# Use Claude Opus via Venice (anonymized)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
# Use uncensored model
openclaw agent --model venice/venice-uncensored --message "Draft options"
# Use vision model with image
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
# Use coding model
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
การแก้ไขปัญหา
ไม่รู้จักคีย์ API
echo $VENICE_API_KEY
openclaw models list | grep venice
ตรวจสอบให้แน่ใจว่าคีย์ขึ้นต้นด้วย vapi_
โมเดลไม่พร้อมใช้งาน
แค็ตตาล็อกโมเดล Venice อัปเดตแบบไดนามิก เรียกใช้ openclaw models list เพื่อดูโมเดลที่พร้อมใช้งานในปัจจุบัน บางโมเดลอาจออฟไลน์ชั่วคราว
ปัญหาการเชื่อมต่อ
Venice API อยู่ที่ https://api.venice.ai/api/v1 ตรวจสอบให้แน่ใจว่าเครือข่ายของคุณอนุญาตการเชื่อมต่อ HTTPS
การกำหนดค่าขั้นสูง
ตัวอย่างไฟล์ Config
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2-5",
name: "Kimi K2.5",
reasoning: true,
input: ["text", "image"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 65536,
},
],
},
},
},
}