快速开始
Groq
Groq 使用自定义 LPU 硬件,为开放权重模型(Llama、Gemma、Kimi、Qwen、GPT OSS 等)提供超高速推理。OpenClaw 包含一个内置 Groq 插件,可同时注册 OpenAI 兼容的聊天提供商和音频媒体理解提供商。
| 属性 | 值 |
|---|---|
| 提供商 ID | groq |
| 插件 | 内置,enabledByDefault: true |
| 认证环境变量 | GROQ_API_KEY |
| 新手引导标志 | --auth-choice groq-api-key |
| API | OpenAI 兼容(openai-completions) |
| 基础 URL | https://api.groq.com/openai/v1 |
| 音频转录 | whisper-large-v3-turbo(默认) |
| 建议的默认聊天模型 | groq/llama-3.3-70b-versatile |
入门指南
获取 API key
在 console.groq.com/keys 创建 API key。
设置 API key
openclaw onboard --auth-choice groq-api-key
export GROQ_API_KEY=gsk_...
设置默认模型
{
agents: {
defaults: {
model: { primary: "groq/llama-3.3-70b-versatile" },
},
},
}
验证目录是否可访问
openclaw models list --provider groq
配置文件示例
{
env: { GROQ_API_KEY: "gsk_..." },
agents: {
defaults: {
model: { primary: "groq/llama-3.3-70b-versatile" },
},
},
}
内置目录
OpenClaw 随附一个由清单支持的 Groq 目录,包含推理和非推理条目。运行 openclaw models list --provider groq 查看你的已安装版本内置的行,或查看 console.groq.com/docs/models 获取 Groq 的权威列表。
| 模型引用 | 名称 | 推理 | 输入 | 上下文 |
|---|---|---|---|---|
groq/llama-3.3-70b-versatile |
Llama 3.3 70B Versatile | 否 | 文本 | 131,072 |
groq/llama-3.1-8b-instant |
Llama 3.1 8B Instant | 否 | 文本 | 131,072 |
groq/meta-llama/llama-4-maverick-17b-128e-instruct |
Llama 4 Maverick 17B | 否 | 文本 + 图像 | 131,072 |
groq/meta-llama/llama-4-scout-17b-16e-instruct |
Llama 4 Scout 17B | 否 | 文本 + 图像 | 131,072 |
groq/llama3-70b-8192 |
Llama 3 70B | 否 | 文本 | 8,192 |
groq/llama3-8b-8192 |
Llama 3 8B | 否 | 文本 | 8,192 |
groq/gemma2-9b-it |
Gemma 2 9B | 否 | 文本 | 8,192 |
groq/mistral-saba-24b |
Mistral Saba 24B | 否 | 文本 | 32,768 |
groq/moonshotai/kimi-k2-instruct |
Kimi K2 Instruct | 否 | 文本 | 131,072 |
groq/moonshotai/kimi-k2-instruct-0905 |
Kimi K2 Instruct 0905 | 否 | 文本 | 262,144 |
groq/openai/gpt-oss-120b |
GPT OSS 120B | 是 | 文本 | 131,072 |
groq/openai/gpt-oss-20b |
GPT OSS 20B | 是 | 文本 | 131,072 |
groq/openai/gpt-oss-safeguard-20b |
Safety GPT OSS 20B | 是 | 文本 | 131,072 |
groq/qwen-qwq-32b |
Qwen QwQ 32B | 是 | 文本 | 131,072 |
groq/qwen/qwen3-32b |
Qwen3 32B | 是 | 文本 | 131,072 |
groq/deepseek-r1-distill-llama-70b |
DeepSeek R1 Distill Llama 70B | 是 | 文本 | 131,072 |
groq/groq/compound |
Compound | 是 | 文本 | 131,072 |
groq/groq/compound-mini |
Compound Mini | 是 | 文本 | 131,072 |
推理模型
OpenClaw 会将共享的 /think 级别映射到 Groq 特定于模型的 reasoning_effort 值:
- 对于
qwen/qwen3-32b,禁用思考会发送none,启用思考会发送default。 - 对于 Groq GPT OSS 推理模型(
openai/gpt-oss-*),OpenClaw 会根据/think级别发送low、medium或high。禁用思考时会省略reasoning_effort,因为这些模型不支持禁用值。 - DeepSeek R1 Distill、Qwen QwQ 和 Compound 使用 Groq 原生推理接口;
/think控制可见性,但模型始终会进行推理。
请参阅 Thinking modes,了解共享的 /think 级别以及 OpenClaw 如何按提供商转换它们。
音频转录
Groq 的内置插件还注册了一个音频媒体理解提供商,因此语音消息可以通过共享的 tools.media.audio 接口转录。
| 属性 | 值 |
|---|---|
| 共享配置路径 | tools.media.audio |
| 默认基础 URL | https://api.groq.com/openai/v1 |
| 默认模型 | whisper-large-v3-turbo |
| 自动优先级 | 20 |
| API 端点 | OpenAI 兼容的 /audio/transcriptions |
要将 Groq 设为默认音频后端:
{
tools: {
media: {
audio: {
models: [{ provider: "groq" }],
},
},
},
}
守护进程的环境可用性
如果 Gateway 网关作为托管服务(launchd、systemd、Docker)运行,GROQ_API_KEY 必须对该进程可见,而不只是对你的交互式 shell 可见。
自定义 Groq 模型 ID
OpenClaw 在运行时接受任何 Groq 模型 ID。使用 Groq 显示的确切 ID,并加上 groq/ 前缀。内置目录覆盖常见情况;未编入目录的 ID 会回退到默认的 OpenAI 兼容模板。
{
agents: {
defaults: {
model: { primary: "groq/<your-model-id>" },
},
},
}