Providers
Groq
Groq fournit une inférence ultra-rapide sur des modèles à poids ouverts (Llama, Gemma, Kimi, Qwen, GPT OSS, et plus encore) à l’aide d’un matériel LPU personnalisé. OpenClaw inclut un plugin Groq intégré qui enregistre à la fois un fournisseur de chat compatible OpenAI et un fournisseur de compréhension multimédia audio.
| Propriété | Valeur |
|---|---|
| Id du fournisseur | groq |
| Plugin | intégré, enabledByDefault: true |
| Variable d’env auth | GROQ_API_KEY |
| Indicateur d’onboarding | --auth-choice groq-api-key |
| API | compatible OpenAI (openai-completions) |
| URL de base | https://api.groq.com/openai/v1 |
| Transcription audio | whisper-large-v3-turbo (par défaut) |
| Chat par défaut suggéré | groq/llama-3.3-70b-versatile |
Premiers pas
Obtenir une clé API
Créez une clé API sur console.groq.com/keys.
Définir la clé API
openclaw onboard --auth-choice groq-api-key
export GROQ_API_KEY=gsk_...
Définir un modèle par défaut
{
agents: {
defaults: {
model: { primary: "groq/llama-3.3-70b-versatile" },
},
},
}
Vérifier que le catalogue est accessible
openclaw models list --provider groq
Exemple de fichier de configuration
{
env: { GROQ_API_KEY: "gsk_..." },
agents: {
defaults: {
model: { primary: "groq/llama-3.3-70b-versatile" },
},
},
}
Catalogue intégré
OpenClaw fournit un catalogue Groq basé sur un manifeste avec des entrées de raisonnement et sans raisonnement. Exécutez openclaw models list --provider groq pour voir les lignes intégrées correspondant à votre version installée, ou consultez console.groq.com/docs/models pour la liste de référence de Groq.
| Réf. du modèle | Nom | Raisonnement | Entrée | Contexte |
|---|---|---|---|---|
groq/llama-3.3-70b-versatile |
Llama 3.3 70B Versatile | non | texte | 131,072 |
groq/llama-3.1-8b-instant |
Llama 3.1 8B Instant | non | texte | 131,072 |
groq/meta-llama/llama-4-maverick-17b-128e-instruct |
Llama 4 Maverick 17B | non | texte + image | 131,072 |
groq/meta-llama/llama-4-scout-17b-16e-instruct |
Llama 4 Scout 17B | non | texte + image | 131,072 |
groq/llama3-70b-8192 |
Llama 3 70B | non | texte | 8,192 |
groq/llama3-8b-8192 |
Llama 3 8B | non | texte | 8,192 |
groq/gemma2-9b-it |
Gemma 2 9B | non | texte | 8,192 |
groq/mistral-saba-24b |
Mistral Saba 24B | non | texte | 32,768 |
groq/moonshotai/kimi-k2-instruct |
Kimi K2 Instruct | non | texte | 131,072 |
groq/moonshotai/kimi-k2-instruct-0905 |
Kimi K2 Instruct 0905 | non | texte | 262,144 |
groq/openai/gpt-oss-120b |
GPT OSS 120B | oui | texte | 131,072 |
groq/openai/gpt-oss-20b |
GPT OSS 20B | oui | texte | 131,072 |
groq/openai/gpt-oss-safeguard-20b |
Safety GPT OSS 20B | oui | texte | 131,072 |
groq/qwen-qwq-32b |
Qwen QwQ 32B | oui | texte | 131,072 |
groq/qwen/qwen3-32b |
Qwen3 32B | oui | texte | 131,072 |
groq/deepseek-r1-distill-llama-70b |
DeepSeek R1 Distill Llama 70B | oui | texte | 131,072 |
groq/groq/compound |
Compound | oui | texte | 131,072 |
groq/groq/compound-mini |
Compound Mini | oui | texte | 131,072 |
Modèles de raisonnement
OpenClaw associe ses niveaux /think partagés aux valeurs reasoning_effort propres aux modèles Groq :
- Pour
qwen/qwen3-32b, la pensée désactivée envoienoneet la pensée activée envoiedefault. - Pour les modèles de raisonnement GPT OSS de Groq (
openai/gpt-oss-*), OpenClaw envoielow,mediumouhighselon le niveau/think. La pensée désactivée ometreasoning_effort, car ces modèles ne prennent pas en charge une valeur désactivée. - DeepSeek R1 Distill, Qwen QwQ et Compound utilisent la surface de raisonnement native de Groq ;
/thinkcontrôle la visibilité, mais le modèle raisonne toujours.
Consultez Modes de pensée pour les niveaux /think partagés et la façon dont OpenClaw les traduit par fournisseur.
Transcription audio
Le plugin Groq intégré enregistre aussi un fournisseur de compréhension multimédia audio afin que les messages vocaux puissent être transcrits via la surface partagée tools.media.audio.
| Propriété | Valeur |
|---|---|
| Chemin de config partagé | tools.media.audio |
| URL de base par défaut | https://api.groq.com/openai/v1 |
| Modèle par défaut | whisper-large-v3-turbo |
| Priorité automatique | 20 |
| Point de terminaison API | /audio/transcriptions compatible OpenAI |
Pour faire de Groq le backend audio par défaut :
{
tools: {
media: {
audio: {
models: [{ provider: "groq" }],
},
},
},
}
Disponibilité de l’environnement pour le daemon
Si le Gateway s’exécute comme service géré (launchd, systemd, Docker), GROQ_API_KEY doit être visible par ce processus — pas seulement par votre shell interactif.
Ids de modèles Groq personnalisés
OpenClaw accepte n’importe quel id de modèle Groq à l’exécution. Utilisez l’id exact affiché par Groq et préfixez-le avec groq/. Le catalogue intégré couvre les cas courants ; les ids absents du catalogue passent par le modèle compatible OpenAI par défaut.
{
agents: {
defaults: {
model: { primary: "groq/<your-model-id>" },
},
},
}
Associés
Choix des fournisseurs, références de modèles et comportement de basculement.
Niveaux d’effort de raisonnement et interaction avec les politiques des fournisseurs.
Schéma de configuration complet incluant les paramètres de fournisseur et d’audio.
Tableau de bord Groq, documentation de l’API et tarifs.