Providers
OpenRouter
OpenRouter fournit une API unifiée qui achemine les requêtes vers de nombreux modèles derrière un seul point de terminaison et une seule clé API. Elle est compatible avec OpenAI, donc la plupart des SDK OpenAI fonctionnent en changeant l’URL de base.
Premiers pas
Get your API key
Créez une clé API sur openrouter.ai/keys.
Run onboarding
openclaw onboard --auth-choice openrouter-api-key
(Optional) Switch to a specific model
L’onboarding utilise openrouter/auto par défaut. Choisissez un modèle concret plus tard :
openclaw models set openrouter/<provider>/<model>
Exemple de configuration
{
env: { OPENROUTER_API_KEY: "sk-or-..." },
agents: {
defaults: {
model: { primary: "openrouter/auto" },
},
},
}
Références de modèles
Exemples de secours inclus :
| Référence de modèle | Notes |
|---|---|
openrouter/auto |
Routage automatique OpenRouter |
openrouter/moonshotai/kimi-k2.6 |
Kimi K2.6 via MoonshotAI |
Génération d’images
OpenRouter peut également prendre en charge l’outil image_generate. Utilisez un modèle d’image OpenRouter sous agents.defaults.imageGenerationModel :
{
env: { OPENROUTER_API_KEY: "sk-or-..." },
agents: {
defaults: {
imageGenerationModel: {
primary: "openrouter/google/gemini-3.1-flash-image-preview",
timeoutMs: 180_000,
},
},
},
}
OpenClaw envoie les requêtes d’image à l’API d’images de complétions de chat d’OpenRouter avec modalities: ["image", "text"]. Les modèles d’image Gemini reçoivent les indications aspectRatio et resolution prises en charge via image_config d’OpenRouter. Utilisez agents.defaults.imageGenerationModel.timeoutMs pour les modèles d’image OpenRouter plus lents ; le paramètre timeoutMs par appel de l’outil image_generate reste prioritaire.
Génération vidéo
OpenRouter peut également prendre en charge l’outil video_generate via son API asynchrone /videos. Utilisez un modèle vidéo OpenRouter sous agents.defaults.videoGenerationModel :
{
env: { OPENROUTER_API_KEY: "sk-or-..." },
agents: {
defaults: {
videoGenerationModel: {
primary: "openrouter/google/veo-3.1-fast",
},
},
},
}
OpenClaw soumet des tâches texte-vers-vidéo et image-vers-vidéo à OpenRouter, interroge
le polling_url renvoyé, puis télécharge la vidéo terminée depuis
les unsigned_urls d’OpenRouter ou depuis le point de terminaison documenté du contenu de tâche.
Les images de référence sont envoyées par défaut comme images de première/dernière image ; les images
étiquetées avec reference_image sont envoyées comme références d’entrée OpenRouter. La
valeur par défaut incluse google/veo-3.1-fast annonce les durées actuellement prises en charge de 4/6/8
secondes, les résolutions 720P/1080P et les formats d’image 16:9/9:16.
La vidéo-vers-vidéo n’est pas enregistrée pour OpenRouter, car l’API amont de
génération vidéo accepte actuellement le texte et les références d’images.
Synthèse vocale
OpenRouter peut également être utilisé comme fournisseur TTS via son point de terminaison
compatible OpenAI /audio/speech.
{
messages: {
tts: {
auto: "always",
provider: "openrouter",
providers: {
openrouter: {
model: "hexgrad/kokoro-82m",
voice: "af_alloy",
responseFormat: "mp3",
},
},
},
},
}
Si messages.tts.providers.openrouter.apiKey est omis, TTS réutilise
models.providers.openrouter.apiKey, puis OPENROUTER_API_KEY.
Authentification et en-têtes
OpenRouter utilise en interne un jeton Bearer avec votre clé API.
Sur les requêtes OpenRouter réelles (https://openrouter.ai/api/v1), OpenClaw ajoute également
les en-têtes documentés d’attribution d’application d’OpenRouter :
| En-tête | Valeur |
|---|---|
HTTP-Referer |
https://openclaw.ai |
X-OpenRouter-Title |
OpenClaw |
X-OpenRouter-Categories |
cli-agent,cloud-agent,programming-app,creative-writing,writing-assistant,general-chat,personal-agent |
Configuration avancée
Response caching
La mise en cache des réponses OpenRouter est optionnelle. Activez-la par modèle OpenRouter avec des paramètres de modèle :
{
agents: {
defaults: {
models: {
"openrouter/auto": {
params: {
responseCache: true,
responseCacheTtlSeconds: 300,
},
},
},
},
},
}
OpenClaw envoie X-OpenRouter-Cache: true et, lorsqu’il est configuré,
X-OpenRouter-Cache-TTL. responseCacheClear: true force une actualisation pour
la requête actuelle et stocke la réponse de remplacement. Les alias en snake_case
(response_cache, response_cache_ttl_seconds et
response_cache_clear) sont également acceptés.
Cela est distinct de la mise en cache des prompts du fournisseur et des marqueurs
Anthropic cache_control d’OpenRouter. Cela ne s’applique qu’aux routes
openrouter.ai vérifiées, pas aux URL de base de proxy personnalisées.
Anthropic cache markers
Sur les routes OpenRouter vérifiées, les références de modèles Anthropic conservent les
marqueurs Anthropic cache_control propres à OpenRouter qu’OpenClaw utilise pour
une meilleure réutilisation du cache de prompts sur les blocs de prompts système/développeur.
Anthropic reasoning prefill
Sur les routes OpenRouter vérifiées, les références de modèles Anthropic avec raisonnement activé suppriment les tours finaux de préremplissage assistant avant que la requête n’atteigne OpenRouter, conformément à l’exigence d’Anthropic selon laquelle les conversations avec raisonnement se terminent par un tour utilisateur.
Thinking / reasoning injection
Sur les routes non-auto prises en charge, OpenClaw mappe le niveau de réflexion sélectionné vers
les charges utiles de raisonnement proxy d’OpenRouter. Les indications de modèles non prises en charge et
openrouter/auto ignorent cette injection de raisonnement. Hunter Alpha ignore également
le raisonnement proxy pour les références de modèles configurées obsolètes, car OpenRouter pourrait
renvoyer le texte de réponse final dans des champs de raisonnement pour cette route retirée.
DeepSeek V4 reasoning replay
Sur les routes OpenRouter vérifiées, openrouter/deepseek/deepseek-v4-flash et
openrouter/deepseek/deepseek-v4-pro remplissent le reasoning_content manquant sur
les tours assistant rejoués afin que les conversations réflexion/outil conservent la forme de suivi
requise par DeepSeek V4. OpenClaw envoie les valeurs reasoning_effort prises en charge par OpenRouter
pour ces routes ; xhigh est le niveau annoncé le plus élevé, et les remplacements max
obsolètes sont mappés vers xhigh.
OpenAI-only request shaping
OpenRouter passe toujours par le chemin compatible OpenAI de style proxy, donc
la mise en forme native des requêtes propre à OpenAI, comme serviceTier, store de Responses,
les charges utiles compatibles avec le raisonnement OpenAI et les indications de cache de prompts, n’est pas transmise.
Gemini-backed routes
Les références OpenRouter adossées à Gemini restent sur le chemin proxy-Gemini : OpenClaw conserve l’assainissement des signatures de pensée Gemini à cet endroit, mais n’active pas la validation native de relecture Gemini ni les réécritures d’amorçage.
Provider routing metadata
Si vous passez le routage fournisseur OpenRouter dans les paramètres de modèle, OpenClaw le transmet comme métadonnées de routage OpenRouter avant l’exécution des wrappers de flux partagés.