Providers
OpenAI
OpenAI fournit des API développeur pour les modèles GPT, et Codex est également disponible comme agent de codage avec abonnement ChatGPT via les clients Codex d’OpenAI. OpenClaw garde ces surfaces séparées afin que la configuration reste prévisible.
OpenClaw utilise openai/* comme route canonique des modèles OpenAI. Les tours d’agent intégrés sur les modèles OpenAI passent par défaut par le runtime natif du serveur d’application Codex ; l’authentification directe par clé d’API OpenAI reste disponible pour les surfaces OpenAI hors agent, comme les images, les embeddings, la parole et le temps réel.
- Modèles d’agent - modèles
openai/*via le runtime Codex ; connectez-vous avec l’authentificationopenai-codexpour utiliser un abonnement ChatGPT/Codex, ou configurez un profil de clé d’APIopenai-codexlorsque vous voulez intentionnellement une authentification par clé d’API. - API OpenAI hors agent - accès direct à OpenAI Platform avec facturation à l’usage via
OPENAI_API_KEYou l’onboarding par clé d’API OpenAI. - Configuration héritée - les références de modèle
openai-codex/*sont réparées paropenclaw doctor --fixversopenai/*avec le runtime Codex.
OpenAI prend explicitement en charge l’utilisation d’OAuth d’abonnement dans des outils et workflows externes comme OpenClaw.
Le fournisseur, le modèle, le runtime et le canal sont des couches séparées. Si ces libellés se mélangent, lisez Runtimes d’agent avant de modifier la configuration.
Choix rapide
| Objectif | Utiliser | Notes |
|---|---|---|
| Abonnement ChatGPT/Codex avec runtime Codex natif | openai/gpt-5.5 |
Configuration d’agent OpenAI par défaut. Connectez-vous avec l’authentification openai-codex. |
| Facturation directe par clé d’API pour les modèles d’agent | openai/gpt-5.5 plus un profil de clé d’API openai-codex |
Utilisez auth.order.openai-codex pour privilégier ce profil. |
| Facturation directe par clé d’API via PI explicite | openai/gpt-5.5 plus agentRuntime.id: "pi" |
Sélectionnez un profil de clé d’API openai normal. |
| Dernier alias d’API ChatGPT Instant | openai/chat-latest |
Clé d’API directe uniquement. Alias mobile pour expérimentations, pas la valeur par défaut. |
| Authentification par abonnement ChatGPT/Codex via PI explicite | openai/gpt-5.5 plus agentRuntime.id: "pi" |
Sélectionnez un profil d’authentification openai-codex pour la route de compatibilité. |
| Génération ou édition d’images | openai/gpt-image-2 |
Fonctionne avec OPENAI_API_KEY ou OAuth OpenAI Codex. |
| Images à arrière-plan transparent | openai/gpt-image-1.5 |
Utilisez outputFormat=png ou webp et openai.background=transparent. |
Carte de nommage
Les noms sont similaires, mais non interchangeables :
| Nom affiché | Couche | Signification |
|---|---|---|
openai |
Préfixe de fournisseur | Route canonique des modèles OpenAI ; les tours d’agent utilisent le runtime Codex. |
openai-codex |
Préfixe d’authentification/profil | Fournisseur de profil d’authentification OpenAI Codex OAuth/abonnement. |
Plugin codex |
Plugin | Plugin OpenClaw intégré qui fournit le runtime natif du serveur d’application Codex et les contrôles de chat /codex. |
agentRuntime.id: codex |
Runtime d’agent | Force le harnais natif du serveur d’application Codex pour les tours intégrés. |
/codex ... |
Ensemble de commandes de chat | Lier/contrôler les fils du serveur d’application Codex depuis une conversation. |
runtime: "acp", agentId: "codex" |
Route de session ACP | Chemin de repli explicite qui exécute Codex via ACP/acpx. |
Cela signifie qu’une configuration peut intentionnellement contenir à la fois des références de modèle openai/* et des profils d’authentification openai-codex. openclaw doctor --fix réécrit les références de modèle héritées openai-codex/* vers la route canonique des modèles OpenAI.
Couverture des fonctionnalités OpenClaw
| Capacité OpenAI | Surface OpenClaw | Statut |
|---|---|---|
| Chat / Réponses | Fournisseur de modèles openai/<model> |
Oui |
| Modèles d’abonnement Codex | openai/<model> avec OAuth openai-codex |
Oui |
| Références de modèle Codex héritées | openai-codex/<model> |
Réparées par doctor vers openai/<model> |
| Harnais du serveur d’application Codex | openai/<model> avec runtime omis ou agentRuntime.id: codex |
Oui |
| Recherche web côté serveur | Outil OpenAI Responses natif | Oui, lorsque la recherche web est activée et qu’aucun fournisseur n’est épinglé |
| Images | image_generate |
Oui |
| Vidéos | video_generate |
Oui |
| Texte vers parole | messages.tts.provider: "openai" / tts |
Oui |
| Parole vers texte par lot | tools.media.audio / compréhension des médias |
Oui |
| Parole vers texte en streaming | Voice Call streaming.provider: "openai" |
Oui |
| Voix en temps réel | Voice Call realtime.provider: "openai" / Control UI Talk |
Oui |
| Embeddings | Fournisseur d’embeddings mémoire | Oui |
Embeddings mémoire
OpenClaw peut utiliser OpenAI, ou un point de terminaison d’embeddings compatible OpenAI, pour l’indexation memory_search et les embeddings de requête :
{
agents: {
defaults: {
memorySearch: {
provider: "openai",
model: "text-embedding-3-small",
},
},
},
}
Pour les points de terminaison compatibles OpenAI qui nécessitent des libellés d’embeddings asymétriques, définissez queryInputType et documentInputType sous memorySearch. OpenClaw les transmet comme champs de requête input_type propres au fournisseur : les embeddings de requête utilisent queryInputType ; les fragments de mémoire indexés et l’indexation par lot utilisent documentInputType. Consultez la référence de configuration de la mémoire pour l’exemple complet.
Premiers pas
Choisissez votre méthode d’authentification préférée et suivez les étapes de configuration.
Clé d’API (OpenAI Platform)
Idéal pour : l’accès direct à l’API et la facturation à l’usage.
Obtenir votre clé d’API
Créez ou copiez une clé d’API depuis le tableau de bord OpenAI Platform.
Exécuter l’onboarding
openclaw onboard --auth-choice openai-api-key
Ou transmettez directement la clé :
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
Vérifier que le modèle est disponible
openclaw models list --provider openai
Résumé des routes
| Référence de modèle | Configuration du runtime | Route | Authentification |
|---|---|---|---|
openai/gpt-5.5 |
omise / agentRuntime.id: "codex" |
Harnais du serveur d’application Codex | profil openai-codex |
openai/gpt-5.4-mini |
omise / agentRuntime.id: "codex" |
Harnais du serveur d’application Codex | profil openai-codex |
openai/gpt-5.5 |
agentRuntime.id: "pi" |
Runtime intégré PI | profil openai ou profil openai-codex sélectionné |
Exemple de configuration
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Pour essayer le modèle Instant actuel de ChatGPT depuis l’API OpenAI, définissez le modèle sur openai/chat-latest :
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/chat-latest" } } },
}
chat-latest est un alias mobile. OpenAI le documente comme le dernier modèle Instant utilisé dans ChatGPT et recommande gpt-5.5 pour l’utilisation de l’API en production ; conservez donc openai/gpt-5.5 comme valeur par défaut stable, sauf si vous voulez explicitement le comportement de cet alias. L’alias n’accepte actuellement que la verbosité de texte medium, donc OpenClaw normalise les surcharges incompatibles de verbosité de texte OpenAI pour ce modèle.
Abonnement Codex
Idéal pour : utiliser votre abonnement ChatGPT/Codex avec l’exécution native du serveur d’application Codex au lieu d’une clé d’API séparée. Le cloud Codex nécessite une connexion ChatGPT.
Exécuter Codex OAuth
openclaw onboard --auth-choice openai-codex
Ou exécutez OAuth directement :
openclaw models auth login --provider openai-codex
Pour les configurations sans interface graphique ou hostiles aux callbacks, ajoutez --device-code pour vous connecter avec un flux de code d’appareil ChatGPT au lieu du callback navigateur localhost :
openclaw models auth login --provider openai-codex --device-code
Utiliser la route canonique des modèles OpenAI
openclaw config set agents.defaults.model.primary openai/gpt-5.5
Aucune configuration d'exécution n'est requise pour le chemin par défaut. Les tours d'agent OpenAI sélectionnent automatiquement l'exécution native de serveur d'application Codex, et OpenClaw installe ou répare le Plugin Codex intégré lorsque cette route est choisie.
Vérifier que l'authentification Codex est disponible
openclaw models list --provider openai-codex
Une fois le Gateway en cours d'exécution, envoyez /codex status ou /codex models
dans le chat pour vérifier l'exécution native de serveur d'application.
Résumé des routes
| Réf. de modèle | Configuration d'exécution | Route | Authentification |
|---|---|---|---|
openai/gpt-5.5 |
omise / agentRuntime.id: "codex" |
Harnais natif de serveur d'application Codex | Connexion Codex ou profil openai-codex sélectionné |
openai/gpt-5.5 |
agentRuntime.id: "pi" |
Exécution intégrée PI avec transport interne d'authentification Codex | Profil openai-codex sélectionné |
openai-codex/gpt-5.5 |
réparée par doctor | Route héritée réécrite vers openai/gpt-5.5 |
Profil openai-codex existant |
Exemple de configuration
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
Vérifier et récupérer le routage OAuth Codex
Utilisez ces commandes pour voir quel modèle, quelle exécution et quelle route d'authentification votre agent par défaut utilise :
openclaw models status
openclaw models auth list --provider openai-codex
openclaw config get agents.defaults.model --json
openclaw config get agents.defaults.agentRuntime --json
Pour un agent spécifique, ajoutez --agent <id> :
openclaw models status --agent <id>
openclaw models auth list --agent <id> --provider openai-codex
Si une ancienne configuration contient encore openai-codex/gpt-* ou un épinglage de session OpenAI PI
obsolète sans configuration d'exécution explicite, réparez-la :
openclaw doctor --fix
openclaw config validate
Si models auth list --provider openai-codex n'affiche aucun profil utilisable, reconnectez-vous :
openclaw models auth login --provider openai-codex
openclaw models status --probe --probe-provider openai-codex
openai-codex reste l'id de fournisseur d'authentification/profil. openai/* est la
route de modèle pour les tours d'agent OpenAI via Codex.
Indicateur d'état
Le chat /status montre quelle exécution de modèle est active pour la session actuelle.
Le harnais de serveur d'application Codex intégré apparaît comme Runtime: OpenAI Codex pour
les tours de modèle d'agent OpenAI. Les épinglages de session PI obsolètes sont réparés vers Codex, sauf si
la configuration épingle explicitement PI.
Avertissement de doctor
Si des routes openai-codex/* ou des épinglages OpenAI PI obsolètes restent dans la configuration ou
l'état de session, openclaw doctor --fix les réécrit vers openai/* avec l'exécution
Codex, sauf si PI est explicitement configuré.
Limite de fenêtre de contexte
OpenClaw traite les métadonnées de modèle et la limite de contexte d'exécution comme des valeurs distinctes.
Pour openai/gpt-5.5 via le catalogue OAuth Codex :
contextWindownatif :1000000- Limite
contextTokensd'exécution par défaut :272000
La limite par défaut plus petite offre en pratique de meilleures caractéristiques de latence et de qualité. Remplacez-la avec contextTokens :
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
Récupération du catalogue
OpenClaw utilise les métadonnées du catalogue Codex amont pour gpt-5.5 lorsqu'elles sont
présentes. Si la découverte Codex en direct omet la ligne gpt-5.5 alors que
le compte est authentifié, OpenClaw synthétise cette ligne de modèle OAuth afin que
les exécutions cron, de sous-agent et de modèle par défaut configuré n'échouent pas avec
Unknown model.
Authentification native du serveur d'application Codex
Le harnais natif de serveur d'application Codex utilise des références de modèle openai/* plus une configuration
d'exécution omise ou agentRuntime.id: "codex", mais son authentification reste
fondée sur le compte. OpenClaw
sélectionne l'authentification dans cet ordre :
- Un profil d'authentification OpenClaw
openai-codexexplicite lié à l'agent. - Le compte existant du serveur d'application, comme une connexion ChatGPT locale avec la CLI Codex.
- Pour les lancements locaux de serveur d'application stdio uniquement,
CODEX_API_KEY, puisOPENAI_API_KEY, lorsque le serveur d'application ne signale aucun compte et nécessite toujours une authentification OpenAI.
Cela signifie qu'une connexion locale avec abonnement ChatGPT/Codex n'est pas remplacée simplement
parce que le processus Gateway dispose aussi de OPENAI_API_KEY pour les modèles OpenAI directs
ou les embeddings. Le repli par clé API d'environnement n'est que le chemin local stdio sans compte ; elle
n'est pas envoyée aux connexions WebSocket du serveur d'application. Lorsqu'un profil Codex
de type abonnement est sélectionné, OpenClaw garde aussi CODEX_API_KEY et OPENAI_API_KEY
hors du processus enfant stdio de serveur d'application lancé et envoie les identifiants sélectionnés
via le RPC de connexion du serveur d'application.
Génération d'images
Le Plugin openai intégré enregistre la génération d'images via l'outil image_generate.
Il prend en charge à la fois la génération d'images avec clé API OpenAI et la génération d'images
avec OAuth Codex via la même référence de modèle openai/gpt-image-2.
| Capacité | Clé API OpenAI | OAuth Codex |
|---|---|---|
| Réf. de modèle | openai/gpt-image-2 |
openai/gpt-image-2 |
| Authentification | OPENAI_API_KEY |
Connexion OAuth OpenAI Codex |
| Transport | API OpenAI Images | Backend Codex Responses |
| Nombre max. d'images par requête | 4 | 4 |
| Mode édition | Activé (jusqu'à 5 images de référence) | Activé (jusqu'à 5 images de référence) |
| Remplacements de taille | Pris en charge, y compris les tailles 2K/4K | Pris en charge, y compris les tailles 2K/4K |
| Format d'image / résolution | Non transmis à l'API OpenAI Images | Mappé vers une taille prise en charge lorsque c'est sûr |
{
agents: {
defaults: {
imageGenerationModel: { primary: "openai/gpt-image-2" },
},
},
}
gpt-image-2 est la valeur par défaut pour la génération texte-vers-image OpenAI comme pour l'édition
d'images. gpt-image-1.5, gpt-image-1 et gpt-image-1-mini restent utilisables comme
remplacements explicites de modèle. Utilisez openai/gpt-image-1.5 pour une sortie
PNG/WebP à arrière-plan transparent ; l'API gpt-image-2 actuelle rejette
background: "transparent".
Pour une requête d'arrière-plan transparent, les agents doivent appeler image_generate avec
model: "openai/gpt-image-1.5", outputFormat: "png" ou "webp", et
background: "transparent" ; l'ancienne option de fournisseur openai.background est
toujours acceptée. OpenClaw protège aussi les routes OAuth OpenAI public et
OpenAI Codex en réécrivant les requêtes transparentes openai/gpt-image-2 par défaut
vers gpt-image-1.5 ; Azure et les endpoints personnalisés compatibles OpenAI conservent
leurs noms de déploiement/modèle configurés.
Le même réglage est exposé pour les exécutions CLI sans interface :
openclaw infer image generate \
--model openai/gpt-image-1.5 \
--output-format png \
--background transparent \
--prompt "A simple red circle sticker on a transparent background" \
--json
Utilisez les mêmes indicateurs --output-format et --background avec
openclaw infer image edit lorsque vous partez d'un fichier d'entrée.
--openai-background reste disponible comme alias spécifique à OpenAI.
Pour les installations OAuth Codex, conservez la même référence openai/gpt-image-2. Lorsqu'un
profil OAuth openai-codex est configuré, OpenClaw résout ce jeton d'accès OAuth
stocké et envoie les requêtes d'image via le backend Codex Responses. Il
n'essaie pas d'abord OPENAI_API_KEY et ne bascule pas silencieusement vers une clé API pour cette
requête. Configurez explicitement models.providers.openai avec une clé API,
une URL de base personnalisée ou un endpoint Azure lorsque vous voulez la route directe de l'API OpenAI Images
à la place.
Si cet endpoint d'image personnalisé se trouve sur un LAN/adresse privée de confiance, définissez aussi
browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true ; OpenClaw garde
les endpoints d'image privés/internes compatibles OpenAI bloqués sauf si cette adhésion explicite est
présente.
Générer :
/tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
Générer un PNG transparent :
/tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
Modifier :
/tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536
Génération de vidéos
Le Plugin openai intégré enregistre la génération de vidéos via l'outil video_generate.
| Capacité | Valeur |
|---|---|
| Modèle par défaut | openai/sora-2 |
| Modes | Texte-vers-vidéo, image-vers-vidéo, édition d'une seule vidéo |
| Entrées de référence | 1 image ou 1 vidéo |
| Remplacements de taille | Pris en charge |
| Autres remplacements | aspectRatio, resolution, audio, watermark sont ignorés avec un avertissement d'outil |
{
agents: {
defaults: {
videoGenerationModel: { primary: "openai/sora-2" },
},
},
}
Contribution de prompt GPT-5
OpenClaw ajoute une contribution de prompt GPT-5 partagée pour les exécutions de la famille GPT-5 sur l'ensemble des fournisseurs. Elle s'applique par id de modèle, donc openai/gpt-5.5, les références héritées avant réparation comme openai-codex/gpt-5.5, openrouter/openai/gpt-5.5, opencode/gpt-5.5 et les autres références compatibles GPT-5 reçoivent la même couche. Les anciens modèles GPT-4.x ne la reçoivent pas.
Le harnais Codex natif intégré utilise le même comportement GPT-5 et la même couche Heartbeat via les instructions développeur du serveur d'application Codex, de sorte que les sessions openai/gpt-5.x forcées via agentRuntime.id: "codex" conservent les mêmes consignes de suivi et de Heartbeat proactif, même si Codex possède le reste du prompt du harnais.
La contribution GPT-5 ajoute un contrat de comportement balisé pour la persistance de persona, la sécurité d’exécution, la discipline des outils, la forme de sortie, les vérifications d’achèvement et la vérification. Le comportement de réponse propre au canal et de message silencieux reste dans le prompt système partagé d’OpenClaw et la politique de livraison sortante. Les consignes GPT-5 sont toujours activées pour les modèles correspondants. La couche de style d’interaction amicale est séparée et configurable.
| Valeur | Effet |
|---|---|
"friendly" (par défaut) |
Active la couche de style d’interaction amicale |
"on" |
Alias de "friendly" |
"off" |
Désactive uniquement la couche de style amical |
Config
{
agents: {
defaults: {
promptOverlays: {
gpt5: { personality: "friendly" },
},
},
},
}
CLI
openclaw config set agents.defaults.promptOverlays.gpt5.personality off
Voix et parole
Speech synthesis (TTS)
Le Plugin openai inclus enregistre la synthèse vocale pour la surface messages.tts.
| Paramètre | Chemin de configuration | Valeur par défaut |
|---|---|---|
| Modèle | messages.tts.providers.openai.model |
gpt-4o-mini-tts |
| Voix | messages.tts.providers.openai.voice |
coral |
| Vitesse | messages.tts.providers.openai.speed |
(non défini) |
| Instructions | messages.tts.providers.openai.instructions |
(non défini, gpt-4o-mini-tts uniquement) |
| Format | messages.tts.providers.openai.responseFormat |
opus pour les notes vocales, mp3 pour les fichiers |
| Clé API | messages.tts.providers.openai.apiKey |
Se replie sur OPENAI_API_KEY |
| URL de base | messages.tts.providers.openai.baseUrl |
https://api.openai.com/v1 |
| Corps supplémentaire | messages.tts.providers.openai.extraBody / extra_body |
(non défini) |
Modèles disponibles : gpt-4o-mini-tts, tts-1, tts-1-hd. Voix disponibles : alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.
extraBody est fusionné dans le JSON de requête /audio/speech après les champs générés par OpenClaw ; utilisez-le donc pour les points de terminaison compatibles OpenAI qui exigent des clés supplémentaires comme lang. Les clés de prototype sont ignorées.
{
messages: {
tts: {
providers: {
openai: { model: "gpt-4o-mini-tts", voice: "coral" },
},
},
},
}
Speech-to-text
Le Plugin openai inclus enregistre la conversion parole-texte par lots via
la surface de transcription de compréhension des médias d’OpenClaw.
- Modèle par défaut :
gpt-4o-transcribe - Point de terminaison : REST OpenAI
/v1/audio/transcriptions - Chemin d’entrée : téléversement de fichier audio multipart
- Pris en charge par OpenClaw partout où la transcription audio entrante utilise
tools.media.audio, y compris les segments de salons vocaux Discord et les pièces jointes audio des canaux
Pour forcer OpenAI pour la transcription audio entrante :
{
tools: {
media: {
audio: {
models: [
{
type: "provider",
provider: "openai",
model: "gpt-4o-transcribe",
},
],
},
},
},
}
Les indications de langue et de prompt sont transmises à OpenAI lorsqu’elles sont fournies par la configuration média audio partagée ou par la requête de transcription propre à l’appel.
Realtime transcription
Le Plugin openai inclus enregistre la transcription en temps réel pour le Plugin Voice Call.
| Paramètre | Chemin de configuration | Valeur par défaut |
|---|---|---|
| Modèle | plugins.entries.voice-call.config.streaming.providers.openai.model |
gpt-4o-transcribe |
| Langue | ...openai.language |
(non défini) |
| Prompt | ...openai.prompt |
(non défini) |
| Durée du silence | ...openai.silenceDurationMs |
800 |
| Seuil VAD | ...openai.vadThreshold |
0.5 |
| Clé API | ...openai.apiKey |
Se replie sur OPENAI_API_KEY |
Realtime voice
Le Plugin openai inclus enregistre la voix en temps réel pour le Plugin Voice Call.
| Paramètre | Chemin de configuration | Valeur par défaut |
|---|---|---|
| Modèle | plugins.entries.voice-call.config.realtime.providers.openai.model |
gpt-realtime-1.5 |
| Voix | ...openai.voice |
alloy |
| Température | ...openai.temperature |
0.8 |
| Seuil VAD | ...openai.vadThreshold |
0.5 |
| Durée du silence | ...openai.silenceDurationMs |
500 |
| Clé API | ...openai.apiKey |
Se replie sur OPENAI_API_KEY |
Points de terminaison Azure OpenAI
Le fournisseur openai inclus peut cibler une ressource Azure OpenAI pour la génération
d’images en remplaçant l’URL de base. Sur le chemin de génération d’images, OpenClaw
détecte les noms d’hôte Azure sur models.providers.openai.baseUrl et bascule
automatiquement vers la forme de requête Azure.
Utilisez Azure OpenAI lorsque :
- Vous avez déjà un abonnement Azure OpenAI, un quota ou un contrat entreprise
- Vous avez besoin de la résidence régionale des données ou des contrôles de conformité fournis par Azure
- Vous voulez garder le trafic dans une location Azure existante
Configuration
Pour la génération d’images Azure via le fournisseur openai inclus, pointez
models.providers.openai.baseUrl vers votre ressource Azure et définissez apiKey sur
la clé Azure OpenAI (pas une clé OpenAI Platform) :
{
models: {
providers: {
openai: {
baseUrl: "https://<your-resource>.openai.azure.com",
apiKey: "<azure-openai-api-key>",
},
},
},
}
OpenClaw reconnaît ces suffixes d’hôte Azure pour la route de génération d’images Azure :
*.openai.azure.com*.services.ai.azure.com*.cognitiveservices.azure.com
Pour les requêtes de génération d’images sur un hôte Azure reconnu, OpenClaw :
- Envoie l’en-tête
api-keyau lieu deAuthorization: Bearer - Utilise des chemins limités au déploiement (
/openai/deployments/{deployment}/...) - Ajoute
?api-version=...à chaque requête - Utilise un délai d’expiration par défaut de 600 s pour les appels de génération d’images Azure.
Les valeurs
timeoutMspropres à l’appel remplacent toujours cette valeur par défaut.
Les autres URL de base (OpenAI public, proxys compatibles OpenAI) conservent la forme standard des requêtes d’image OpenAI.
Version d’API
Définissez AZURE_OPENAI_API_VERSION pour épingler une version Azure preview ou GA spécifique
pour le chemin de génération d’images Azure :
export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
La valeur par défaut est 2024-12-01-preview lorsque la variable n’est pas définie.
Les noms de modèles sont des noms de déploiements
Azure OpenAI lie les modèles aux déploiements. Pour les requêtes de génération d’images Azure
routées via le fournisseur openai inclus, le champ model dans OpenClaw
doit être le nom de déploiement Azure que vous avez configuré dans le portail Azure, et non
l’identifiant du modèle OpenAI public.
Si vous créez un déploiement appelé gpt-image-2-prod qui sert gpt-image-2 :
/tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
La même règle de nom de déploiement s’applique aux appels de génération d’images routés via
le fournisseur openai inclus.
Disponibilité régionale
La génération d’images Azure est actuellement disponible uniquement dans un sous-ensemble de régions
(par exemple eastus2, swedencentral, polandcentral, westus3,
uaenorth). Consultez la liste actuelle des régions Microsoft avant de créer un
déploiement, et confirmez que le modèle spécifique est proposé dans votre région.
Différences de paramètres
Azure OpenAI et OpenAI public n’acceptent pas toujours les mêmes paramètres d’image.
Azure peut rejeter des options qu’OpenAI public autorise (par exemple certaines
valeurs background sur gpt-image-2) ou les exposer uniquement sur certaines versions
de modèle. Ces différences viennent d’Azure et du modèle sous-jacent, pas
d’OpenClaw. Si une requête Azure échoue avec une erreur de validation, vérifiez le
jeu de paramètres pris en charge par votre déploiement et votre version d’API spécifiques dans le
portail Azure.
Configuration avancée
Transport (WebSocket vs SSE)
OpenClaw utilise d’abord WebSocket avec repli SSE ("auto") pour openai/*.
En mode "auto", OpenClaw :
- Réessaie un échec WebSocket précoce une fois avant de se replier sur SSE
- Après un échec, marque WebSocket comme dégradé pendant environ 60 secondes et utilise SSE pendant le refroidissement
- Attache des en-têtes d’identité de session et de tour stables pour les nouvelles tentatives et reconnexions
- Normalise les compteurs d’utilisation (
input_tokens/prompt_tokens) entre les variantes de transport
| Valeur | Comportement |
|---|---|
"auto" (par défaut) |
WebSocket d’abord, repli SSE |
"sse" |
Forcer SSE uniquement |
"websocket" |
Forcer WebSocket uniquement |
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { transport: "auto" },
},
},
},
},
}
Documentation OpenAI connexe :
Préchauffage WebSocket
OpenClaw active le préchauffage WebSocket par défaut pour openai/* afin de réduire la latence du premier tour.
// Disable warm-up
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { openaiWsWarmup: false },
},
},
},
},
}
Mode rapide
OpenClaw expose un basculement partagé de mode rapide pour openai/* :
- Chat/IU :
/fast status|on|off - Config :
agents.defaults.models["<provider>/<model>"].params.fastMode
Lorsqu’il est activé, OpenClaw associe le mode rapide au traitement prioritaire d’OpenAI (service_tier = "priority"). Les valeurs service_tier existantes sont conservées, et le mode rapide ne réécrit pas reasoning ni text.verbosity.
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": { params: { fastMode: true } },
},
},
},
}
Traitement prioritaire (service_tier)
L’API d’OpenAI expose le traitement prioritaire via service_tier. Définissez-le par modèle dans OpenClaw :
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": { params: { serviceTier: "priority" } },
},
},
},
}
Valeurs prises en charge : auto, default, flex, priority.
Compaction côté serveur (API Responses)
Pour les modèles OpenAI Responses directs (openai/* sur api.openai.com), l’enveloppe de flux Pi-harness du Plugin OpenAI active automatiquement la compaction côté serveur :
- Force
store: true(sauf si la compatibilité du modèle définitsupportsStore: false) - Injecte
context_management: [{ type: "compaction", compact_threshold: ... }] compact_thresholdpar défaut : 70 % decontextWindow(ou80000lorsqu’il est indisponible)
Cela s’applique au chemin Pi harness intégré et aux hooks de fournisseur OpenAI utilisés par les exécutions intégrées. Le harness natif du serveur d’application Codex gère son propre contexte via Codex et se configure séparément avec agents.defaults.agentRuntime.id.
Activer explicitement
Utile pour les points de terminaison compatibles comme Azure OpenAI Responses :
{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.5": {
params: { responsesServerCompaction: true },
},
},
},
},
}
Seuil personnalisé
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
Désactiver
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { responsesServerCompaction: false },
},
},
},
},
}
Mode GPT strictement agentique
Pour les exécutions de la famille GPT-5 sur openai/*, OpenClaw peut utiliser un contrat d’exécution intégré plus strict :
{
agents: {
defaults: {
embeddedPi: { executionContract: "strict-agentic" },
},
},
}
Avec strict-agentic, OpenClaw :
- Ne considère plus un tour limité à un plan comme une progression réussie lorsqu’une action d’outil est disponible
- Réessaie le tour avec une orientation pour agir immédiatement
- Active automatiquement
update_planpour les travaux substantiels - Affiche un état bloqué explicite si le modèle continue à planifier sans agir
Routes natives et compatibles OpenAI
OpenClaw traite différemment les points de terminaison OpenAI directs, Codex et Azure OpenAI par rapport aux proxys /v1 génériques compatibles OpenAI :
Routes natives (openai/*, Azure OpenAI) :
- Conservent
reasoning: { effort: "none" }uniquement pour les modèles qui prennent en charge l’effortnoned’OpenAI - Omettent le raisonnement désactivé pour les modèles ou proxys qui rejettent
reasoning.effort: "none" - Utilisent par défaut le mode strict pour les schémas d’outils
- Joignent des en-têtes d’attribution masqués uniquement sur les hôtes natifs vérifiés
- Conservent la mise en forme des requêtes propre à OpenAI (
service_tier,store, compatibilité du raisonnement, indications de cache de prompt)
Routes proxy/compatibles :
- Utilisent un comportement de compatibilité plus souple
- Retirent
storede Completions des charges utilesopenai-completionsnon natives - Acceptent le JSON de transmission avancée
params.extra_body/params.extraBodypour les proxys Completions compatibles OpenAI - Acceptent
params.chat_template_kwargspour les proxys Completions compatibles OpenAI comme vLLM - Ne forcent pas les schémas d’outils stricts ni les en-têtes réservés aux routes natives
Azure OpenAI utilise le transport natif et le comportement de compatibilité, mais ne reçoit pas les en-têtes d’attribution masqués.
Connexe
Choisir les fournisseurs, les références de modèles et le comportement de basculement.
Paramètres d’outil d’image partagés et sélection du fournisseur.
Paramètres d’outil vidéo partagés et sélection du fournisseur.
Détails d’authentification et règles de réutilisation des identifiants.