Providers
OpenAI
OpenAI menyediakan API pengembang untuk model GPT, dan Codex juga tersedia sebagai agen coding paket ChatGPT melalui klien Codex OpenAI. OpenClaw menjaga permukaan tersebut tetap terpisah agar konfigurasi tetap dapat diprediksi.
OpenClaw menggunakan openai/* sebagai rute model OpenAI kanonis. Giliran agen tertanam pada model OpenAI berjalan melalui runtime server aplikasi Codex native secara default; autentikasi kunci API OpenAI langsung tetap tersedia untuk permukaan OpenAI non-agen seperti gambar, embedding, ucapan, dan realtime.
- Model agen - model
openai/*melalui runtime Codex; masuk dengan autentikasiopenai-codexuntuk penggunaan langganan ChatGPT/Codex, atau konfigurasikan profil kunci APIopenai-codexketika Anda sengaja menginginkan autentikasi kunci API. - API OpenAI non-agen - akses OpenAI Platform langsung dengan penagihan berbasis penggunaan melalui
OPENAI_API_KEYatau onboarding kunci API OpenAI. - Konfigurasi lama - referensi model
openai-codex/*diperbaiki olehopenclaw doctor --fixmenjadiopenai/*plus runtime Codex.
OpenAI secara eksplisit mendukung penggunaan OAuth langganan di alat dan alur kerja eksternal seperti OpenClaw.
Penyedia, model, runtime, dan channel adalah lapisan terpisah. Jika label tersebut tercampur, baca Runtime agen sebelum mengubah konfigurasi.
Pilihan cepat
| Tujuan | Gunakan | Catatan |
|---|---|---|
| Langganan ChatGPT/Codex dengan runtime Codex native | openai/gpt-5.5 |
Pengaturan agen OpenAI default. Masuk dengan autentikasi openai-codex. |
| Penagihan kunci API langsung untuk model agen | openai/gpt-5.5 plus profil kunci API openai-codex |
Gunakan auth.order.openai-codex untuk memprioritaskan profil itu. |
| Penagihan kunci API langsung melalui PI eksplisit | openai/gpt-5.5 plus agentRuntime.id: "pi" |
Pilih profil kunci API openai biasa. |
| Alias API ChatGPT Instant terbaru | openai/chat-latest |
Hanya kunci API langsung. Alias bergerak untuk eksperimen, bukan default. |
| Autentikasi langganan ChatGPT/Codex melalui PI eksplisit | openai/gpt-5.5 plus agentRuntime.id: "pi" |
Pilih profil autentikasi openai-codex untuk rute kompatibilitas. |
| Pembuatan atau pengeditan gambar | openai/gpt-image-2 |
Berfungsi dengan OPENAI_API_KEY atau OAuth OpenAI Codex. |
| Gambar dengan latar belakang transparan | openai/gpt-image-1.5 |
Gunakan outputFormat=png atau webp dan openai.background=transparent. |
Peta penamaan
Nama-nama ini mirip tetapi tidak dapat dipertukarkan:
| Nama yang Anda lihat | Lapisan | Makna |
|---|---|---|
openai |
Prefiks penyedia | Rute model OpenAI kanonis; giliran agen menggunakan runtime Codex. |
openai-codex |
Prefiks autentikasi/profil | Penyedia profil autentikasi OAuth/langganan OpenAI Codex. |
codex plugin |
Plugin | Plugin bawaan OpenClaw yang menyediakan runtime server aplikasi Codex native dan kontrol chat /codex. |
agentRuntime.id: codex |
Runtime agen | Memaksa harness server aplikasi Codex native untuk giliran tertanam. |
/codex ... |
Kumpulan perintah chat | Mengikat/mengontrol thread server aplikasi Codex dari percakapan. |
runtime: "acp", agentId: "codex" |
Rute sesi ACP | Jalur fallback eksplisit yang menjalankan Codex melalui ACP/acpx. |
Ini berarti konfigurasi dapat dengan sengaja berisi referensi model openai/* dan profil autentikasi openai-codex. openclaw doctor --fix menulis ulang referensi model lama openai-codex/* ke rute model OpenAI kanonis.
Cakupan fitur OpenClaw
| Kapabilitas OpenAI | Permukaan OpenClaw | Status |
|---|---|---|
| Chat / Responses | Penyedia model openai/<model> |
Ya |
| Model langganan Codex | openai/<model> dengan OAuth openai-codex |
Ya |
| Referensi model Codex lama | openai-codex/<model> |
Diperbaiki oleh doctor menjadi openai/<model> |
| Harness server aplikasi Codex | openai/<model> dengan runtime dihilangkan atau agentRuntime.id: codex |
Ya |
| Pencarian web sisi server | Alat OpenAI Responses native | Ya, ketika pencarian web diaktifkan dan tidak ada penyedia yang dipin |
| Gambar | image_generate |
Ya |
| Video | video_generate |
Ya |
| Teks-ke-ucapan | messages.tts.provider: "openai" / tts |
Ya |
| Ucapan-ke-teks batch | tools.media.audio / pemahaman media |
Ya |
| Ucapan-ke-teks streaming | Voice Call streaming.provider: "openai" |
Ya |
| Suara realtime | Voice Call realtime.provider: "openai" / Control UI Talk |
Ya |
| Embedding | penyedia embedding memori | Ya |
Embedding memori
OpenClaw dapat menggunakan OpenAI, atau endpoint embedding yang kompatibel dengan OpenAI, untuk pengindeksan memory_search dan embedding kueri:
{
agents: {
defaults: {
memorySearch: {
provider: "openai",
model: "text-embedding-3-small",
},
},
},
}
Untuk endpoint yang kompatibel dengan OpenAI dan memerlukan label embedding asimetris, atur queryInputType dan documentInputType di bawah memorySearch. OpenClaw meneruskannya sebagai field permintaan input_type khusus penyedia: embedding kueri menggunakan queryInputType; potongan memori terindeks dan pengindeksan batch menggunakan documentInputType. Lihat Referensi konfigurasi memori untuk contoh lengkapnya.
Memulai
Pilih metode autentikasi yang Anda inginkan dan ikuti langkah penyiapannya.
Kunci API (OpenAI Platform)
Terbaik untuk: akses API langsung dan penagihan berbasis penggunaan.
Dapatkan kunci API Anda
Buat atau salin kunci API dari dasbor OpenAI Platform.
Jalankan onboarding
openclaw onboard --auth-choice openai-api-key
Atau teruskan kunci secara langsung:
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
Verifikasi model tersedia
openclaw models list --provider openai
Ringkasan rute
| Referensi model | Konfigurasi runtime | Rute | Autentikasi |
|---|---|---|---|
openai/gpt-5.5 |
dihilangkan / agentRuntime.id: "codex" |
Harness server aplikasi Codex | Profil openai-codex |
openai/gpt-5.4-mini |
dihilangkan / agentRuntime.id: "codex" |
Harness server aplikasi Codex | Profil openai-codex |
openai/gpt-5.5 |
agentRuntime.id: "pi" |
Runtime tertanam PI | Profil openai atau profil openai-codex terpilih |
Contoh konfigurasi
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
Untuk mencoba model Instant ChatGPT saat ini dari API OpenAI, atur model ke openai/chat-latest:
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/chat-latest" } } },
}
chat-latest adalah alias bergerak. OpenAI mendokumentasikannya sebagai model Instant terbaru yang digunakan di ChatGPT dan merekomendasikan gpt-5.5 untuk penggunaan API produksi, jadi pertahankan openai/gpt-5.5 sebagai default stabil kecuali Anda secara eksplisit menginginkan perilaku alias tersebut. Alias ini saat ini hanya menerima verbosity teks medium, sehingga OpenClaw menormalkan override verbosity teks OpenAI yang tidak kompatibel untuk model ini.
Langganan Codex
Terbaik untuk: menggunakan langganan ChatGPT/Codex Anda dengan eksekusi server aplikasi Codex native alih-alih kunci API terpisah. Codex cloud memerlukan masuk ChatGPT.
Jalankan OAuth Codex
openclaw onboard --auth-choice openai-codex
Atau jalankan OAuth secara langsung:
openclaw models auth login --provider openai-codex
Untuk penyiapan headless atau yang tidak mendukung callback, tambahkan --device-code untuk masuk dengan alur kode perangkat ChatGPT alih-alih callback browser localhost:
openclaw models auth login --provider openai-codex --device-code
Gunakan rute model OpenAI kanonis
openclaw config set agents.defaults.model.primary openai/gpt-5.5
Tidak diperlukan konfigurasi runtime untuk jalur default. Giliran agen OpenAI memilih runtime app-server Codex native secara otomatis, dan OpenClaw memasang atau memperbaiki Plugin Codex bawaan saat rute ini dipilih.
Verifikasi auth Codex tersedia
openclaw models list --provider openai-codex
Setelah gateway berjalan, kirim /codex status atau /codex models
di chat untuk memverifikasi runtime app-server native.
Ringkasan rute
| Referensi model | Konfigurasi runtime | Rute | Auth |
|---|---|---|---|
openai/gpt-5.5 |
dihilangkan / agentRuntime.id: "codex" |
Harness app-server Codex native | Masuk Codex atau profil openai-codex terpilih |
openai/gpt-5.5 |
agentRuntime.id: "pi" |
Runtime tertanam PI dengan transport auth Codex internal | Profil openai-codex terpilih |
openai-codex/gpt-5.5 |
diperbaiki oleh doctor | Rute lama ditulis ulang ke openai/gpt-5.5 |
Profil openai-codex yang ada |
Contoh konfigurasi
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
Periksa dan pulihkan perutean OAuth Codex
Gunakan perintah ini untuk melihat model, runtime, dan rute auth yang digunakan agen default Anda:
openclaw models status
openclaw models auth list --provider openai-codex
openclaw config get agents.defaults.model --json
openclaw config get agents.defaults.agentRuntime --json
Untuk agen tertentu, tambahkan --agent <id>:
openclaw models status --agent <id>
openclaw models auth list --agent <id> --provider openai-codex
Jika konfigurasi yang lebih lama masih memiliki openai-codex/gpt-* atau pin sesi OpenAI PI
usang tanpa konfigurasi runtime eksplisit, perbaiki:
openclaw doctor --fix
openclaw config validate
Jika models auth list --provider openai-codex tidak menampilkan profil yang dapat digunakan, masuk
lagi:
openclaw models auth login --provider openai-codex
openclaw models status --probe --probe-provider openai-codex
openai-codex tetap menjadi id penyedia auth/profil. openai/* adalah
rute model untuk giliran agen OpenAI melalui Codex.
Indikator status
Chat /status menampilkan runtime model mana yang aktif untuk sesi saat ini.
Harness app-server Codex bawaan muncul sebagai Runtime: OpenAI Codex untuk
giliran model agen OpenAI. Pin sesi PI usang diperbaiki ke Codex kecuali
konfigurasi secara eksplisit memasang pin PI.
Peringatan doctor
Jika rute openai-codex/* atau pin OpenAI PI usang tetap ada dalam konfigurasi atau
status sesi, openclaw doctor --fix menulis ulang semuanya ke openai/* dengan
runtime Codex kecuali PI dikonfigurasi secara eksplisit.
Batas jendela konteks
OpenClaw memperlakukan metadata model dan batas konteks runtime sebagai nilai terpisah.
Untuk openai/gpt-5.5 melalui katalog OAuth Codex:
contextWindownative:1000000- Batas
contextTokensruntime default:272000
Batas default yang lebih kecil memiliki karakteristik latensi dan kualitas yang lebih baik dalam praktik. Timpa dengan contextTokens:
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
Pemulihan katalog
OpenClaw menggunakan metadata katalog Codex upstream untuk gpt-5.5 saat metadata tersebut
ada. Jika discovery Codex live menghilangkan baris gpt-5.5 sementara
akun terautentikasi, OpenClaw menyintesis baris model OAuth tersebut agar
Cron, sub-agen, dan run model default yang dikonfigurasi tidak gagal dengan
Unknown model.
Auth app-server Codex native
Harness app-server Codex native menggunakan referensi model openai/* plus
konfigurasi runtime yang dihilangkan atau agentRuntime.id: "codex", tetapi auth-nya tetap
berbasis akun. OpenClaw
memilih auth dalam urutan ini:
- Profil auth OpenClaw
openai-codexeksplisit yang terikat ke agen. - Akun app-server yang ada, seperti login ChatGPT CLI Codex lokal.
- Hanya untuk peluncuran app-server stdio lokal,
CODEX_API_KEY, laluOPENAI_API_KEY, saat app-server melaporkan tidak ada akun dan masih memerlukan auth OpenAI.
Artinya, login langganan ChatGPT/Codex lokal tidak diganti hanya
karena proses gateway juga memiliki OPENAI_API_KEY untuk model OpenAI langsung
atau embeddings. Fallback kunci API env hanya untuk jalur stdio lokal tanpa akun; fallback itu
tidak dikirim ke koneksi app-server WebSocket. Saat profil Codex gaya langganan
dipilih, OpenClaw juga menahan CODEX_API_KEY dan OPENAI_API_KEY
dari child app-server stdio yang dijalankan dan mengirim kredensial terpilih
melalui RPC login app-server.
Pembuatan gambar
Plugin openai bawaan mendaftarkan pembuatan gambar melalui tool image_generate.
Plugin ini mendukung pembuatan gambar dengan kunci API OpenAI dan pembuatan gambar OAuth Codex
melalui referensi model openai/gpt-image-2 yang sama.
| Kemampuan | Kunci API OpenAI | OAuth Codex |
|---|---|---|
| Referensi model | openai/gpt-image-2 |
openai/gpt-image-2 |
| Auth | OPENAI_API_KEY |
Login OAuth OpenAI Codex |
| Transport | OpenAI Images API | Backend Codex Responses |
| Maks. gambar per permintaan | 4 | 4 |
| Mode edit | Diaktifkan (hingga 5 gambar referensi) | Diaktifkan (hingga 5 gambar referensi) |
| Penggantian ukuran | Didukung, termasuk ukuran 2K/4K | Didukung, termasuk ukuran 2K/4K |
| Rasio aspek / resolusi | Tidak diteruskan ke OpenAI Images API | Dipetakan ke ukuran yang didukung saat aman |
{
agents: {
defaults: {
imageGenerationModel: { primary: "openai/gpt-image-2" },
},
},
}
gpt-image-2 adalah default untuk pembuatan gambar dari teks OpenAI dan
pengeditan gambar. gpt-image-1.5, gpt-image-1, dan gpt-image-1-mini tetap dapat digunakan sebagai
pengganti model eksplisit. Gunakan openai/gpt-image-1.5 untuk keluaran
PNG/WebP berlatar belakang transparan; API gpt-image-2 saat ini menolak
background: "transparent".
Untuk permintaan latar belakang transparan, agen harus memanggil image_generate dengan
model: "openai/gpt-image-1.5", outputFormat: "png" atau "webp", dan
background: "transparent"; opsi penyedia openai.background yang lebih lama
masih diterima. OpenClaw juga melindungi rute OAuth OpenAI publik dan
OpenAI Codex dengan menulis ulang permintaan transparan default openai/gpt-image-2
ke gpt-image-1.5; endpoint Azure dan endpoint kompatibel OpenAI kustom mempertahankan
nama deployment/model yang dikonfigurasi.
Pengaturan yang sama diekspos untuk run CLI headless:
openclaw infer image generate \
--model openai/gpt-image-1.5 \
--output-format png \
--background transparent \
--prompt "A simple red circle sticker on a transparent background" \
--json
Gunakan flag --output-format dan --background yang sama dengan
openclaw infer image edit saat memulai dari file input.
--openai-background tetap tersedia sebagai alias khusus OpenAI.
Untuk instalasi OAuth Codex, pertahankan referensi openai/gpt-image-2 yang sama. Saat
profil OAuth openai-codex dikonfigurasi, OpenClaw menyelesaikan token akses OAuth
yang tersimpan dan mengirim permintaan gambar melalui backend Codex Responses. OpenClaw
tidak mencoba OPENAI_API_KEY terlebih dahulu atau diam-diam fallback ke kunci API untuk
permintaan tersebut. Konfigurasikan models.providers.openai secara eksplisit dengan kunci API,
URL dasar kustom, atau endpoint Azure saat Anda menginginkan rute OpenAI Images API
langsung.
Jika endpoint gambar kustom tersebut berada di alamat LAN/pribadi tepercaya, setel juga
browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true; OpenClaw tetap memblokir
endpoint gambar kompatibel OpenAI privat/internal kecuali opt-in ini
ada.
Buat:
/tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
Buat PNG transparan:
/tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
Edit:
/tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536
Pembuatan video
Plugin openai bawaan mendaftarkan pembuatan video melalui tool video_generate.
| Kemampuan | Nilai |
|---|---|
| Model default | openai/sora-2 |
| Mode | Teks ke video, gambar ke video, edit video tunggal |
| Input referensi | 1 gambar atau 1 video |
| Penggantian ukuran | Didukung |
| Penggantian lain | aspectRatio, resolution, audio, watermark diabaikan dengan peringatan tool |
{
agents: {
defaults: {
videoGenerationModel: { primary: "openai/sora-2" },
},
},
}
Kontribusi prompt GPT-5
OpenClaw menambahkan kontribusi prompt GPT-5 bersama untuk run keluarga GPT-5 lintas penyedia. Ini berlaku berdasarkan id model, sehingga openai/gpt-5.5, referensi lama sebelum perbaikan seperti openai-codex/gpt-5.5, openrouter/openai/gpt-5.5, opencode/gpt-5.5, dan referensi GPT-5 kompatibel lainnya menerima overlay yang sama. Model GPT-4.x yang lebih lama tidak.
Harness Codex native bawaan menggunakan perilaku GPT-5 dan overlay Heartbeat yang sama melalui instruksi developer app-server Codex, sehingga sesi openai/gpt-5.x yang dipaksa melalui agentRuntime.id: "codex" mempertahankan panduan tindak lanjut dan Heartbeat proaktif yang sama meskipun Codex memiliki sisa prompt harness.
Kontribusi GPT-5 menambahkan kontrak perilaku bertag untuk persistensi persona, keamanan eksekusi, disiplin alat, bentuk output, pemeriksaan penyelesaian, dan verifikasi. Perilaku balasan khusus channel dan pesan senyap tetap berada di prompt sistem OpenClaw bersama dan kebijakan pengiriman outbound. Panduan GPT-5 selalu diaktifkan untuk model yang cocok. Lapisan gaya interaksi ramah terpisah dan dapat dikonfigurasi.
| Nilai | Efek |
|---|---|
"friendly" (default) |
Aktifkan lapisan gaya interaksi ramah |
"on" |
Alias untuk "friendly" |
"off" |
Nonaktifkan hanya lapisan gaya ramah |
Config
{
agents: {
defaults: {
promptOverlays: {
gpt5: { personality: "friendly" },
},
},
},
}
CLI
openclaw config set agents.defaults.promptOverlays.gpt5.personality off
Suara dan ucapan
Speech synthesis (TTS)
Plugin openai bawaan mendaftarkan sintesis ucapan untuk surface messages.tts.
| Pengaturan | Jalur konfigurasi | Default |
|---|---|---|
| Model | messages.tts.providers.openai.model |
gpt-4o-mini-tts |
| Suara | messages.tts.providers.openai.voice |
coral |
| Kecepatan | messages.tts.providers.openai.speed |
(belum disetel) |
| Instruksi | messages.tts.providers.openai.instructions |
(belum disetel, hanya gpt-4o-mini-tts) |
| Format | messages.tts.providers.openai.responseFormat |
opus untuk catatan suara, mp3 untuk file |
| Kunci API | messages.tts.providers.openai.apiKey |
Fallback ke OPENAI_API_KEY |
| URL dasar | messages.tts.providers.openai.baseUrl |
https://api.openai.com/v1 |
| Body tambahan | messages.tts.providers.openai.extraBody / extra_body |
(belum disetel) |
Model yang tersedia: gpt-4o-mini-tts, tts-1, tts-1-hd. Suara yang tersedia: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.
extraBody digabungkan ke JSON permintaan /audio/speech setelah field yang dihasilkan OpenClaw, jadi gunakan untuk endpoint kompatibel OpenAI yang memerlukan kunci tambahan seperti lang. Kunci prototipe diabaikan.
{
messages: {
tts: {
providers: {
openai: { model: "gpt-4o-mini-tts", voice: "coral" },
},
},
},
}
Speech-to-text
Plugin openai bawaan mendaftarkan speech-to-text batch melalui
surface transkripsi pemahaman media OpenClaw.
- Model default:
gpt-4o-transcribe - Endpoint: OpenAI REST
/v1/audio/transcriptions - Jalur input: unggahan file audio multipart
- Didukung oleh OpenClaw di mana pun transkripsi audio masuk menggunakan
tools.media.audio, termasuk segmen channel suara Discord dan lampiran audio channel
Untuk memaksa OpenAI untuk transkripsi audio masuk:
{
tools: {
media: {
audio: {
models: [
{
type: "provider",
provider: "openai",
model: "gpt-4o-transcribe",
},
],
},
},
},
}
Petunjuk bahasa dan prompt diteruskan ke OpenAI ketika disediakan oleh konfigurasi media audio bersama atau permintaan transkripsi per panggilan.
Realtime transcription
Plugin openai bawaan mendaftarkan transkripsi realtime untuk Plugin Voice Call.
| Pengaturan | Jalur konfigurasi | Default |
|---|---|---|
| Model | plugins.entries.voice-call.config.streaming.providers.openai.model |
gpt-4o-transcribe |
| Bahasa | ...openai.language |
(belum disetel) |
| Prompt | ...openai.prompt |
(belum disetel) |
| Durasi senyap | ...openai.silenceDurationMs |
800 |
| Ambang VAD | ...openai.vadThreshold |
0.5 |
| Kunci API | ...openai.apiKey |
Fallback ke OPENAI_API_KEY |
Realtime voice
Plugin openai bawaan mendaftarkan suara realtime untuk Plugin Voice Call.
| Pengaturan | Jalur konfigurasi | Default |
|---|---|---|
| Model | plugins.entries.voice-call.config.realtime.providers.openai.model |
gpt-realtime-1.5 |
| Suara | ...openai.voice |
alloy |
| Suhu | ...openai.temperature |
0.8 |
| Ambang VAD | ...openai.vadThreshold |
0.5 |
| Durasi senyap | ...openai.silenceDurationMs |
500 |
| Kunci API | ...openai.apiKey |
Fallback ke OPENAI_API_KEY |
Endpoint Azure OpenAI
Provider openai bawaan dapat menargetkan resource Azure OpenAI untuk pembuatan
gambar dengan menimpa URL dasar. Pada jalur pembuatan gambar, OpenClaw
mendeteksi hostname Azure pada models.providers.openai.baseUrl dan beralih ke
bentuk permintaan Azure secara otomatis.
Gunakan Azure OpenAI ketika:
- Anda sudah memiliki langganan, kuota, atau perjanjian enterprise Azure OpenAI
- Anda membutuhkan residensi data regional atau kontrol kepatuhan yang disediakan Azure
- Anda ingin menjaga trafik tetap berada di dalam tenancy Azure yang sudah ada
Konfigurasi
Untuk pembuatan gambar Azure melalui provider openai bawaan, arahkan
models.providers.openai.baseUrl ke resource Azure Anda dan setel apiKey ke
kunci Azure OpenAI (bukan kunci OpenAI Platform):
{
models: {
providers: {
openai: {
baseUrl: "https://<your-resource>.openai.azure.com",
apiKey: "<azure-openai-api-key>",
},
},
},
}
OpenClaw mengenali suffix host Azure berikut untuk rute pembuatan gambar Azure:
*.openai.azure.com*.services.ai.azure.com*.cognitiveservices.azure.com
Untuk permintaan pembuatan gambar pada host Azure yang dikenali, OpenClaw:
- Mengirim header
api-keyalih-alihAuthorization: Bearer - Menggunakan path berscope deployment (
/openai/deployments/{deployment}/...) - Menambahkan
?api-version=...ke setiap permintaan - Menggunakan timeout permintaan default 600 detik untuk panggilan pembuatan gambar Azure.
Nilai
timeoutMsper panggilan tetap menimpa default ini.
URL dasar lain (OpenAI publik, proxy kompatibel OpenAI) mempertahankan bentuk permintaan gambar OpenAI standar.
Versi API
Setel AZURE_OPENAI_API_VERSION untuk mengunci versi preview atau GA Azure tertentu
untuk jalur pembuatan gambar Azure:
export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
Default-nya adalah 2024-12-01-preview ketika variabel belum disetel.
Nama model adalah nama deployment
Azure OpenAI mengikat model ke deployment. Untuk permintaan pembuatan gambar Azure
yang dirutekan melalui provider openai bawaan, field model di OpenClaw
harus berupa nama deployment Azure yang Anda konfigurasikan di portal Azure, bukan
id model OpenAI publik.
Jika Anda membuat deployment bernama gpt-image-2-prod yang melayani gpt-image-2:
/tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
Aturan nama deployment yang sama berlaku untuk panggilan pembuatan gambar yang dirutekan melalui
provider openai bawaan.
Ketersediaan regional
Pembuatan gambar Azure saat ini hanya tersedia di sebagian region
(misalnya eastus2, swedencentral, polandcentral, westus3,
uaenorth). Periksa daftar region Microsoft saat ini sebelum membuat
deployment, dan pastikan model tertentu ditawarkan di region Anda.
Perbedaan parameter
Azure OpenAI dan OpenAI publik tidak selalu menerima parameter gambar yang sama.
Azure dapat menolak opsi yang diizinkan OpenAI publik (misalnya nilai
background tertentu pada gpt-image-2) atau mengeksposnya hanya pada versi model
tertentu. Perbedaan ini berasal dari Azure dan model yang mendasarinya, bukan
OpenClaw. Jika permintaan Azure gagal dengan error validasi, periksa
set parameter yang didukung oleh deployment dan versi API spesifik Anda di
portal Azure.
Konfigurasi lanjutan
Transport (WebSocket vs SSE)
OpenClaw menggunakan WebSocket-first dengan fallback SSE ("auto") untuk openai/*.
Dalam mode "auto", OpenClaw:
- Mencoba ulang satu kegagalan WebSocket awal sebelum fallback ke SSE
- Setelah kegagalan, menandai WebSocket sebagai degraded selama ~60 detik dan menggunakan SSE selama cool-down
- Melampirkan header identitas sesi dan giliran yang stabil untuk percobaan ulang dan penyambungan ulang
- Menormalkan penghitung penggunaan (
input_tokens/prompt_tokens) di seluruh varian transport
| Nilai | Perilaku |
|---|---|
"auto" (default) |
WebSocket lebih dulu, fallback SSE |
"sse" |
Paksa hanya SSE |
"websocket" |
Paksa hanya WebSocket |
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { transport: "auto" },
},
},
},
},
}
Dokumen OpenAI terkait:
Pemanasan WebSocket
OpenClaw mengaktifkan pemanasan WebSocket secara default untuk openai/* guna mengurangi latensi giliran pertama.
// Disable warm-up
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { openaiWsWarmup: false },
},
},
},
},
}
Mode cepat
OpenClaw menyediakan toggle mode cepat bersama untuk openai/*:
- Chat/UI:
/fast status|on|off - Konfigurasi:
agents.defaults.models["<provider>/<model>"].params.fastMode
Saat diaktifkan, OpenClaw memetakan mode cepat ke pemrosesan prioritas OpenAI (service_tier = "priority"). Nilai service_tier yang ada dipertahankan, dan mode cepat tidak menulis ulang reasoning atau text.verbosity.
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": { params: { fastMode: true } },
},
},
},
}
Pemrosesan prioritas (service_tier)
API OpenAI menyediakan pemrosesan prioritas melalui service_tier. Tetapkan per model di OpenClaw:
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": { params: { serviceTier: "priority" } },
},
},
},
}
Nilai yang didukung: auto, default, flex, priority.
Compaction sisi server (Responses API)
Untuk model OpenAI Responses langsung (openai/* di api.openai.com), pembungkus stream Pi-harness Plugin OpenAI otomatis mengaktifkan Compaction sisi server:
- Memaksa
store: true(kecuali kompatibilitas model menetapkansupportsStore: false) - Menyisipkan
context_management: [{ type: "compaction", compact_threshold: ... }] compact_thresholddefault: 70% daricontextWindow(atau80000saat tidak tersedia)
Ini berlaku untuk jalur Pi harness bawaan dan untuk hook provider OpenAI yang digunakan oleh eksekusi tersemat. Harness app-server Codex native mengelola konteksnya sendiri melalui Codex dan dikonfigurasi secara terpisah dengan agents.defaults.agentRuntime.id.
Aktifkan secara eksplisit
Berguna untuk endpoint yang kompatibel seperti Azure OpenAI Responses:
{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.5": {
params: { responsesServerCompaction: true },
},
},
},
},
}
Ambang khusus
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
Nonaktifkan
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { responsesServerCompaction: false },
},
},
},
},
}
Mode GPT strict-agentic
Untuk eksekusi keluarga GPT-5 di openai/*, OpenClaw dapat menggunakan kontrak eksekusi tersemat yang lebih ketat:
{
agents: {
defaults: {
embeddedPi: { executionContract: "strict-agentic" },
},
},
}
Dengan strict-agentic, OpenClaw:
- Tidak lagi memperlakukan giliran yang hanya berisi rencana sebagai progres berhasil saat tindakan alat tersedia
- Mencoba ulang giliran dengan arahan untuk bertindak sekarang
- Otomatis mengaktifkan
update_planuntuk pekerjaan substansial - Menampilkan status terblokir eksplisit jika model terus membuat rencana tanpa bertindak
Rute native vs kompatibel dengan OpenAI
OpenClaw memperlakukan endpoint OpenAI langsung, Codex, dan Azure OpenAI secara berbeda dari proxy /v1 generik yang kompatibel dengan OpenAI:
Rute native (openai/*, Azure OpenAI):
- Mempertahankan
reasoning: { effort: "none" }hanya untuk model yang mendukung upaya OpenAInone - Menghilangkan reasoning yang dinonaktifkan untuk model atau proxy yang menolak
reasoning.effort: "none" - Menjadikan skema alat default ke mode ketat
- Melampirkan header atribusi tersembunyi hanya pada host native yang terverifikasi
- Mempertahankan pembentukan permintaan khusus OpenAI (
service_tier,store, kompatibilitas reasoning, petunjuk cache prompt)
Rute proxy/kompatibel:
- Menggunakan perilaku kompatibilitas yang lebih longgar
- Menghapus Completions
storedari payloadopenai-completionsnon-native - Menerima JSON pass-through lanjutan
params.extra_body/params.extraBodyuntuk proxy Completions yang kompatibel dengan OpenAI - Menerima
params.chat_template_kwargsuntuk proxy Completions yang kompatibel dengan OpenAI seperti vLLM - Tidak memaksa skema alat ketat atau header khusus native
Azure OpenAI menggunakan transport native dan perilaku kompatibilitas tetapi tidak menerima header atribusi tersembunyi.