Providers
OpenAI
OpenAI APIهای توسعهدهنده را برای مدلهای GPT ارائه میکند، و Codex نیز بهعنوان عامل کدنویسیِ طرح ChatGPT از طریق کلاینتهای Codex متعلق به OpenAI در دسترس است. OpenClaw این سطحها را جدا نگه میدارد تا پیکربندی قابل پیشبینی بماند.
OpenClaw از openai/* بهعنوان مسیر متعارف مدل OpenAI استفاده میکند. نوبتهای عامل تعبیهشده روی مدلهای OpenAI بهطور پیشفرض از طریق runtime بومی app-server در Codex اجرا میشوند؛ احراز هویت مستقیم با کلید API برای سطحهای غیرعاملی OpenAI مانند تصویرها، embeddings، گفتار، و realtime همچنان در دسترس است.
- مدلهای عامل - مدلهای
openai/*از طریق runtime در Codex؛ برای استفاده از اشتراک ChatGPT/Codex با احراز هویتopenai-codexوارد شوید، یا وقتی عمداً احراز هویت با کلید API میخواهید، یک پروفایل کلید API برایopenai-codexپیکربندی کنید. - APIهای غیرعاملی OpenAI - دسترسی مستقیم به OpenAI Platform با صورتحساب مبتنی بر مصرف از طریق
OPENAI_API_KEYیا راهاندازی کلید API در OpenAI. - پیکربندی قدیمی - ارجاعهای مدل
openai-codex/*توسطopenclaw doctor --fixبهopenai/*بههمراه runtime در Codex ترمیم میشوند.
OpenAI صراحتاً از استفاده از OAuth اشتراکی در ابزارها و workflowهای بیرونی مانند OpenClaw پشتیبانی میکند.
ارائهدهنده، مدل، runtime، و کانال لایههای جداگانهای هستند. اگر این برچسبها با هم مخلوط میشوند، پیش از تغییر پیکربندی، runtimeهای عامل را بخوانید.
انتخاب سریع
| هدف | استفاده کنید | نکتهها |
|---|---|---|
| اشتراک ChatGPT/Codex با runtime بومی Codex | openai/gpt-5.5 |
راهاندازی پیشفرض عامل OpenAI. با احراز هویت openai-codex وارد شوید. |
| صورتحساب مستقیم با کلید API برای مدلهای عامل | openai/gpt-5.5 بههمراه یک پروفایل کلید API برای openai-codex |
از auth.order.openai-codex برای ترجیح دادن آن پروفایل استفاده کنید. |
| صورتحساب مستقیم با کلید API از طریق PI صریح | openai/gpt-5.5 بههمراه agentRuntime.id: "pi" |
یک پروفایل عادی کلید API با openai انتخاب کنید. |
| تازهترین alias API برای ChatGPT Instant | openai/chat-latest |
فقط کلید API مستقیم. alias متغیر برای آزمایشها، نه پیشفرض. |
| احراز هویت اشتراک ChatGPT/Codex از طریق PI صریح | openai/gpt-5.5 بههمراه agentRuntime.id: "pi" |
یک پروفایل احراز هویت openai-codex برای مسیر سازگاری انتخاب کنید. |
| تولید یا ویرایش تصویر | openai/gpt-image-2 |
با OPENAI_API_KEY یا OAuth در OpenAI Codex کار میکند. |
| تصویرهای پسزمینه شفاف | openai/gpt-image-1.5 |
از outputFormat=png یا webp و openai.background=transparent استفاده کنید. |
نقشه نامگذاری
نامها شبیهاند اما قابل جایگزینی با هم نیستند:
| نامی که میبینید | لایه | معنی |
|---|---|---|
openai |
پیشوند ارائهدهنده | مسیر متعارف مدل OpenAI؛ نوبتهای عامل از runtime در Codex استفاده میکنند. |
openai-codex |
پیشوند احراز هویت/پروفایل | ارائهدهنده پروفایل احراز هویت OAuth/اشتراک OpenAI Codex. |
Plugin codex |
Plugin | Plugin همراه OpenClaw که runtime بومی app-server در Codex و کنترلهای گفتوگوی /codex را فراهم میکند. |
agentRuntime.id: codex |
runtime عامل | harness بومی app-server در Codex را برای نوبتهای تعبیهشده اجبار میکند. |
/codex ... |
مجموعه فرمان گفتوگو | threadهای app-server در Codex را از داخل یک مکالمه متصل/کنترل میکند. |
runtime: "acp", agentId: "codex" |
مسیر جلسه ACP | مسیر fallback صریحی که Codex را از طریق ACP/acpx اجرا میکند. |
این یعنی یک پیکربندی میتواند عمداً هم ارجاعهای مدل openai/* و هم پروفایلهای احراز هویت openai-codex داشته باشد. openclaw doctor --fix ارجاعهای مدل قدیمی openai-codex/* را به مسیر متعارف مدل OpenAI بازنویسی میکند.
پوشش قابلیتهای OpenClaw
| قابلیت OpenAI | سطح OpenClaw | وضعیت |
|---|---|---|
| گفتوگو / Responses | ارائهدهنده مدل openai/<model> |
بله |
| مدلهای اشتراکی Codex | openai/<model> با OAuth در openai-codex |
بله |
| ارجاعهای قدیمی مدل Codex | openai-codex/<model> |
توسط doctor به openai/<model> ترمیم میشود |
| harness app-server در Codex | openai/<model> با runtime حذفشده یا agentRuntime.id: codex |
بله |
| جستوجوی وب سمت سرور | ابزار بومی OpenAI Responses | بله، وقتی جستوجوی وب فعال باشد و هیچ ارائهدهندهای pin نشده باشد |
| تصویرها | image_generate |
بله |
| ویدیوها | video_generate |
بله |
| تبدیل متن به گفتار | messages.tts.provider: "openai" / tts |
بله |
| تبدیل گفتار به متن دستهای | tools.media.audio / درک رسانه |
بله |
| تبدیل گفتار به متن streaming | Voice Call streaming.provider: "openai" |
بله |
| صدای realtime | Voice Call realtime.provider: "openai" / Control UI Talk |
بله |
| Embeddings | ارائهدهنده embedding حافظه | بله |
Embeddings حافظه
OpenClaw میتواند از OpenAI، یا یک endpoint سازگار با OpenAI برای embedding، جهت indexing و embeddings پرسوجو در memory_search استفاده کند:
{
agents: {
defaults: {
memorySearch: {
provider: "openai",
model: "text-embedding-3-small",
},
},
},
}
برای endpointهای سازگار با OpenAI که به برچسبهای embedding نامتقارن نیاز دارند، queryInputType و documentInputType را زیر memorySearch تنظیم کنید. OpenClaw اینها را بهعنوان فیلدهای درخواست مخصوص ارائهدهنده با نام input_type ارسال میکند: embeddings پرسوجو از queryInputType استفاده میکنند؛ chunkهای حافظه indexشده و indexing دستهای از documentInputType استفاده میکنند. برای مثال کامل، مرجع پیکربندی حافظه را ببینید.
شروع به کار
روش احراز هویت ترجیحی خود را انتخاب کنید و مراحل راهاندازی را دنبال کنید.
کلید API (OpenAI Platform)
بهترین برای: دسترسی مستقیم به API و صورتحساب مبتنی بر مصرف.
کلید API خود را دریافت کنید
از داشبورد OpenAI Platform یک کلید API بسازید یا کپی کنید.
راهاندازی را اجرا کنید
openclaw onboard --auth-choice openai-api-key
یا کلید را مستقیماً ارسال کنید:
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
بررسی کنید مدل در دسترس است
openclaw models list --provider openai
خلاصه مسیر
| ارجاع مدل | پیکربندی runtime | مسیر | احراز هویت |
|---|---|---|---|
openai/gpt-5.5 |
حذفشده / agentRuntime.id: "codex" |
harness app-server در Codex | پروفایل openai-codex |
openai/gpt-5.4-mini |
حذفشده / agentRuntime.id: "codex" |
harness app-server در Codex | پروفایل openai-codex |
openai/gpt-5.5 |
agentRuntime.id: "pi" |
runtime تعبیهشده PI | پروفایل openai یا پروفایل انتخابشده openai-codex |
مثال پیکربندی
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
برای آزمایش مدل فعلی Instant در ChatGPT از API در OpenAI، مدل را روی openai/chat-latest تنظیم کنید:
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/chat-latest" } } },
}
chat-latest یک alias متغیر است. OpenAI آن را بهعنوان تازهترین مدل Instant استفادهشده در ChatGPT مستند کرده و gpt-5.5 را برای استفاده تولیدی API توصیه میکند، بنابراین مگر اینکه صراحتاً آن رفتار alias را بخواهید، openai/gpt-5.5 را بهعنوان پیشفرض پایدار نگه دارید. این alias در حال حاضر فقط medium را برای پرگویی متن میپذیرد، بنابراین OpenClaw overrideهای ناسازگار پرگویی متن OpenAI را برای این مدل نرمالسازی میکند.
اشتراک Codex
بهترین برای: استفاده از اشتراک ChatGPT/Codex خود با اجرای بومی app-server در Codex بهجای یک کلید API جداگانه. Codex cloud به ورود به ChatGPT نیاز دارد.
OAuth در Codex را اجرا کنید
openclaw onboard --auth-choice openai-codex
یا OAuth را مستقیماً اجرا کنید:
openclaw models auth login --provider openai-codex
برای راهاندازیهای headless یا ناسازگار با callback، --device-code را اضافه کنید تا بهجای callback مرورگر localhost با flow کد دستگاه ChatGPT وارد شوید:
openclaw models auth login --provider openai-codex --device-code
از مسیر متعارف مدل OpenAI استفاده کنید
openclaw config set agents.defaults.model.primary openai/gpt-5.5
هیچ پیکربندی runtime برای مسیر پیشفرض لازم نیست. نوبتهای عامل OpenAI runtime بومی app-server Codex را بهطور خودکار انتخاب میکنند، و OpenClaw وقتی این مسیر انتخاب شود Plugin همراه Codex را نصب یا تعمیر میکند.
بررسی کنید احراز هویت Codex در دسترس باشد
openclaw models list --provider openai-codex
پس از اجرای gateway، برای بررسی runtime بومی app-server
در گفتگو /codex status یا /codex models را ارسال کنید.
خلاصه مسیر
| مرجع مدل | پیکربندی runtime | مسیر | احراز هویت |
|---|---|---|---|
openai/gpt-5.5 |
حذفشده / agentRuntime.id: "codex" |
مهار بومی app-server Codex | ورود به Codex یا پروفایل انتخابشده openai-codex |
openai/gpt-5.5 |
agentRuntime.id: "pi" |
runtime تعبیهشده PI با انتقال داخلی احراز هویت Codex | پروفایل انتخابشده openai-codex |
openai-codex/gpt-5.5 |
تعمیرشده توسط doctor | مسیر قدیمی بازنویسیشده به openai/gpt-5.5 |
پروفایل موجود openai-codex |
نمونه پیکربندی
{
plugins: { entries: { codex: { enabled: true } } },
agents: {
defaults: {
model: { primary: "openai/gpt-5.5" },
agentRuntime: { id: "codex" },
},
},
}
بررسی و بازیابی مسیریابی OAuth Codex
از این فرمانها استفاده کنید تا ببینید عامل پیشفرض شما از کدام مدل، runtime، و مسیر احراز هویت استفاده میکند:
openclaw models status
openclaw models auth list --provider openai-codex
openclaw config get agents.defaults.model --json
openclaw config get agents.defaults.agentRuntime --json
برای یک عامل مشخص، --agent <id> را اضافه کنید:
openclaw models status --agent <id>
openclaw models auth list --agent <id> --provider openai-codex
اگر یک پیکربندی قدیمی هنوز openai-codex/gpt-* یا یک پین نشست OpenAI PI
منسوخ بدون پیکربندی صریح runtime دارد، آن را تعمیر کنید:
openclaw doctor --fix
openclaw config validate
اگر models auth list --provider openai-codex هیچ پروفایل قابل استفادهای نشان نمیدهد، دوباره
وارد شوید:
openclaw models auth login --provider openai-codex
openclaw models status --probe --probe-provider openai-codex
openai-codex همچنان شناسه ارائهدهنده احراز هویت/پروفایل است. openai/*
مسیر مدل برای نوبتهای عامل OpenAI از طریق Codex است.
نشانگر وضعیت
گفتگوی /status نشان میدهد کدام runtime مدل برای نشست فعلی فعال است.
مهار app-server همراه Codex بهصورت Runtime: OpenAI Codex برای
نوبتهای مدل عامل OpenAI ظاهر میشود. پینهای نشست PI منسوخ به Codex تعمیر میشوند مگر اینکه
پیکربندی بهطور صریح PI را پین کند.
هشدار Doctor
اگر مسیرهای openai-codex/* یا پینهای منسوخ OpenAI PI در پیکربندی یا
وضعیت نشست باقی بمانند، openclaw doctor --fix آنها را به openai/* با
runtime Codex بازنویسی میکند مگر اینکه PI بهطور صریح پیکربندی شده باشد.
سقف پنجره زمینه
OpenClaw فراداده مدل و سقف زمینه runtime را بهعنوان مقادیر جداگانه در نظر میگیرد.
برای openai/gpt-5.5 از طریق کاتالوگ OAuth Codex:
contextWindowبومی:1000000- سقف پیشفرض runtime
contextTokens:272000
سقف پیشفرض کوچکتر در عمل ویژگیهای تأخیر و کیفیت بهتری دارد. آن را با contextTokens بازنویسی کنید:
{
models: {
providers: {
"openai-codex": {
models: [{ id: "gpt-5.5", contextTokens: 160000 }],
},
},
},
}
بازیابی کاتالوگ
OpenClaw وقتی فراداده کاتالوگ بالادستی Codex برای gpt-5.5
موجود باشد، از آن استفاده میکند. اگر کشف زنده Codex ردیف gpt-5.5 را حذف کند در حالی که
حساب احراز هویت شده است، OpenClaw آن ردیف مدل OAuth را میسازد تا
اجرای cron، زیرعامل، و مدل پیشفرض پیکربندیشده با
Unknown model شکست نخورد.
احراز هویت بومی app-server Codex
مهار بومی app-server Codex از مرجعهای مدل openai/* بههمراه پیکربندی
runtime حذفشده یا agentRuntime.id: "codex" استفاده میکند، اما احراز هویت آن همچنان
مبتنی بر حساب است. OpenClaw
احراز هویت را به این ترتیب انتخاب میکند:
- یک پروفایل احراز هویت صریح OpenClaw
openai-codexکه به عامل متصل است. - حساب موجود app-server، مانند ورود محلی ChatGPT در Codex CLI.
- فقط برای راهاندازیهای app-server محلی stdio،
CODEX_API_KEY، سپسOPENAI_API_KEY، وقتی app-server هیچ حسابی گزارش نمیکند و همچنان به احراز هویت OpenAI نیاز دارد.
این یعنی ورود اشتراک محلی ChatGPT/Codex فقط به این دلیل که
فرایند gateway همچنین برای مدلهای مستقیم OpenAI یا embeddingها OPENAI_API_KEY دارد
جایگزین نمیشود. fallback کلید API محیطی فقط مسیر محلی stdio بدون حساب است؛
به اتصالهای WebSocket app-server ارسال نمیشود. وقتی یک پروفایل Codex
از نوع اشتراکی انتخاب شود، OpenClaw همچنین CODEX_API_KEY و OPENAI_API_KEY
را از فرزند stdio app-server ایجادشده بیرون نگه میدارد و اعتبارنامههای انتخابشده را
از طریق RPC ورود app-server ارسال میکند.
تولید تصویر
Plugin همراه openai تولید تصویر را از طریق ابزار image_generate ثبت میکند.
این هم تولید تصویر با کلید API OpenAI و هم تولید تصویر OAuth Codex
را از طریق همان مرجع مدل openai/gpt-image-2 پشتیبانی میکند.
| قابلیت | کلید API OpenAI | OAuth Codex |
|---|---|---|
| مرجع مدل | openai/gpt-image-2 |
openai/gpt-image-2 |
| احراز هویت | OPENAI_API_KEY |
ورود OAuth OpenAI Codex |
| انتقال | OpenAI Images API | پشتانه Codex Responses |
| بیشینه تصاویر در هر درخواست | 4 | 4 |
| حالت ویرایش | فعال (تا 5 تصویر مرجع) | فعال (تا 5 تصویر مرجع) |
| بازنویسی اندازهها | پشتیبانی میشود، شامل اندازههای 2K/4K | پشتیبانی میشود، شامل اندازههای 2K/4K |
| نسبت تصویر / وضوح | به OpenAI Images API ارسال نمیشود | وقتی امن باشد به اندازه پشتیبانیشده نگاشت میشود |
{
agents: {
defaults: {
imageGenerationModel: { primary: "openai/gpt-image-2" },
},
},
}
gpt-image-2 پیشفرض هم برای تولید متنبهتصویر OpenAI و هم برای
ویرایش تصویر است. gpt-image-1.5، gpt-image-1، و gpt-image-1-mini همچنان بهعنوان
بازنویسیهای صریح مدل قابل استفادهاند. از openai/gpt-image-1.5 برای خروجی
PNG/WebP با پسزمینه شفاف استفاده کنید؛ API فعلی gpt-image-2
background: "transparent" را رد میکند.
برای یک درخواست پسزمینه شفاف، عاملها باید image_generate را با
model: "openai/gpt-image-1.5"، outputFormat: "png" یا "webp"، و
background: "transparent" فراخوانی کنند؛ گزینه قدیمی ارائهدهنده openai.background
هنوز پذیرفته میشود. OpenClaw همچنین از مسیرهای عمومی OpenAI و
OAuth OpenAI Codex محافظت میکند و درخواستهای شفاف پیشفرض openai/gpt-image-2
را به gpt-image-1.5 بازنویسی میکند؛ Azure و endpointهای سفارشی سازگار با OpenAI
نامهای deployment/model پیکربندیشده خود را نگه میدارند.
همین تنظیم برای اجراهای CLI بدون رابط نیز ارائه شده است:
openclaw infer image generate \
--model openai/gpt-image-1.5 \
--output-format png \
--background transparent \
--prompt "A simple red circle sticker on a transparent background" \
--json
هنگام شروع از یک فایل ورودی، همان پرچمهای --output-format و --background را با
openclaw infer image edit استفاده کنید.
--openai-background همچنان بهعنوان نام مستعار ویژه OpenAI در دسترس است.
برای نصبهای OAuth Codex، همان مرجع openai/gpt-image-2 را نگه دارید. وقتی یک
پروفایل OAuth openai-codex پیکربندی شده باشد، OpenClaw آن توکن دسترسی OAuth ذخیرهشده
را resolve میکند و درخواستهای تصویر را از طریق پشتانه Codex Responses ارسال میکند. ابتدا
OPENAI_API_KEY را امتحان نمیکند یا برای آن
درخواست بیصدا به یک کلید API fallback نمیکند. وقتی مسیر مستقیم OpenAI Images API
را میخواهید، models.providers.openai را بهطور صریح با یک کلید API،
URL پایه سفارشی، یا endpoint Azure پیکربندی کنید.
اگر آن endpoint تصویر سفارشی روی یک LAN/نشانی خصوصی مورد اعتماد است، همچنین
browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true را تنظیم کنید؛ OpenClaw
endpointهای تصویر خصوصی/داخلی سازگار با OpenAI را مسدود نگه میدارد مگر اینکه این opt-in
وجود داشته باشد.
تولید:
/tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
تولید یک PNG شفاف:
/tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
ویرایش:
/tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536
تولید ویدیو
Plugin همراه openai تولید ویدیو را از طریق ابزار video_generate ثبت میکند.
| قابلیت | مقدار |
|---|---|
| مدل پیشفرض | openai/sora-2 |
| حالتها | متنبهویدیو، تصویربهویدیو، ویرایش تکویدیو |
| ورودیهای مرجع | 1 تصویر یا 1 ویدیو |
| بازنویسی اندازهها | پشتیبانی میشود |
| بازنویسیهای دیگر | aspectRatio، resolution، audio، watermark با هشدار ابزار نادیده گرفته میشوند |
{
agents: {
defaults: {
videoGenerationModel: { primary: "openai/sora-2" },
},
},
}
مشارکت پرامپت GPT-5
OpenClaw یک مشارکت پرامپت مشترک GPT-5 برای اجراهای خانواده GPT-5 در میان ارائهدهندهها اضافه میکند. این بر اساس شناسه مدل اعمال میشود، بنابراین openai/gpt-5.5، مرجعهای قدیمی پیش از تعمیر مانند openai-codex/gpt-5.5، openrouter/openai/gpt-5.5، opencode/gpt-5.5، و دیگر مرجعهای سازگار GPT-5 همان overlay را دریافت میکنند. مدلهای قدیمیتر GPT-4.x دریافت نمیکنند.
مهار بومی همراه Codex همان رفتار GPT-5 و overlay Heartbeat را از طریق دستورالعملهای توسعهدهنده app-server Codex استفاده میکند، بنابراین نشستهای openai/gpt-5.x که از طریق agentRuntime.id: "codex" اجبار شدهاند همان راهنمایی پیگیری و Heartbeat پیشدستانه را حفظ میکنند، حتی اگر Codex مالک بقیه پرامپت مهار باشد.
راهنمای GPT-5 یک قرارداد رفتاری برچسبدار برای پایداری پرسونا، ایمنی اجرا، انضباط ابزار، شکل خروجی، بررسیهای تکمیل، و راستیآزمایی اضافه میکند. رفتار پاسخدهی مختص کانال و پیام بیصدا در پرامپت سیستمی مشترک OpenClaw و سیاست تحویل خروجی باقی میماند. راهنمای GPT-5 همیشه برای مدلهای منطبق فعال است. لایهٔ سبک تعامل دوستانه جدا و قابل پیکربندی است.
| مقدار | اثر |
|---|---|
"friendly" (پیشفرض) |
لایهٔ سبک تعامل دوستانه را فعال میکند |
"on" |
نام مستعار برای "friendly" |
"off" |
فقط لایهٔ سبک دوستانه را غیرفعال میکند |
پیکربندی
{
agents: {
defaults: {
promptOverlays: {
gpt5: { personality: "friendly" },
},
},
},
}
CLI
openclaw config set agents.defaults.promptOverlays.gpt5.personality off
صدا و گفتار
تولید گفتار (TTS)
Plugin همراه openai تولید گفتار را برای سطح messages.tts ثبت میکند.
| تنظیم | مسیر پیکربندی | پیشفرض |
|---|---|---|
| مدل | messages.tts.providers.openai.model |
gpt-4o-mini-tts |
| صدا | messages.tts.providers.openai.voice |
coral |
| سرعت | messages.tts.providers.openai.speed |
(تنظیمنشده) |
| دستورالعملها | messages.tts.providers.openai.instructions |
(تنظیمنشده، فقط gpt-4o-mini-tts) |
| قالب | messages.tts.providers.openai.responseFormat |
opus برای یادداشتهای صوتی، mp3 برای فایلها |
| کلید API | messages.tts.providers.openai.apiKey |
به OPENAI_API_KEY برمیگردد |
| URL پایه | messages.tts.providers.openai.baseUrl |
https://api.openai.com/v1 |
| بدنهٔ اضافی | messages.tts.providers.openai.extraBody / extra_body |
(تنظیمنشده) |
مدلهای موجود: gpt-4o-mini-tts، tts-1، tts-1-hd. صداهای موجود: alloy، ash، ballad، cedar، coral، echo، fable، juniper، marin، onyx، nova، sage، shimmer، verse.
extraBody پس از فیلدهای تولیدشدهٔ OpenClaw در JSON درخواست /audio/speech ادغام میشود، بنابراین از آن برای نقاط پایانی سازگار با OpenAI که به کلیدهای اضافی مانند lang نیاز دارند استفاده کنید. کلیدهای نمونهٔ اولیه نادیده گرفته میشوند.
{
messages: {
tts: {
providers: {
openai: { model: "gpt-4o-mini-tts", voice: "coral" },
},
},
},
}
گفتار به متن
Plugin همراه openai گفتار به متن دستهای را از طریق
سطح رونویسی درک رسانهٔ OpenClaw ثبت میکند.
- مدل پیشفرض:
gpt-4o-transcribe - نقطهٔ پایانی: OpenAI REST
/v1/audio/transcriptions - مسیر ورودی: بارگذاری فایل صوتی چندبخشی
- هر جا که رونویسی صوت ورودی از
tools.media.audioاستفاده کند، توسط OpenClaw پشتیبانی میشود، از جمله بخشهای کانال صوتی Discord و پیوستهای صوتی کانال
برای اجبار استفاده از OpenAI برای رونویسی صوت ورودی:
{
tools: {
media: {
audio: {
models: [
{
type: "provider",
provider: "openai",
model: "gpt-4o-transcribe",
},
],
},
},
},
}
راهنماییهای زبان و پرامپت وقتی توسط پیکربندی رسانهٔ صوتی مشترک یا درخواست رونویسی هر فراخوانی ارائه شوند، به OpenAI ارسال میشوند.
رونویسی بیدرنگ
Plugin همراه openai رونویسی بیدرنگ را برای Plugin Voice Call ثبت میکند.
| تنظیم | مسیر پیکربندی | پیشفرض |
|---|---|---|
| مدل | plugins.entries.voice-call.config.streaming.providers.openai.model |
gpt-4o-transcribe |
| زبان | ...openai.language |
(تنظیمنشده) |
| پرامپت | ...openai.prompt |
(تنظیمنشده) |
| مدت سکوت | ...openai.silenceDurationMs |
800 |
| آستانهٔ VAD | ...openai.vadThreshold |
0.5 |
| کلید API | ...openai.apiKey |
به OPENAI_API_KEY برمیگردد |
صدای بیدرنگ
Plugin همراه openai صدای بیدرنگ را برای Plugin Voice Call ثبت میکند.
| تنظیم | مسیر پیکربندی | پیشفرض |
|---|---|---|
| مدل | plugins.entries.voice-call.config.realtime.providers.openai.model |
gpt-realtime-1.5 |
| صدا | ...openai.voice |
alloy |
| دما | ...openai.temperature |
0.8 |
| آستانهٔ VAD | ...openai.vadThreshold |
0.5 |
| مدت سکوت | ...openai.silenceDurationMs |
500 |
| کلید API | ...openai.apiKey |
به OPENAI_API_KEY برمیگردد |
نقاط پایانی Azure OpenAI
ارائهدهندهٔ همراه openai میتواند با بازنویسی URL پایه، یک منبع Azure OpenAI را برای تولید تصویر هدف بگیرد. در مسیر تولید تصویر، OpenClaw
نامهای میزبان Azure را روی models.providers.openai.baseUrl تشخیص میدهد و بهصورت خودکار به شکل درخواست Azure تغییر میدهد.
از Azure OpenAI استفاده کنید وقتی:
- از قبل اشتراک، سهمیه، یا قرارداد سازمانی Azure OpenAI دارید
- به اقامت دادهٔ منطقهای یا کنترلهای انطباقی که Azure فراهم میکند نیاز دارید
- میخواهید ترافیک را داخل یک tenancy موجود Azure نگه دارید
پیکربندی
برای تولید تصویر Azure از طریق ارائهدهندهٔ همراه openai،
models.providers.openai.baseUrl را به منبع Azure خود اشاره دهید و apiKey را به
کلید Azure OpenAI تنظیم کنید (نه کلید OpenAI Platform):
{
models: {
providers: {
openai: {
baseUrl: "https://<your-resource>.openai.azure.com",
apiKey: "<azure-openai-api-key>",
},
},
},
}
OpenClaw این پسوندهای میزبان Azure را برای مسیر تولید تصویر Azure تشخیص میدهد:
*.openai.azure.com*.services.ai.azure.com*.cognitiveservices.azure.com
برای درخواستهای تولید تصویر روی میزبان Azure تشخیصدادهشده، OpenClaw:
- سرآیند
api-keyرا بهجایAuthorization: Bearerارسال میکند - از مسیرهای محدود به استقرار (
/openai/deployments/{deployment}/...) استفاده میکند ?api-version=...را به هر درخواست اضافه میکند- از مهلت زمانی پیشفرض ۶۰۰ ثانیه برای فراخوانیهای تولید تصویر Azure استفاده میکند.
مقادیر
timeoutMsهر فراخوانی همچنان این پیشفرض را بازنویسی میکنند.
URLهای پایهٔ دیگر (OpenAI عمومی، پروکسیهای سازگار با OpenAI) شکل استاندارد درخواست تصویر OpenAI را حفظ میکنند.
نسخهٔ API
برای ثابت کردن یک نسخهٔ پیشنمایش یا GA مشخص Azure برای مسیر تولید تصویر Azure،
AZURE_OPENAI_API_VERSION را تنظیم کنید:
export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
وقتی متغیر تنظیم نشده باشد، پیشفرض 2024-12-01-preview است.
نام مدلها نام استقرارها هستند
Azure OpenAI مدلها را به استقرارها متصل میکند. برای درخواستهای تولید تصویر Azure
که از طریق ارائهدهندهٔ همراه openai مسیریابی میشوند، فیلد model در OpenClaw
باید نام استقرار Azure باشد که در پرتال Azure پیکربندی کردهاید، نه
شناسهٔ مدل عمومی OpenAI.
اگر استقراری با نام gpt-image-2-prod ایجاد کنید که gpt-image-2 را ارائه میدهد:
/tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
همان قانون نام استقرار برای فراخوانیهای تولید تصویر که از طریق
ارائهدهندهٔ همراه openai مسیریابی میشوند نیز اعمال میشود.
دسترسپذیری منطقهای
تولید تصویر Azure در حال حاضر فقط در زیرمجموعهای از مناطق در دسترس است
(برای مثال eastus2، swedencentral، polandcentral، westus3،
uaenorth). پیش از ایجاد یک استقرار، فهرست منطقهای فعلی Microsoft را بررسی کنید و تأیید کنید مدل مشخص در منطقهٔ شما ارائه میشود.
تفاوتهای پارامتر
Azure OpenAI و OpenAI عمومی همیشه پارامترهای تصویر یکسانی را نمیپذیرند.
Azure ممکن است گزینههایی را که OpenAI عمومی مجاز میداند رد کند (برای مثال برخی
مقادیر background روی gpt-image-2) یا آنها را فقط روی نسخههای مشخص مدل
ارائه دهد. این تفاوتها از Azure و مدل زیربنایی میآیند، نه
OpenClaw. اگر یک درخواست Azure با خطای اعتبارسنجی شکست خورد، مجموعهٔ
پارامترهای پشتیبانیشده توسط استقرار و نسخهٔ API مشخص خود را در
پرتال Azure بررسی کنید.
پیکربندی پیشرفته
انتقال (WebSocket در برابر SSE)
OpenClaw برای openai/* از WebSocket-اول با جایگزین SSE ("auto") استفاده میکند.
در حالت "auto"، OpenClaw:
- یک شکست اولیهٔ WebSocket را پیش از بازگشت به SSE دوباره تلاش میکند
- پس از یک شکست، WebSocket را حدود ۶۰ ثانیه تنزلیافته علامتگذاری میکند و در زمان خنکشدن از SSE استفاده میکند
- برای تلاشهای دوباره و اتصالهای مجدد، سرآیندهای پایدار هویت نشست و نوبت را پیوست میکند
- شمارندههای استفاده (
input_tokens/prompt_tokens) را در گونههای انتقال یکسانسازی میکند
| مقدار | رفتار |
|---|---|
"auto" (پیشفرض) |
ابتدا WebSocket، جایگزین SSE |
"sse" |
فقط SSE را اجبار میکند |
"websocket" |
فقط WebSocket را اجبار میکند |
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { transport: "auto" },
},
},
},
},
}
اسناد مرتبط OpenAI:
گرمسازی WebSocket
OpenClaw گرمسازی WebSocket را بهصورت پیشفرض برای openai/* فعال میکند تا تأخیر نوبت اول کاهش یابد.
// Disable warm-up
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { openaiWsWarmup: false },
},
},
},
},
}
حالت سریع
OpenClaw یک کلید مشترک برای حالت سریع در openai/* ارائه میکند:
- گپ/UI:
/fast status|on|off - پیکربندی:
agents.defaults.models["<provider>/<model>"].params.fastMode
وقتی فعال باشد، OpenClaw حالت سریع را به پردازش اولویتدار OpenAI نگاشت میکند (service_tier = "priority"). مقادیر موجود service_tier حفظ میشوند، و حالت سریع reasoning یا text.verbosity را بازنویسی نمیکند.
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": { params: { fastMode: true } },
},
},
},
}
پردازش اولویتدار (service_tier)
API OpenAI پردازش اولویتدار را از طریق service_tier ارائه میکند. آن را برای هر مدل در OpenClaw تنظیم کنید:
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": { params: { serviceTier: "priority" } },
},
},
},
}
مقادیر پشتیبانیشده: auto، default، flex، priority.
Compaction سمت سرور (Responses API)
برای مدلهای مستقیم OpenAI Responses (openai/* روی api.openai.com)، پوششدهنده جریان Pi-harness مربوط به Plugin OpenAI، Compaction سمت سرور را بهصورت خودکار فعال میکند:
store: trueرا اجباری میکند (مگر اینکه سازگاری مدلsupportsStore: falseرا تنظیم کرده باشد)context_management: [{ type: "compaction", compact_threshold: ... }]را تزریق میکند- مقدار پیشفرض
compact_threshold: ۷۰٪ ازcontextWindow(یا وقتی در دسترس نباشد،80000)
این مورد برای مسیر داخلی Pi harness و برای hookهای ارائهدهنده OpenAI که توسط اجراهای تعبیهشده استفاده میشوند اعمال میشود. harness بومی سرور برنامه Codex زمینه خودش را از طریق Codex مدیریت میکند و جداگانه با agents.defaults.agentRuntime.id پیکربندی میشود.
فعالسازی صریح
برای نقطههای پایانی سازگار مانند Azure OpenAI Responses مفید است:
{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.5": {
params: { responsesServerCompaction: true },
},
},
},
},
}
آستانه سفارشی
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
غیرفعالسازی
{
agents: {
defaults: {
models: {
"openai/gpt-5.5": {
params: { responsesServerCompaction: false },
},
},
},
},
}
حالت GPT عاملمحور سختگیرانه
برای اجراهای خانواده GPT-5 روی openai/*، OpenClaw میتواند از یک قرارداد اجرای تعبیهشده سختگیرانهتر استفاده کند:
{
agents: {
defaults: {
embeddedPi: { executionContract: "strict-agentic" },
},
},
}
با strict-agentic، OpenClaw:
- دیگر یک نوبت صرفاً شامل طرح را، وقتی اقدام ابزاری در دسترس است، پیشرفت موفق محسوب نمیکند
- نوبت را با هدایت برای اقدام فوری دوباره امتحان میکند
- برای کارهای قابلتوجه
update_planرا بهصورت خودکار فعال میکند - اگر مدل همچنان بدون اقدام برنامهریزی کند، وضعیت مسدودشدگی صریح را نشان میدهد
مسیرهای بومی در برابر مسیرهای سازگار با OpenAI
OpenClaw با نقطههای پایانی مستقیم OpenAI، Codex و Azure OpenAI متفاوت از پراکسیهای عمومی سازگار با OpenAI /v1 رفتار میکند:
مسیرهای بومی (openai/*، Azure OpenAI):
reasoning: { effort: "none" }را فقط برای مدلهایی نگه میدارد که effortnoneدر OpenAI را پشتیبانی میکنند- reasoning غیرفعال را برای مدلها یا پراکسیهایی که
reasoning.effort: "none"را رد میکنند حذف میکند - schemaهای ابزار را بهصورت پیشفرض روی حالت سختگیرانه میگذارد
- headerهای انتساب پنهان را فقط روی میزبانهای بومی تأییدشده پیوست میکند
- شکلدهی درخواست مخصوص OpenAI را نگه میدارد (
service_tier،store، سازگاری reasoning، راهنماییهای prompt-cache)
مسیرهای پراکسی/سازگار:
- از رفتار سازگاری آزادتر استفاده میکنند
storeمربوط به Completions را از payloadهای غیر بومیopenai-completionsحذف میکنند- عبور مستقیم JSON پیشرفته
params.extra_body/params.extraBodyرا برای پراکسیهای Completions سازگار با OpenAI میپذیرند params.chat_template_kwargsرا برای پراکسیهای Completions سازگار با OpenAI مانند vLLM میپذیرند- schemaهای سختگیرانه ابزار یا headerهای فقط بومی را اجباری نمیکنند
Azure OpenAI از انتقال بومی و رفتار سازگاری استفاده میکند، اما headerهای انتساب پنهان را دریافت نمیکند.