Providers

OpenAI

توفر OpenAI واجهات API للمطورين لنماذج GPT، كما يتوفر Codex أيضًا كوكيل برمجة ضمن خطة ChatGPT من خلال عملاء Codex التابعين لـ OpenAI. يحافظ OpenClaw على فصل هذه الواجهات حتى تبقى الإعدادات قابلة للتنبؤ.

يستخدم OpenClaw المسار openai/* باعتباره مسار نموذج OpenAI المعتمد. تعمل دورات الوكلاء المضمنة على نماذج OpenAI من خلال بيئة تشغيل خادم تطبيق Codex الأصلية افتراضيًا؛ وتظل مصادقة مفتاح OpenAI API المباشرة متاحة لواجهات OpenAI غير الخاصة بالوكلاء مثل الصور، والتضمينات، والكلام، والوقت الحقيقي.

  • نماذج الوكلاء - نماذج openai/* من خلال بيئة تشغيل Codex؛ سجّل الدخول باستخدام مصادقة openai-codex لاستخدام اشتراك ChatGPT/Codex، أو اضبط ملف تعريف مفتاح API من نوع openai-codex عندما تريد عمدًا استخدام مصادقة مفتاح API.
  • واجهات OpenAI API غير الخاصة بالوكلاء - وصول مباشر إلى OpenAI Platform مع فوترة حسب الاستخدام من خلال OPENAI_API_KEY أو إعداد مفتاح OpenAI API.
  • الإعدادات القديمة - تتم إصلاح مراجع نماذج openai-codex/* بواسطة openclaw doctor --fix إلى openai/* بالإضافة إلى بيئة تشغيل Codex.

تدعم OpenAI صراحةً استخدام OAuth للاشتراكات في الأدوات وسير العمل الخارجية مثل OpenClaw.

الموفر، والنموذج، وبيئة التشغيل، والقناة طبقات منفصلة. إذا كانت هذه التسميات تختلط معًا، فاقرأ بيئات تشغيل الوكلاء قبل تغيير الإعدادات.

اختيار سريع

الهدف استخدم ملاحظات
اشتراك ChatGPT/Codex مع بيئة تشغيل Codex الأصلية openai/gpt-5.5 إعداد وكيل OpenAI الافتراضي. سجّل الدخول باستخدام مصادقة openai-codex.
فوترة مفتاح API مباشرة لنماذج الوكلاء openai/gpt-5.5 بالإضافة إلى ملف تعريف مفتاح API من نوع openai-codex استخدم auth.order.openai-codex لتفضيل ذلك الملف الشخصي.
فوترة مفتاح API مباشرة من خلال PI صريح openai/gpt-5.5 بالإضافة إلى agentRuntime.id: "pi" اختر ملف تعريف مفتاح API عاديًا من نوع openai.
أحدث اسم بديل لـ ChatGPT Instant API openai/chat-latest مفتاح API مباشر فقط. اسم بديل متحرك للتجارب، وليس الافتراضي.
مصادقة اشتراك ChatGPT/Codex من خلال PI صريح openai/gpt-5.5 بالإضافة إلى agentRuntime.id: "pi" اختر ملف تعريف مصادقة openai-codex لمسار التوافق.
توليد الصور أو تحريرها openai/gpt-image-2 يعمل مع OPENAI_API_KEY أو OpenAI Codex OAuth.
صور بخلفية شفافة openai/gpt-image-1.5 استخدم outputFormat=png أو webp وopenai.background=transparent.

خريطة التسمية

الأسماء متشابهة لكنها ليست قابلة للتبادل:

الاسم الذي تراه الطبقة المعنى
openai بادئة الموفر مسار نموذج OpenAI المعتمد؛ تستخدم دورات الوكيل بيئة تشغيل Codex.
openai-codex بادئة المصادقة/الملف الشخصي موفر ملف تعريف مصادقة OpenAI Codex OAuth/الاشتراك.
codex plugin Plugin Plugin مضمن في OpenClaw يوفر بيئة تشغيل خادم تطبيق Codex الأصلية وعناصر تحكم محادثة /codex.
agentRuntime.id: codex بيئة تشغيل الوكيل يفرض أداة تشغيل خادم تطبيق Codex الأصلية للدورات المضمنة.
/codex ... مجموعة أوامر المحادثة ربط/التحكم في سلاسل خادم تطبيق Codex من محادثة.
runtime: "acp", agentId: "codex" مسار جلسة ACP مسار احتياطي صريح يشغّل Codex من خلال ACP/acpx.

يعني هذا أن الإعدادات يمكن أن تحتوي عمدًا على مراجع نماذج openai/* وملفات تعريف مصادقة openai-codex معًا. يعيد openclaw doctor --fix كتابة مراجع نماذج openai-codex/* القديمة إلى مسار نموذج OpenAI المعتمد.

تغطية ميزات OpenClaw

قدرة OpenAI واجهة OpenClaw الحالة
المحادثة / الاستجابات موفر نموذج openai/<model> نعم
نماذج اشتراك Codex openai/<model> مع openai-codex OAuth نعم
مراجع نماذج Codex القديمة openai-codex/<model> يتم إصلاحها بواسطة doctor إلى openai/<model>
أداة خادم تطبيق Codex openai/<model> مع حذف بيئة التشغيل أو agentRuntime.id: codex نعم
البحث الويب من جانب الخادم أداة OpenAI Responses الأصلية نعم، عندما يكون البحث في الويب مفعّلًا ولا يوجد موفر مثبت
الصور image_generate نعم
الفيديوهات video_generate نعم
تحويل النص إلى كلام messages.tts.provider: "openai" / tts نعم
تحويل الكلام إلى نص دفعي tools.media.audio / فهم الوسائط نعم
تحويل الكلام إلى نص متدفق Voice Call streaming.provider: "openai" نعم
الصوت في الوقت الحقيقي Voice Call realtime.provider: "openai" / Control UI Talk نعم
التضمينات موفر تضمينات الذاكرة نعم

تضمينات الذاكرة

يمكن أن يستخدم OpenClaw OpenAI، أو نقطة نهاية تضمين متوافقة مع OpenAI، لفهرسة memory_search وتضمينات الاستعلام:

{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai",
        model: "text-embedding-3-small",
      },
    },
  },
}

بالنسبة إلى نقاط النهاية المتوافقة مع OpenAI التي تتطلب تسميات تضمين غير متماثلة، اضبط queryInputType وdocumentInputType ضمن memorySearch. يمرر OpenClaw هذه القيم كحقول طلب input_type خاصة بالموفر: تستخدم تضمينات الاستعلام queryInputType؛ وتستخدم أجزاء الذاكرة المفهرسة والفهرسة الدفعية documentInputType. راجع مرجع إعدادات الذاكرة للاطلاع على المثال الكامل.

البدء

اختر طريقة المصادقة المفضلة لديك واتبع خطوات الإعداد.

مفتاح API (OpenAI Platform)

الأفضل لـ: الوصول المباشر إلى API والفوترة حسب الاستخدام.

  • احصل على مفتاح API الخاص بك

    أنشئ أو انسخ مفتاح API من لوحة تحكم OpenAI Platform.

  • شغّل الإعداد

    openclaw onboard --auth-choice openai-api-key
    

    أو مرر المفتاح مباشرةً:

    openclaw onboard --openai-api-key "$OPENAI_API_KEY"
    
  • تحقق من توفر النموذج

    openclaw models list --provider openai
    
  • ملخص المسار

    مرجع النموذج إعداد بيئة التشغيل المسار المصادقة
    openai/gpt-5.5 محذوف / agentRuntime.id: "codex" أداة خادم تطبيق Codex ملف تعريف openai-codex
    openai/gpt-5.4-mini محذوف / agentRuntime.id: "codex" أداة خادم تطبيق Codex ملف تعريف openai-codex
    openai/gpt-5.5 agentRuntime.id: "pi" بيئة تشغيل PI المضمنة ملف تعريف openai أو ملف تعريف openai-codex المختار

    مثال إعداد

    {
      env: { OPENAI_API_KEY: "sk-..." },
      agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
    }
    

    لتجربة نموذج Instant الحالي في ChatGPT من OpenAI API، اضبط النموذج على openai/chat-latest:

    {
      env: { OPENAI_API_KEY: "sk-..." },
      agents: { defaults: { model: { primary: "openai/chat-latest" } } },
    }
    

    chat-latest هو اسم بديل متحرك. توثقه OpenAI باعتباره أحدث نموذج Instant مستخدمًا في ChatGPT وتوصي بـ gpt-5.5 لاستخدام API في الإنتاج، لذلك أبقِ openai/gpt-5.5 كافتراضي مستقر ما لم تكن تريد صراحةً سلوك ذلك الاسم البديل. يقبل الاسم البديل حاليًا إسهاب النص medium فقط، لذلك يطبع OpenClaw تجاوزات إسهاب نص OpenAI غير المتوافقة لهذا النموذج.

    اشتراك Codex

    الأفضل لـ: استخدام اشتراك ChatGPT/Codex الخاص بك مع تنفيذ خادم تطبيق Codex الأصلي بدلًا من مفتاح API منفصل. يتطلب Codex cloud تسجيل الدخول إلى ChatGPT.

  • شغّل Codex OAuth

    openclaw onboard --auth-choice openai-codex
    

    أو شغّل OAuth مباشرةً:

    openclaw models auth login --provider openai-codex
    

    بالنسبة إلى الإعدادات عديمة الواجهة أو غير الملائمة لردود الاستدعاء، أضف --device-code لتسجيل الدخول باستخدام تدفق رمز جهاز ChatGPT بدلًا من رد استدعاء متصفح localhost:

    openclaw models auth login --provider openai-codex --device-code
    
  • استخدم مسار نموذج OpenAI المعتمد

    openclaw config set agents.defaults.model.primary openai/gpt-5.5
    

    لا يلزم أي إعداد لوقت التشغيل للمسار الافتراضي. تختار دورات وكيل OpenAI وقت تشغيل خادم تطبيق Codex الأصلي تلقائيًا، ويثبّت OpenClaw أو يصلح Plugin Codex المضمّن عند اختيار هذا المسار.

  • Verify Codex auth is available

    openclaw models list --provider openai-codex
    

    بعد تشغيل Gateway، أرسل /codex status أو /codex models في الدردشة للتحقق من وقت تشغيل خادم التطبيق الأصلي.

  • ملخص المسار

    مرجع النموذج إعداد وقت التشغيل المسار المصادقة
    openai/gpt-5.5 محذوف / agentRuntime.id: "codex" حاضنة خادم تطبيق Codex الأصلية تسجيل الدخول إلى Codex أو ملف تعريف openai-codex المحدد
    openai/gpt-5.5 agentRuntime.id: "pi" وقت تشغيل PI مضمّن مع نقل داخلي لمصادقة Codex ملف تعريف openai-codex المحدد
    openai-codex/gpt-5.5 أُصلح بواسطة doctor مسار قديم أُعيدت كتابته إلى openai/gpt-5.5 ملف تعريف openai-codex موجود

    مثال إعداد

    {
      plugins: { entries: { codex: { enabled: true } } },
      agents: {
        defaults: {
          model: { primary: "openai/gpt-5.5" },
          agentRuntime: { id: "codex" },
        },
      },
    }
    

    التحقق من توجيه Codex OAuth واستعادته

    استخدم هذه الأوامر لمعرفة النموذج ووقت التشغيل ومسار المصادقة الذي يستخدمه وكيلك الافتراضي:

    openclaw models status
    openclaw models auth list --provider openai-codex
    openclaw config get agents.defaults.model --json
    openclaw config get agents.defaults.agentRuntime --json
    

    لوكيل محدد، أضف --agent <id>:

    openclaw models status --agent <id>
    openclaw models auth list --agent <id> --provider openai-codex
    

    إذا كان إعداد أقدم لا يزال يحتوي على openai-codex/gpt-* أو تثبيت جلسة OpenAI PI قديم من دون إعداد وقت تشغيل صريح، فأصلحه:

    openclaw doctor --fix
    openclaw config validate
    

    إذا أظهر models auth list --provider openai-codex عدم وجود ملف تعريف صالح للاستخدام، فسجّل الدخول مرة أخرى:

    openclaw models auth login --provider openai-codex
    openclaw models status --probe --probe-provider openai-codex
    

    يبقى openai-codex معرّف موفّر المصادقة/ملف التعريف. openai/* هو مسار النموذج لدورات وكيل OpenAI عبر Codex.

    مؤشر الحالة

    تعرض دردشة /status وقت تشغيل النموذج النشط للجلسة الحالية. تظهر حاضنة خادم تطبيق Codex المضمّنة كـ Runtime: OpenAI Codex لدورات نموذج وكيل OpenAI. تُصلح تثبيتات جلسات PI القديمة إلى Codex ما لم يثبّت الإعداد PI صراحةً.

    تحذير Doctor

    إذا بقيت مسارات openai-codex/* أو تثبيتات OpenAI PI قديمة في الإعداد أو حالة الجلسة، فإن openclaw doctor --fix يعيد كتابتها إلى openai/* مع وقت تشغيل Codex ما لم يكن PI مضبوطًا صراحةً.

    حد نافذة السياق

    يتعامل OpenClaw مع بيانات تعريف النموذج وحد سياق وقت التشغيل كقيمتين منفصلتين.

    بالنسبة إلى openai/gpt-5.5 عبر كتالوج Codex OAuth:

    • contextWindow الأصلي: 1000000
    • حد contextTokens الافتراضي لوقت التشغيل: 272000

    يمنح الحد الافتراضي الأصغر خصائص أفضل عمليًا في زمن الاستجابة والجودة. تجاوزه باستخدام contextTokens:

    {
      models: {
        providers: {
          "openai-codex": {
            models: [{ id: "gpt-5.5", contextTokens: 160000 }],
          },
        },
      },
    }
    

    استعادة الكتالوج

    يستخدم OpenClaw بيانات تعريف كتالوج Codex upstream لـ gpt-5.5 عندما تكون موجودة. إذا أغفل اكتشاف Codex المباشر صف gpt-5.5 بينما الحساب مصادق عليه، ينشئ OpenClaw صف نموذج OAuth هذا بحيث لا تفشل تشغيلات cron والوكيل الفرعي والنموذج الافتراضي المضبوط بسبب Unknown model.

    مصادقة خادم تطبيق Codex الأصلية

    تستخدم حاضنة خادم تطبيق Codex الأصلية مراجع نماذج openai/* مع إعداد وقت تشغيل محذوف أو agentRuntime.id: "codex"، لكن مصادقتها لا تزال قائمة على الحساب. يختار OpenClaw المصادقة بهذا الترتيب:

    1. ملف تعريف مصادقة openai-codex صريح في OpenClaw مربوط بالوكيل.
    2. حساب خادم التطبيق الموجود، مثل تسجيل دخول ChatGPT المحلي في Codex CLI.
    3. لعمليات تشغيل خادم التطبيق المحلية عبر stdio فقط، CODEX_API_KEY، ثم OPENAI_API_KEY، عندما يبلّغ خادم التطبيق عن عدم وجود حساب ولا يزال يتطلب مصادقة OpenAI.

    يعني ذلك أن تسجيل دخول اشتراك ChatGPT/Codex المحلي لا يُستبدل لمجرد أن عملية Gateway لديها أيضًا OPENAI_API_KEY لنماذج OpenAI المباشرة أو embeddings. يكون الرجوع إلى مفتاح API من البيئة لمسار stdio المحلي بلا حساب فقط؛ ولا يُرسل إلى اتصالات خادم التطبيق عبر WebSocket. عند اختيار ملف تعريف Codex بنمط اشتراك، يُبقي OpenClaw أيضًا CODEX_API_KEY و OPENAI_API_KEY خارج العملية الفرعية لخادم التطبيق stdio التي يتم تشغيلها ويرسل بيانات الاعتماد المحددة عبر RPC تسجيل دخول خادم التطبيق.

    إنشاء الصور

    يسجّل Plugin openai المضمّن إنشاء الصور عبر أداة image_generate. ويدعم إنشاء الصور بمفتاح API من OpenAI وإنشاء الصور عبر Codex OAuth من خلال مرجع النموذج نفسه openai/gpt-image-2.

    القدرة مفتاح API من OpenAI Codex OAuth
    مرجع النموذج openai/gpt-image-2 openai/gpt-image-2
    المصادقة OPENAI_API_KEY تسجيل دخول OpenAI Codex OAuth
    النقل OpenAI Images API الواجهة الخلفية Codex Responses
    الحد الأقصى للصور لكل طلب 4 4
    وضع التحرير مفعّل (حتى 5 صور مرجعية) مفعّل (حتى 5 صور مرجعية)
    تجاوزات الحجم مدعومة، بما في ذلك أحجام 2K/4K مدعومة، بما في ذلك أحجام 2K/4K
    نسبة العرض إلى الارتفاع / الدقة لا تُمرَّر إلى OpenAI Images API تُطابَق إلى حجم مدعوم عندما يكون ذلك آمنًا
    {
      agents: {
        defaults: {
          imageGenerationModel: { primary: "openai/gpt-image-2" },
        },
      },
    }
    

    gpt-image-2 هو الإعداد الافتراضي لكل من إنشاء الصور من نص في OpenAI وتحرير الصور. تظل gpt-image-1.5 و gpt-image-1 و gpt-image-1-mini قابلة للاستخدام كتجاوزات نموذج صريحة. استخدم openai/gpt-image-1.5 لمخرجات PNG/WebP بخلفية شفافة؛ ترفض واجهة API الحالية لـ gpt-image-2 background: "transparent".

    لطلب خلفية شفافة، يجب أن تستدعي الوكلاء image_generate مع model: "openai/gpt-image-1.5" و outputFormat: "png" أو "webp" و background: "transparent"؛ ولا يزال خيار الموفّر الأقدم openai.background مقبولًا. يحمي OpenClaw أيضًا مسارات OpenAI العامة و OpenAI Codex OAuth عبر إعادة كتابة طلبات الشفافية الافتراضية openai/gpt-image-2 إلى gpt-image-1.5؛ وتحتفظ Azure ونقاط النهاية المخصصة المتوافقة مع OpenAI بأسماء النشر/النموذج المضبوطة لديها.

    يتوفر الإعداد نفسه لتشغيلات CLI بلا واجهة:

    openclaw infer image generate \
      --model openai/gpt-image-1.5 \
      --output-format png \
      --background transparent \
      --prompt "A simple red circle sticker on a transparent background" \
      --json
    

    استخدم علامتي --output-format و --background نفسيهما مع openclaw infer image edit عند البدء من ملف إدخال. يبقى --openai-background متاحًا كاسم بديل خاص بـ OpenAI.

    بالنسبة إلى تثبيتات Codex OAuth، أبقِ مرجع openai/gpt-image-2 نفسه. عند ضبط ملف تعريف OAuth من openai-codex، يحل OpenClaw رمز وصول OAuth المخزّن هذا ويرسل طلبات الصور عبر الواجهة الخلفية Codex Responses. ولا يحاول أولًا استخدام OPENAI_API_KEY ولا يرجع بصمت إلى مفتاح API لذلك الطلب. اضبط models.providers.openai صراحةً باستخدام مفتاح API أو عنوان URL أساسي مخصص أو نقطة نهاية Azure عندما تريد مسار OpenAI Images API المباشر بدلًا من ذلك. إذا كانت نقطة نهاية الصور المخصصة تلك على عنوان LAN/خاص موثوق، فاضبط أيضًا browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true؛ يبقي OpenClaw نقاط نهاية الصور الخاصة/الداخلية المتوافقة مع OpenAI محظورة ما لم توجد هذه الموافقة الصريحة.

    إنشاء:

    /tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
    

    إنشاء PNG شفافة:

    /tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
    

    تحرير:

    /tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536
    

    إنشاء الفيديو

    يسجّل Plugin openai المضمّن إنشاء الفيديو عبر أداة video_generate.

    القدرة القيمة
    النموذج الافتراضي openai/sora-2
    الأوضاع نص إلى فيديو، صورة إلى فيديو، تحرير فيديو واحد
    مدخلات مرجعية صورة واحدة أو فيديو واحد
    تجاوزات الحجم مدعومة
    تجاوزات أخرى يتم تجاهل aspectRatio و resolution و audio و watermark مع تحذير من الأداة
    {
      agents: {
        defaults: {
          videoGenerationModel: { primary: "openai/sora-2" },
        },
      },
    }
    

    مساهمة موجه GPT-5

    يضيف OpenClaw مساهمة موجه GPT-5 مشتركة لتشغيلات عائلة GPT-5 عبر الموفّرين. تُطبّق حسب معرّف النموذج، لذلك تتلقى openai/gpt-5.5 والمراجع القديمة قبل الإصلاح مثل openai-codex/gpt-5.5 و openrouter/openai/gpt-5.5 و opencode/gpt-5.5 ومراجع GPT-5 المتوافقة الأخرى التراكب نفسه. ولا تتلقاه نماذج GPT-4.x الأقدم.

    تستخدم حاضنة Codex الأصلية المضمّنة سلوك GPT-5 نفسه وتراكب Heartbeat عبر تعليمات مطوّر خادم تطبيق Codex، لذلك تحتفظ جلسات openai/gpt-5.x المفروضة عبر agentRuntime.id: "codex" بإرشادات المتابعة وHeartbeat الاستباقية نفسها حتى لو كان Codex يملك بقية موجه الحاضنة.

    تضيف مساهمة GPT-5 عقد سلوك موسوما لاستمرار الشخصية، وسلامة التنفيذ، وانضباط الأدوات، وشكل المخرجات، وفحوصات الإكمال، والتحقق. يبقى سلوك الرد الخاص بكل قناة وسلوك الرسائل الصامتة في موجّه نظام OpenClaw المشترك وسياسة التسليم الصادر. تكون إرشادات GPT-5 مفعّلة دائما للنماذج المطابقة. طبقة أسلوب التفاعل الودّي منفصلة وقابلة للضبط.

    القيمة التأثير
    "friendly" (default) تفعيل طبقة أسلوب التفاعل الودّي
    "on" اسم بديل لـ "friendly"
    "off" تعطيل طبقة الأسلوب الودّي فقط

    Config

    {
      agents: {
        defaults: {
          promptOverlays: {
            gpt5: { personality: "friendly" },
          },
        },
      },
    }
    

    CLI

    openclaw config set agents.defaults.promptOverlays.gpt5.personality off
    

    الصوت والكلام

    Speech synthesis (TTS)

    يسجّل plugin openai المضمّن توليف الكلام لسطح messages.tts.

    الإعداد مسار الإعداد الافتراضي
    النموذج messages.tts.providers.openai.model gpt-4o-mini-tts
    الصوت messages.tts.providers.openai.voice coral
    السرعة messages.tts.providers.openai.speed (غير مضبوط)
    التعليمات messages.tts.providers.openai.instructions (غير مضبوط، gpt-4o-mini-tts فقط)
    التنسيق messages.tts.providers.openai.responseFormat opus للملاحظات الصوتية، وmp3 للملفات
    مفتاح API messages.tts.providers.openai.apiKey يعود احتياطيا إلى OPENAI_API_KEY
    عنوان URL الأساسي messages.tts.providers.openai.baseUrl https://api.openai.com/v1
    جسم إضافي messages.tts.providers.openai.extraBody / extra_body (غير مضبوط)

    النماذج المتاحة: gpt-4o-mini-tts، tts-1، tts-1-hd. الأصوات المتاحة: alloy، ash، ballad، cedar، coral، echo، fable، juniper، marin، onyx، nova، sage، shimmer، verse.

    يُدمج extraBody في JSON طلب /audio/speech بعد الحقول التي ينشئها OpenClaw، لذلك استخدمه لنقاط النهاية المتوافقة مع OpenAI التي تتطلب مفاتيح إضافية مثل lang. يتم تجاهل مفاتيح النماذج الأولية.

    {
      messages: {
        tts: {
          providers: {
            openai: { model: "gpt-4o-mini-tts", voice: "coral" },
          },
        },
      },
    }
    
    Speech-to-text

    يسجّل plugin openai المضمّن تحويل الكلام إلى نص على دفعات عبر سطح النسخ لفهم الوسائط في OpenClaw.

    • النموذج الافتراضي: gpt-4o-transcribe
    • نقطة النهاية: OpenAI REST /v1/audio/transcriptions
    • مسار الإدخال: رفع ملف صوتي متعدد الأجزاء
    • مدعوم بواسطة OpenClaw حيثما يستخدم نسخ الصوت الوارد tools.media.audio، بما في ذلك مقاطع قنوات الصوت في Discord ومرفقات الصوت في القنوات

    لفرض استخدام OpenAI لنسخ الصوت الوارد:

    {
      tools: {
        media: {
          audio: {
            models: [
              {
                type: "provider",
                provider: "openai",
                model: "gpt-4o-transcribe",
              },
            ],
          },
        },
      },
    }
    

    تُمرَّر تلميحات اللغة والموجّه إلى OpenAI عند توفيرها بواسطة إعداد وسائط الصوت المشترك أو طلب النسخ لكل استدعاء.

    Realtime transcription

    يسجّل plugin openai المضمّن النسخ الفوري لـ plugin Voice Call.

    الإعداد مسار الإعداد الافتراضي
    النموذج plugins.entries.voice-call.config.streaming.providers.openai.model gpt-4o-transcribe
    اللغة ...openai.language (غير مضبوط)
    الموجّه ...openai.prompt (غير مضبوط)
    مدة الصمت ...openai.silenceDurationMs 800
    عتبة VAD ...openai.vadThreshold 0.5
    مفتاح API ...openai.apiKey يعود احتياطيا إلى OPENAI_API_KEY
    Realtime voice

    يسجّل plugin openai المضمّن الصوت الفوري لـ plugin Voice Call.

    الإعداد مسار الإعداد الافتراضي
    النموذج plugins.entries.voice-call.config.realtime.providers.openai.model gpt-realtime-1.5
    الصوت ...openai.voice alloy
    الحرارة ...openai.temperature 0.8
    عتبة VAD ...openai.vadThreshold 0.5
    مدة الصمت ...openai.silenceDurationMs 500
    مفتاح API ...openai.apiKey يعود احتياطيا إلى OPENAI_API_KEY

    نقاط نهاية Azure OpenAI

    يمكن لموفّر openai المضمّن استهداف مورد Azure OpenAI لتوليد الصور عبر تجاوز عنوان URL الأساسي. في مسار توليد الصور، يكتشف OpenClaw أسماء مضيف Azure على models.providers.openai.baseUrl ويتحوّل إلى شكل طلب Azure تلقائيا.

    استخدم Azure OpenAI عندما:

    • تكون لديك بالفعل اشتراك Azure OpenAI أو حصة أو اتفاقية مؤسسية
    • تحتاج إلى إقامة بيانات إقليمية أو ضوابط امتثال يوفرها Azure
    • تريد إبقاء حركة المرور داخل مستأجر Azure قائم

    الإعداد

    لتوليد صور Azure عبر موفّر openai المضمّن، وجّه models.providers.openai.baseUrl إلى مورد Azure واضبط apiKey على مفتاح Azure OpenAI (وليس مفتاح OpenAI Platform):

    {
      models: {
        providers: {
          openai: {
            baseUrl: "https://<your-resource>.openai.azure.com",
            apiKey: "<azure-openai-api-key>",
          },
        },
      },
    }
    

    يتعرّف OpenClaw على لواحق مضيف Azure هذه لمسار توليد الصور في Azure:

    • *.openai.azure.com
    • *.services.ai.azure.com
    • *.cognitiveservices.azure.com

    بالنسبة إلى طلبات توليد الصور على مضيف Azure معروف، يقوم OpenClaw بما يلي:

    • يرسل ترويسة api-key بدلا من Authorization: Bearer
    • يستخدم مسارات محددة بنطاق النشر (/openai/deployments/{deployment}/...)
    • يضيف ?api-version=... إلى كل طلب
    • يستخدم مهلة طلب افتراضية قدرها 600 ثانية لاستدعاءات توليد الصور في Azure. لا تزال قيم timeoutMs لكل استدعاء تتجاوز هذا الافتراضي.

    تحافظ عناوين URL الأساسية الأخرى (OpenAI العام، والوكلاء المتوافقون مع OpenAI) على شكل طلب الصور القياسي في OpenAI.

    إصدار API

    اضبط AZURE_OPENAI_API_VERSION لتثبيت إصدار معاينة Azure محدد أو إصدار GA لمسار توليد الصور في Azure:

    export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
    

    القيمة الافتراضية هي 2024-12-01-preview عندما يكون المتغير غير مضبوط.

    أسماء النماذج هي أسماء عمليات النشر

    يربط Azure OpenAI النماذج بعمليات النشر. بالنسبة إلى طلبات توليد الصور في Azure الموجّهة عبر موفّر openai المضمّن، يجب أن يكون حقل model في OpenClaw هو اسم نشر Azure الذي ضبطته في بوابة Azure، وليس معرّف نموذج OpenAI العام.

    إذا أنشأت عملية نشر باسم gpt-image-2-prod تخدّم gpt-image-2:

    /tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
    

    تنطبق قاعدة اسم النشر نفسها على استدعاءات توليد الصور الموجّهة عبر موفّر openai المضمّن.

    التوفر الإقليمي

    يتوفر توليد الصور في Azure حاليا فقط في مجموعة فرعية من المناطق (على سبيل المثال eastus2، swedencentral، polandcentral، westus3، uaenorth). تحقق من قائمة مناطق Microsoft الحالية قبل إنشاء عملية نشر، وتأكد من أن النموذج المحدد متاح في منطقتك.

    اختلافات المعلمات

    لا يقبل Azure OpenAI وOpenAI العام دائما معلمات الصور نفسها. قد يرفض Azure خيارات يسمح بها OpenAI العام (مثل بعض قيم background على gpt-image-2) أو يتيحها فقط في إصدارات نماذج محددة. تأتي هذه الاختلافات من Azure والنموذج الأساسي، وليس من OpenClaw. إذا فشل طلب Azure مع خطأ تحقق، فتحقق من مجموعة المعلمات المدعومة بواسطة عملية النشر وإصدار API المحددين في بوابة Azure.

    الإعداد المتقدم

    Transport (WebSocket vs SSE)

    يستخدم OpenClaw WebSocket أولا مع رجوع احتياطي إلى SSE ("auto") لـ openai/*.

    في وضع "auto"، يقوم OpenClaw بما يلي:

    • يعيد محاولة فشل WebSocket مبكر واحد قبل الرجوع احتياطيا إلى SSE
    • بعد حدوث فشل، يعلّم WebSocket كمتدهور لمدة تقارب 60 ثانية ويستخدم SSE أثناء فترة التهدئة
    • يرفق ترويسات مستقرة لهوية الجلسة والدورة للمحاولات وإعادة الاتصال
    • يطبّع عدادات الاستخدام (input_tokens / prompt_tokens) عبر متغيرات النقل
    القيمة السلوك
    "auto" (default) WebSocket أولا، ثم رجوع احتياطي إلى SSE
    "sse" فرض SSE فقط
    "websocket" فرض WebSocket فقط
    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: { transport: "auto" },
            },
          },
        },
      },
    }
    

    وثائق OpenAI ذات الصلة:

    إحماء WebSocket

    يفعّل OpenClaw إحماء WebSocket افتراضياً لـ openai/* لتقليل زمن استجابة أول دورة.

    // Disable warm-up
    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: { openaiWsWarmup: false },
            },
          },
        },
      },
    }
    
    الوضع السريع

    يوفّر OpenClaw مفتاح تبديل مشتركاً للوضع السريع لـ openai/*:

    • الدردشة/واجهة المستخدم: /fast status|on|off
    • الإعدادات: agents.defaults.models["<provider>/<model>"].params.fastMode

    عند تفعيله، يربط OpenClaw الوضع السريع بمعالجة الأولوية في OpenAI (service_tier = "priority"). تُحفَظ قيم service_tier الحالية، ولا يعيد الوضع السريع كتابة reasoning أو text.verbosity.

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": { params: { fastMode: true } },
          },
        },
      },
    }
    
    معالجة الأولوية (service_tier)

    توفّر واجهة API الخاصة بـ OpenAI معالجة الأولوية عبر service_tier. اضبطها لكل نموذج في OpenClaw:

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": { params: { serviceTier: "priority" } },
          },
        },
      },
    }
    

    القيم المدعومة: auto، default، flex، priority.

    Compaction من جهة الخادم (Responses API)

    بالنسبة إلى نماذج OpenAI Responses المباشرة (openai/* على api.openai.com)، يفعّل مغلّف تدفق Pi-harness في Plugin الخاص بـ OpenAI ميزة Compaction من جهة الخادم تلقائياً:

    • يفرض store: true (ما لم يضبط توافق النموذج supportsStore: false)
    • يحقن context_management: [{ type: "compaction", compact_threshold: ... }]
    • قيمة compact_threshold الافتراضية: 70% من contextWindow (أو 80000 عند عدم توفرها)

    ينطبق هذا على مسار Pi harness المدمج وعلى خطاطيف مزوّد OpenAI المستخدمة بواسطة التشغيلات المضمّنة. يدير حزام خادم تطبيق Codex الأصلي سياقه الخاص عبر Codex ويُضبط بشكل منفصل باستخدام agents.defaults.agentRuntime.id.

    التفعيل صراحةً

    مفيد لنقاط النهاية المتوافقة مثل Azure OpenAI Responses:

    {
      agents: {
        defaults: {
          models: {
            "azure-openai-responses/gpt-5.5": {
              params: { responsesServerCompaction: true },
            },
          },
        },
      },
    }
    

    عتبة مخصصة

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: {
                responsesServerCompaction: true,
                responsesCompactThreshold: 120000,
              },
            },
          },
        },
      },
    }
    

    تعطيل

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: { responsesServerCompaction: false },
            },
          },
        },
      },
    }
    
    وضع GPT الوكيل الصارم

    بالنسبة إلى تشغيلات عائلة GPT-5 على openai/*، يستطيع OpenClaw استخدام عقد تنفيذ مضمّن أكثر صرامة:

    {
      agents: {
        defaults: {
          embeddedPi: { executionContract: "strict-agentic" },
        },
      },
    }
    

    مع strict-agentic، يقوم OpenClaw بما يلي:

    • لم يعد يعتبر دورة الخطة فقط تقدماً ناجحاً عندما يكون إجراء أداة متاحاً
    • يعيد محاولة الدورة بتوجيه للتصرف الآن
    • يفعّل update_plan تلقائياً للأعمال الكبيرة
    • يعرض حالة حظر صريحة إذا استمر النموذج في التخطيط دون تنفيذ
    المسارات الأصلية مقابل المسارات المتوافقة مع OpenAI

    يتعامل OpenClaw مع نقاط نهاية OpenAI وCodex وAzure OpenAI المباشرة بطريقة مختلفة عن وسطاء /v1 العامة المتوافقة مع OpenAI:

    المسارات الأصلية (openai/*، Azure OpenAI):

    • يحتفظ بـ reasoning: { effort: "none" } فقط للنماذج التي تدعم جهد OpenAI بالقيمة none
    • يحذف التعليل المعطّل للنماذج أو الوسطاء الذين يرفضون reasoning.effort: "none"
    • يضبط مخططات الأدوات افتراضياً على الوضع الصارم
    • يرفق ترويسات إسناد مخفية على المضيفين الأصليين المتحقق منهم فقط
    • يحتفظ بتشكيل طلبات OpenAI فقط (service_tier، store، توافق التعليل، تلميحات ذاكرة التخزين المؤقت للمطالبات)

    مسارات الوسيط/المتوافقة:

    • تستخدم سلوك توافق أكثر مرونة
    • تزيل store الخاص بـ Completions من حمولات openai-completions غير الأصلية
    • تقبل تمرير JSON المتقدم عبر params.extra_body/params.extraBody لوسطاء Completions المتوافقين مع OpenAI
    • تقبل params.chat_template_kwargs لوسطاء Completions المتوافقين مع OpenAI مثل vLLM
    • لا تفرض مخططات الأدوات الصارمة أو الترويسات الأصلية فقط

    يستخدم Azure OpenAI نقلاً أصلياً وسلوك توافق، لكنه لا يتلقى ترويسات الإسناد المخفية.

    ذات صلة