Providers

OpenAI

OpenAI cung cấp các API dành cho nhà phát triển cho các mô hình GPT, và Codex cũng có sẵn dưới dạng tác tử lập trình theo gói ChatGPT thông qua các client Codex của OpenAI. OpenClaw giữ các bề mặt đó tách biệt để cấu hình luôn dễ dự đoán.

OpenClaw dùng openai/* làm tuyến mô hình OpenAI chuẩn. Các lượt tác tử nhúng trên mô hình OpenAI mặc định chạy qua runtime app-server Codex gốc; xác thực bằng khóa API OpenAI trực tiếp vẫn có sẵn cho các bề mặt OpenAI không phải tác tử như hình ảnh, embedding, giọng nói và realtime.

  • Mô hình tác tử - các mô hình openai/* thông qua runtime Codex; đăng nhập bằng xác thực openai-codex để dùng gói đăng ký ChatGPT/Codex, hoặc cấu hình một hồ sơ khóa API openai-codex khi bạn chủ đích muốn xác thực bằng khóa API.
  • API OpenAI không phải tác tử - truy cập OpenAI Platform trực tiếp với tính phí theo mức sử dụng thông qua OPENAI_API_KEY hoặc quy trình thiết lập khóa API OpenAI.
  • Cấu hình cũ - các tham chiếu mô hình openai-codex/* được openclaw doctor --fix sửa thành openai/* cộng với runtime Codex.

OpenAI hỗ trợ rõ ràng việc dùng OAuth theo gói đăng ký trong các công cụ và workflow bên ngoài như OpenClaw.

Nhà cung cấp, mô hình, runtime và kênh là các tầng riêng biệt. Nếu các nhãn đó đang bị trộn lẫn với nhau, hãy đọc Runtime tác tử trước khi thay đổi cấu hình.

Lựa chọn nhanh

Mục tiêu Dùng Ghi chú
Gói đăng ký ChatGPT/Codex với runtime Codex gốc openai/gpt-5.5 Thiết lập tác tử OpenAI mặc định. Đăng nhập bằng xác thực openai-codex.
Tính phí khóa API trực tiếp cho mô hình tác tử openai/gpt-5.5 cộng với hồ sơ khóa API openai-codex Dùng auth.order.openai-codex để ưu tiên hồ sơ đó.
Tính phí khóa API trực tiếp thông qua PI rõ ràng openai/gpt-5.5 cộng với agentRuntime.id: "pi" Chọn một hồ sơ khóa API openai thông thường.
Alias API ChatGPT Instant mới nhất openai/chat-latest Chỉ dùng khóa API trực tiếp. Alias thay đổi cho thử nghiệm, không phải mặc định.
Xác thực gói đăng ký ChatGPT/Codex qua PI rõ ràng openai/gpt-5.5 cộng với agentRuntime.id: "pi" Chọn một hồ sơ xác thực openai-codex cho tuyến tương thích.
Tạo hoặc chỉnh sửa hình ảnh openai/gpt-image-2 Hoạt động với OPENAI_API_KEY hoặc OAuth OpenAI Codex.
Hình ảnh nền trong suốt openai/gpt-image-1.5 Dùng outputFormat=png hoặc webpopenai.background=transparent.

Bản đồ tên gọi

Các tên tương tự nhau nhưng không thể dùng thay thế cho nhau:

Tên bạn thấy Tầng Ý nghĩa
openai Tiền tố nhà cung cấp Tuyến mô hình OpenAI chuẩn; các lượt tác tử dùng runtime Codex.
openai-codex Tiền tố xác thực/hồ sơ Nhà cung cấp hồ sơ xác thực OAuth/gói đăng ký OpenAI Codex.
Plugin codex Plugin Plugin OpenClaw đi kèm cung cấp runtime app-server Codex gốc và điều khiển chat /codex.
agentRuntime.id: codex Runtime tác tử Buộc dùng harness app-server Codex gốc cho các lượt nhúng.
/codex ... Bộ lệnh chat Liên kết/điều khiển các luồng app-server Codex từ một cuộc trò chuyện.
runtime: "acp", agentId: "codex" Tuyến phiên ACP Đường dự phòng rõ ràng chạy Codex thông qua ACP/acpx.

Điều này có nghĩa là một cấu hình có thể chủ đích chứa cả tham chiếu mô hình openai/* và hồ sơ xác thực openai-codex. openclaw doctor --fix viết lại các tham chiếu mô hình openai-codex/* cũ thành tuyến mô hình OpenAI chuẩn.

Phạm vi tính năng OpenClaw

Năng lực OpenAI Bề mặt OpenClaw Trạng thái
Chat / Responses Nhà cung cấp mô hình openai/<model>
Mô hình gói đăng ký Codex openai/<model> với OAuth openai-codex
Tham chiếu mô hình Codex cũ openai-codex/<model> Được doctor sửa thành openai/<model>
Harness app-server Codex openai/<model> với runtime bị bỏ qua hoặc agentRuntime.id: codex
Tìm kiếm web phía máy chủ Công cụ OpenAI Responses gốc Có, khi tìm kiếm web được bật và không ghim nhà cung cấp
Hình ảnh image_generate
Video video_generate
Chuyển văn bản thành giọng nói messages.tts.provider: "openai" / tts
Chuyển giọng nói thành văn bản theo lô tools.media.audio / hiểu media
Chuyển giọng nói thành văn bản streaming Voice Call streaming.provider: "openai"
Giọng nói realtime Voice Call realtime.provider: "openai" / Control UI Talk
Embedding Nhà cung cấp embedding bộ nhớ

Embedding bộ nhớ

OpenClaw có thể dùng OpenAI, hoặc một endpoint embedding tương thích OpenAI, cho việc lập chỉ mục memory_search và embedding truy vấn:

{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai",
        model: "text-embedding-3-small",
      },
    },
  },
}

Với các endpoint tương thích OpenAI yêu cầu nhãn embedding bất đối xứng, hãy đặt queryInputTypedocumentInputType dưới memorySearch. OpenClaw chuyển tiếp chúng dưới dạng các trường yêu cầu input_type dành riêng cho nhà cung cấp: embedding truy vấn dùng queryInputType; các đoạn bộ nhớ đã lập chỉ mục và lập chỉ mục theo lô dùng documentInputType. Xem tham chiếu cấu hình bộ nhớ để có ví dụ đầy đủ.

Bắt đầu

Chọn phương thức xác thực bạn muốn và làm theo các bước thiết lập.

Khóa API (OpenAI Platform)

Phù hợp nhất cho: truy cập API trực tiếp và tính phí theo mức sử dụng.

  • Lấy khóa API của bạn

    Tạo hoặc sao chép khóa API từ bảng điều khiển OpenAI Platform.

  • Chạy onboarding

    openclaw onboard --auth-choice openai-api-key
    

    Hoặc truyền khóa trực tiếp:

    openclaw onboard --openai-api-key "$OPENAI_API_KEY"
    
  • Xác minh mô hình có sẵn

    openclaw models list --provider openai
    
  • Tóm tắt tuyến

    Tham chiếu mô hình Cấu hình runtime Tuyến Xác thực
    openai/gpt-5.5 bị bỏ qua / agentRuntime.id: "codex" Harness app-server Codex hồ sơ openai-codex
    openai/gpt-5.4-mini bị bỏ qua / agentRuntime.id: "codex" Harness app-server Codex hồ sơ openai-codex
    openai/gpt-5.5 agentRuntime.id: "pi" Runtime nhúng PI hồ sơ openai hoặc hồ sơ openai-codex đã chọn

    Ví dụ cấu hình

    {
      env: { OPENAI_API_KEY: "sk-..." },
      agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
    }
    

    Để thử mô hình Instant hiện tại của ChatGPT từ OpenAI API, đặt mô hình thành openai/chat-latest:

    {
      env: { OPENAI_API_KEY: "sk-..." },
      agents: { defaults: { model: { primary: "openai/chat-latest" } } },
    }
    

    chat-latest là một alias thay đổi. OpenAI mô tả nó là mô hình Instant mới nhất được dùng trong ChatGPT và khuyến nghị gpt-5.5 cho việc dùng API production, vì vậy hãy giữ openai/gpt-5.5 làm mặc định ổn định trừ khi bạn chủ đích muốn hành vi alias đó. Alias hiện chỉ chấp nhận độ chi tiết văn bản medium, vì vậy OpenClaw chuẩn hóa các override độ chi tiết văn bản OpenAI không tương thích cho mô hình này.

    Gói đăng ký Codex

    Phù hợp nhất cho: dùng gói đăng ký ChatGPT/Codex của bạn với thực thi app-server Codex gốc thay vì một khóa API riêng. Codex cloud yêu cầu đăng nhập ChatGPT.

  • Chạy OAuth Codex

    openclaw onboard --auth-choice openai-codex
    

    Hoặc chạy OAuth trực tiếp:

    openclaw models auth login --provider openai-codex
    

    Với các thiết lập headless hoặc khó dùng callback, thêm --device-code để đăng nhập bằng luồng mã thiết bị ChatGPT thay vì callback trình duyệt localhost:

    openclaw models auth login --provider openai-codex --device-code
    
  • Dùng tuyến mô hình OpenAI chuẩn

    openclaw config set agents.defaults.model.primary openai/gpt-5.5
    

    Không cần cấu hình runtime cho tuyến mặc định. Các lượt agent OpenAI tự động chọn runtime app-server Codex gốc, và OpenClaw cài đặt hoặc sửa Plugin Codex đi kèm khi tuyến này được chọn.

  • Xác minh xác thực Codex khả dụng

    openclaw models list --provider openai-codex
    

    Sau khi gateway đang chạy, hãy gửi /codex status hoặc /codex models trong chat để xác minh runtime app-server gốc.

  • Tóm tắt tuyến

    Tham chiếu model Cấu hình runtime Tuyến Xác thực
    openai/gpt-5.5 bỏ qua / agentRuntime.id: "codex" Bộ chạy app-server Codex gốc Đăng nhập Codex hoặc hồ sơ openai-codex đã chọn
    openai/gpt-5.5 agentRuntime.id: "pi" Runtime nhúng PI với transport xác thực Codex nội bộ Hồ sơ openai-codex đã chọn
    openai-codex/gpt-5.5 được doctor sửa Tuyến cũ được viết lại thành openai/gpt-5.5 Hồ sơ openai-codex hiện có

    Ví dụ cấu hình

    {
      plugins: { entries: { codex: { enabled: true } } },
      agents: {
        defaults: {
          model: { primary: "openai/gpt-5.5" },
          agentRuntime: { id: "codex" },
        },
      },
    }
    

    Kiểm tra và khôi phục định tuyến OAuth Codex

    Dùng các lệnh này để xem model, runtime và tuyến xác thực mà agent mặc định của bạn đang dùng:

    openclaw models status
    openclaw models auth list --provider openai-codex
    openclaw config get agents.defaults.model --json
    openclaw config get agents.defaults.agentRuntime --json
    

    Với một agent cụ thể, thêm --agent <id>:

    openclaw models status --agent <id>
    openclaw models auth list --agent <id> --provider openai-codex
    

    Nếu một cấu hình cũ hơn vẫn có openai-codex/gpt-* hoặc ghim phiên OpenAI PI đã lỗi thời mà không có cấu hình runtime rõ ràng, hãy sửa nó:

    openclaw doctor --fix
    openclaw config validate
    

    Nếu models auth list --provider openai-codex không hiển thị hồ sơ dùng được, hãy đăng nhập lại:

    openclaw models auth login --provider openai-codex
    openclaw models status --probe --probe-provider openai-codex
    

    openai-codex vẫn là id provider xác thực/hồ sơ. openai/* là tuyến model cho các lượt agent OpenAI thông qua Codex.

    Chỉ báo trạng thái

    Chat /status hiển thị runtime model nào đang hoạt động cho phiên hiện tại. Bộ chạy app-server Codex đi kèm xuất hiện là Runtime: OpenAI Codex cho các lượt model agent OpenAI. Các ghim phiên PI đã lỗi thời được sửa sang Codex trừ khi cấu hình ghim PI rõ ràng.

    Cảnh báo doctor

    Nếu các tuyến openai-codex/* hoặc ghim OpenAI PI đã lỗi thời vẫn còn trong cấu hình hoặc trạng thái phiên, openclaw doctor --fix viết lại chúng thành openai/* với runtime Codex trừ khi PI được cấu hình rõ ràng.

    Giới hạn cửa sổ ngữ cảnh

    OpenClaw xem metadata model và giới hạn ngữ cảnh runtime là các giá trị riêng biệt.

    Với openai/gpt-5.5 thông qua catalog OAuth Codex:

    • contextWindow gốc: 1000000
    • Giới hạn contextTokens runtime mặc định: 272000

    Giới hạn mặc định nhỏ hơn có đặc tính độ trễ và chất lượng tốt hơn trong thực tế. Ghi đè nó bằng contextTokens:

    {
      models: {
        providers: {
          "openai-codex": {
            models: [{ id: "gpt-5.5", contextTokens: 160000 }],
          },
        },
      },
    }
    

    Khôi phục catalog

    OpenClaw dùng metadata catalog Codex thượng nguồn cho gpt-5.5 khi nó hiện diện. Nếu phát hiện Codex trực tiếp bỏ qua hàng gpt-5.5 trong khi tài khoản đã được xác thực, OpenClaw tổng hợp hàng model OAuth đó để các lần chạy cron, sub-agent và model mặc định đã cấu hình không thất bại với Unknown model.

    Xác thực app-server Codex gốc

    Bộ chạy app-server Codex gốc dùng tham chiếu model openai/* cộng với cấu hình runtime bị bỏ qua hoặc agentRuntime.id: "codex", nhưng xác thực của nó vẫn dựa trên tài khoản. OpenClaw chọn xác thực theo thứ tự này:

    1. Một hồ sơ xác thực OpenClaw openai-codex rõ ràng được gắn với agent.
    2. Tài khoản hiện có của app-server, chẳng hạn như đăng nhập ChatGPT bằng Codex CLI cục bộ.
    3. Chỉ với các lần khởi chạy app-server stdio cục bộ, CODEX_API_KEY, rồi OPENAI_API_KEY, khi app-server báo cáo không có tài khoản và vẫn yêu cầu xác thực OpenAI.

    Điều đó có nghĩa là đăng nhập gói đăng ký ChatGPT/Codex cục bộ không bị thay thế chỉ vì tiến trình gateway cũng có OPENAI_API_KEY cho các model OpenAI trực tiếp hoặc embeddings. Dự phòng API key trong env chỉ là đường dẫn stdio cục bộ không có tài khoản; nó không được gửi tới các kết nối app-server WebSocket. Khi một hồ sơ Codex kiểu gói đăng ký được chọn, OpenClaw cũng giữ CODEX_API_KEYOPENAI_API_KEY khỏi tiến trình con app-server stdio được sinh ra và gửi thông tin xác thực đã chọn qua RPC đăng nhập app-server.

    Tạo ảnh

    Plugin openai đi kèm đăng ký tạo ảnh thông qua công cụ image_generate. Nó hỗ trợ cả tạo ảnh bằng API key OpenAI và tạo ảnh bằng OAuth Codex thông qua cùng tham chiếu model openai/gpt-image-2.

    Khả năng API key OpenAI OAuth Codex
    Tham chiếu model openai/gpt-image-2 openai/gpt-image-2
    Xác thực OPENAI_API_KEY Đăng nhập OAuth OpenAI Codex
    Transport OpenAI Images API Backend Codex Responses
    Số ảnh tối đa mỗi yêu cầu 4 4
    Chế độ chỉnh sửa Bật (tối đa 5 ảnh tham chiếu) Bật (tối đa 5 ảnh tham chiếu)
    Ghi đè kích thước Được hỗ trợ, bao gồm kích thước 2K/4K Được hỗ trợ, bao gồm kích thước 2K/4K
    Tỷ lệ khung hình / độ phân giải Không chuyển tiếp tới OpenAI Images API Được ánh xạ sang kích thước được hỗ trợ khi an toàn
    {
      agents: {
        defaults: {
          imageGenerationModel: { primary: "openai/gpt-image-2" },
        },
      },
    }
    

    gpt-image-2 là mặc định cho cả tạo ảnh từ văn bản OpenAI và chỉnh sửa ảnh. gpt-image-1.5, gpt-image-1, và gpt-image-1-mini vẫn dùng được dưới dạng các ghi đè model rõ ràng. Dùng openai/gpt-image-1.5 cho đầu ra PNG/WebP nền trong suốt; API gpt-image-2 hiện tại từ chối background: "transparent".

    Với yêu cầu nền trong suốt, agent nên gọi image_generate với model: "openai/gpt-image-1.5", outputFormat: "png" hoặc "webp", và background: "transparent"; tùy chọn provider openai.background cũ hơn vẫn được chấp nhận. OpenClaw cũng bảo vệ các tuyến OpenAI công khai và OAuth OpenAI Codex bằng cách viết lại các yêu cầu trong suốt mặc định openai/gpt-image-2 thành gpt-image-1.5; Azure và các endpoint tương thích OpenAI tùy chỉnh giữ tên triển khai/model đã cấu hình của chúng.

    Cùng thiết lập này được cung cấp cho các lần chạy CLI headless:

    openclaw infer image generate \
      --model openai/gpt-image-1.5 \
      --output-format png \
      --background transparent \
      --prompt "A simple red circle sticker on a transparent background" \
      --json
    

    Dùng cùng các cờ --output-format--background với openclaw infer image edit khi bắt đầu từ một tệp đầu vào. --openai-background vẫn khả dụng dưới dạng bí danh dành riêng cho OpenAI.

    Với các cài đặt OAuth Codex, hãy giữ cùng tham chiếu openai/gpt-image-2. Khi một hồ sơ OAuth openai-codex được cấu hình, OpenClaw phân giải access token OAuth đã lưu đó và gửi yêu cầu ảnh thông qua backend Codex Responses. Nó không thử OPENAI_API_KEY trước hoặc âm thầm dự phòng sang API key cho yêu cầu đó. Cấu hình models.providers.openai rõ ràng với API key, URL cơ sở tùy chỉnh hoặc endpoint Azure khi bạn muốn dùng tuyến OpenAI Images API trực tiếp thay vào đó. Nếu endpoint ảnh tùy chỉnh đó nằm trên LAN/địa chỉ riêng đáng tin cậy, cũng đặt browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true; OpenClaw vẫn chặn các endpoint ảnh tương thích OpenAI riêng tư/nội bộ trừ khi có lựa chọn tham gia này.

    Tạo:

    /tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
    

    Tạo PNG trong suốt:

    /tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
    

    Chỉnh sửa:

    /tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536
    

    Tạo video

    Plugin openai đi kèm đăng ký tạo video thông qua công cụ video_generate.

    Khả năng Giá trị
    Model mặc định openai/sora-2
    Chế độ Văn bản thành video, ảnh thành video, chỉnh sửa một video
    Đầu vào tham chiếu 1 ảnh hoặc 1 video
    Ghi đè kích thước Được hỗ trợ
    Ghi đè khác aspectRatio, resolution, audio, watermark bị bỏ qua kèm cảnh báo công cụ
    {
      agents: {
        defaults: {
          videoGenerationModel: { primary: "openai/sora-2" },
        },
      },
    }
    

    Đóng góp prompt GPT-5

    OpenClaw thêm một đóng góp prompt GPT-5 dùng chung cho các lần chạy họ GPT-5 trên nhiều provider. Nó áp dụng theo id model, vì vậy openai/gpt-5.5, các tham chiếu cũ trước khi sửa như openai-codex/gpt-5.5, openrouter/openai/gpt-5.5, opencode/gpt-5.5, và các tham chiếu GPT-5 tương thích khác nhận cùng lớp phủ. Các model GPT-4.x cũ hơn thì không.

    Bộ chạy Codex gốc đi kèm dùng cùng hành vi GPT-5 và lớp phủ Heartbeat thông qua hướng dẫn developer của app-server Codex, vì vậy các phiên openai/gpt-5.x bị buộc đi qua agentRuntime.id: "codex" giữ cùng hướng dẫn theo dõi đến cùng và Heartbeat chủ động, dù Codex sở hữu phần còn lại của prompt bộ chạy.

    Phần đóng góp GPT-5 bổ sung một hợp đồng hành vi được gắn thẻ cho việc duy trì persona, an toàn thực thi, kỷ luật công cụ, hình dạng đầu ra, kiểm tra hoàn tất và xác minh. Hành vi trả lời theo kênh và tin nhắn im lặng vẫn nằm trong prompt hệ thống OpenClaw dùng chung và chính sách gửi đi. Hướng dẫn GPT-5 luôn được bật cho các mô hình phù hợp. Lớp phong cách tương tác thân thiện là riêng biệt và có thể cấu hình.

    Giá trị Hiệu ứng
    "friendly" (mặc định) Bật lớp phong cách tương tác thân thiện
    "on" Bí danh cho "friendly"
    "off" Chỉ tắt lớp phong cách thân thiện

    Cấu hình

    {
      agents: {
        defaults: {
          promptOverlays: {
            gpt5: { personality: "friendly" },
          },
        },
      },
    }
    

    CLI

    openclaw config set agents.defaults.promptOverlays.gpt5.personality off
    

    Giọng nói và lời nói

    Tổng hợp giọng nói (TTS)

    Plugin openai đi kèm đăng ký tổng hợp giọng nói cho bề mặt messages.tts.

    Cài đặt Đường dẫn cấu hình Mặc định
    Mô hình messages.tts.providers.openai.model gpt-4o-mini-tts
    Giọng messages.tts.providers.openai.voice coral
    Tốc độ messages.tts.providers.openai.speed (chưa đặt)
    Hướng dẫn messages.tts.providers.openai.instructions (chưa đặt, chỉ gpt-4o-mini-tts)
    Định dạng messages.tts.providers.openai.responseFormat opus cho ghi chú thoại, mp3 cho tệp
    Khóa API messages.tts.providers.openai.apiKey Dự phòng về OPENAI_API_KEY
    URL cơ sở messages.tts.providers.openai.baseUrl https://api.openai.com/v1
    Thân bổ sung messages.tts.providers.openai.extraBody / extra_body (chưa đặt)

    Các mô hình có sẵn: gpt-4o-mini-tts, tts-1, tts-1-hd. Các giọng có sẵn: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.

    extraBody được hợp nhất vào JSON yêu cầu /audio/speech sau các trường do OpenClaw tạo, vì vậy hãy dùng nó cho các endpoint tương thích OpenAI yêu cầu khóa bổ sung như lang. Các khóa prototype bị bỏ qua.

    {
      messages: {
        tts: {
          providers: {
            openai: { model: "gpt-4o-mini-tts", voice: "coral" },
          },
        },
      },
    }
    
    Chuyển lời nói thành văn bản

    Plugin openai đi kèm đăng ký chuyển lời nói thành văn bản theo lô thông qua bề mặt phiên âm hiểu nội dung media của OpenClaw.

    • Mô hình mặc định: gpt-4o-transcribe
    • Endpoint: OpenAI REST /v1/audio/transcriptions
    • Đường dẫn đầu vào: tải tệp âm thanh multipart lên
    • Được OpenClaw hỗ trợ ở mọi nơi phiên âm âm thanh đến sử dụng tools.media.audio, bao gồm các đoạn kênh thoại Discord và tệp đính kèm âm thanh của kênh

    Để buộc dùng OpenAI cho phiên âm âm thanh đến:

    {
      tools: {
        media: {
          audio: {
            models: [
              {
                type: "provider",
                provider: "openai",
                model: "gpt-4o-transcribe",
              },
            ],
          },
        },
      },
    }
    

    Gợi ý ngôn ngữ và prompt được chuyển tiếp đến OpenAI khi được cung cấp bởi cấu hình media âm thanh dùng chung hoặc yêu cầu phiên âm theo từng lệnh gọi.

    Phiên âm thời gian thực

    Plugin openai đi kèm đăng ký phiên âm thời gian thực cho Plugin Voice Call.

    Cài đặt Đường dẫn cấu hình Mặc định
    Mô hình plugins.entries.voice-call.config.streaming.providers.openai.model gpt-4o-transcribe
    Ngôn ngữ ...openai.language (chưa đặt)
    Prompt ...openai.prompt (chưa đặt)
    Thời lượng im lặng ...openai.silenceDurationMs 800
    Ngưỡng VAD ...openai.vadThreshold 0.5
    Khóa API ...openai.apiKey Dự phòng về OPENAI_API_KEY
    Giọng nói thời gian thực

    Plugin openai đi kèm đăng ký giọng nói thời gian thực cho Plugin Voice Call.

    Cài đặt Đường dẫn cấu hình Mặc định
    Mô hình plugins.entries.voice-call.config.realtime.providers.openai.model gpt-realtime-1.5
    Giọng ...openai.voice alloy
    Nhiệt độ ...openai.temperature 0.8
    Ngưỡng VAD ...openai.vadThreshold 0.5
    Thời lượng im lặng ...openai.silenceDurationMs 500
    Khóa API ...openai.apiKey Dự phòng về OPENAI_API_KEY

    Endpoint Azure OpenAI

    Nhà cung cấp openai đi kèm có thể trỏ đến một tài nguyên Azure OpenAI để tạo ảnh bằng cách ghi đè URL cơ sở. Trên đường dẫn tạo ảnh, OpenClaw phát hiện tên máy chủ Azure trên models.providers.openai.baseUrl và tự động chuyển sang dạng yêu cầu của Azure.

    Dùng Azure OpenAI khi:

    • Bạn đã có đăng ký, hạn mức hoặc thỏa thuận doanh nghiệp Azure OpenAI
    • Bạn cần vùng lưu trú dữ liệu theo khu vực hoặc các biện pháp kiểm soát tuân thủ mà Azure cung cấp
    • Bạn muốn giữ lưu lượng bên trong một tenancy Azure hiện có

    Cấu hình

    Để tạo ảnh Azure thông qua nhà cung cấp openai đi kèm, hãy trỏ models.providers.openai.baseUrl đến tài nguyên Azure của bạn và đặt apiKey thành khóa Azure OpenAI (không phải khóa OpenAI Platform):

    {
      models: {
        providers: {
          openai: {
            baseUrl: "https://<your-resource>.openai.azure.com",
            apiKey: "<azure-openai-api-key>",
          },
        },
      },
    }
    

    OpenClaw nhận diện các hậu tố máy chủ Azure này cho route tạo ảnh Azure:

    • *.openai.azure.com
    • *.services.ai.azure.com
    • *.cognitiveservices.azure.com

    Đối với yêu cầu tạo ảnh trên máy chủ Azure được nhận diện, OpenClaw:

    • Gửi header api-key thay vì Authorization: Bearer
    • Dùng các đường dẫn theo phạm vi deployment (/openai/deployments/{deployment}/...)
    • Thêm ?api-version=... vào mỗi yêu cầu
    • Dùng thời gian chờ yêu cầu mặc định 600 giây cho các lệnh gọi tạo ảnh Azure. Các giá trị timeoutMs theo từng lệnh gọi vẫn ghi đè mặc định này.

    Các URL cơ sở khác (OpenAI công khai, proxy tương thích OpenAI) giữ nguyên dạng yêu cầu ảnh OpenAI tiêu chuẩn.

    Phiên bản API

    Đặt AZURE_OPENAI_API_VERSION để ghim một phiên bản Azure preview hoặc GA cụ thể cho đường dẫn tạo ảnh Azure:

    export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
    

    Mặc định là 2024-12-01-preview khi biến chưa được đặt.

    Tên mô hình là tên deployment

    Azure OpenAI liên kết mô hình với deployment. Đối với yêu cầu tạo ảnh Azure được định tuyến qua nhà cung cấp openai đi kèm, trường model trong OpenClaw phải là tên deployment Azure bạn đã cấu hình trong cổng Azure, không phải id mô hình OpenAI công khai.

    Nếu bạn tạo một deployment tên là gpt-image-2-prod phục vụ gpt-image-2:

    /tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
    

    Quy tắc tên deployment tương tự áp dụng cho các lệnh gọi tạo ảnh được định tuyến qua nhà cung cấp openai đi kèm.

    Khả dụng theo khu vực

    Tạo ảnh Azure hiện chỉ có sẵn ở một số khu vực (ví dụ eastus2, swedencentral, polandcentral, westus3, uaenorth). Hãy kiểm tra danh sách khu vực hiện tại của Microsoft trước khi tạo deployment, và xác nhận mô hình cụ thể được cung cấp trong khu vực của bạn.

    Khác biệt về tham số

    Azure OpenAI và OpenAI công khai không phải lúc nào cũng chấp nhận cùng các tham số ảnh. Azure có thể từ chối các tùy chọn mà OpenAI công khai cho phép (ví dụ một số giá trị background nhất định trên gpt-image-2) hoặc chỉ cung cấp chúng trên các phiên bản mô hình cụ thể. Các khác biệt này đến từ Azure và mô hình nền tảng, không phải OpenClaw. Nếu một yêu cầu Azure thất bại với lỗi xác thực, hãy kiểm tra bộ tham số được deployment và phiên bản API cụ thể của bạn hỗ trợ trong cổng Azure.

    Cấu hình nâng cao

    Transport (WebSocket và SSE)

    OpenClaw ưu tiên WebSocket với SSE dự phòng ("auto") cho openai/*.

    Ở chế độ "auto", OpenClaw:

    • Thử lại một lỗi WebSocket sớm trước khi dự phòng sang SSE
    • Sau khi xảy ra lỗi, đánh dấu WebSocket là suy giảm trong khoảng 60 giây và dùng SSE trong thời gian hạ nhiệt
    • Gắn các header định danh phiên và lượt ổn định cho việc thử lại và kết nối lại
    • Chuẩn hóa bộ đếm mức sử dụng (input_tokens / prompt_tokens) giữa các biến thể transport
    Giá trị Hành vi
    "auto" (mặc định) WebSocket trước, SSE dự phòng
    "sse" Chỉ buộc dùng SSE
    "websocket" Chỉ buộc dùng WebSocket
    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: { transport: "auto" },
            },
          },
        },
      },
    }
    

    Tài liệu OpenAI liên quan:

    Khởi động sẵn WebSocket

    OpenClaw bật khởi động sẵn WebSocket theo mặc định cho openai/* để giảm độ trễ ở lượt đầu tiên.

    // Disable warm-up
    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: { openaiWsWarmup: false },
            },
          },
        },
      },
    }
    
    Chế độ nhanh

    OpenClaw cung cấp một công tắc chế độ nhanh dùng chung cho openai/*:

    • Trò chuyện/UI: /fast status|on|off
    • Cấu hình: agents.defaults.models["<provider>/<model>"].params.fastMode

    Khi được bật, OpenClaw ánh xạ chế độ nhanh sang xử lý ưu tiên của OpenAI (service_tier = "priority"). Các giá trị service_tier hiện có được giữ nguyên, và chế độ nhanh không ghi lại reasoning hoặc text.verbosity.

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": { params: { fastMode: true } },
          },
        },
      },
    }
    
    Xử lý ưu tiên (service_tier)

    API của OpenAI cung cấp xử lý ưu tiên qua service_tier. Thiết lập theo từng mô hình trong OpenClaw:

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": { params: { serviceTier: "priority" } },
          },
        },
      },
    }
    

    Giá trị được hỗ trợ: auto, default, flex, priority.

    Compaction phía máy chủ (Responses API)

    Với các mô hình OpenAI Responses trực tiếp (openai/* trên api.openai.com), trình bao bọc luồng Pi-harness của Plugin OpenAI tự động bật Compaction phía máy chủ:

    • Ép buộc store: true (trừ khi tương thích mô hình đặt supportsStore: false)
    • Chèn context_management: [{ type: "compaction", compact_threshold: ... }]
    • compact_threshold mặc định: 70% của contextWindow (hoặc 80000 khi không có)

    Điều này áp dụng cho đường dẫn Pi harness tích hợp sẵn và cho các hook provider OpenAI được dùng bởi các lần chạy nhúng. Harness máy chủ ứng dụng Codex gốc tự quản lý ngữ cảnh của nó qua Codex và được cấu hình riêng bằng agents.defaults.agentRuntime.id.

    Bật rõ ràng

    Hữu ích cho các endpoint tương thích như Azure OpenAI Responses:

    {
      agents: {
        defaults: {
          models: {
            "azure-openai-responses/gpt-5.5": {
              params: { responsesServerCompaction: true },
            },
          },
        },
      },
    }
    

    Ngưỡng tùy chỉnh

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: {
                responsesServerCompaction: true,
                responsesCompactThreshold: 120000,
              },
            },
          },
        },
      },
    }
    

    Tắt

    {
      agents: {
        defaults: {
          models: {
            "openai/gpt-5.5": {
              params: { responsesServerCompaction: false },
            },
          },
        },
      },
    }
    
    Chế độ GPT strict-agentic

    Với các lần chạy thuộc họ GPT-5 trên openai/*, OpenClaw có thể dùng một hợp đồng thực thi nhúng nghiêm ngặt hơn:

    {
      agents: {
        defaults: {
          embeddedPi: { executionContract: "strict-agentic" },
        },
      },
    }
    

    Với strict-agentic, OpenClaw:

    • Không còn xem một lượt chỉ lập kế hoạch là tiến triển thành công khi có hành động công cụ khả dụng
    • Thử lại lượt đó với một điều hướng hành động ngay
    • Tự động bật update_plan cho công việc đáng kể
    • Hiển thị trạng thái bị chặn rõ ràng nếu mô hình tiếp tục lập kế hoạch mà không hành động
    Tuyến gốc so với tuyến tương thích OpenAI

    OpenClaw xử lý các endpoint OpenAI, Codex và Azure OpenAI trực tiếp khác với các proxy /v1 tương thích OpenAI chung:

    Tuyến gốc (openai/*, Azure OpenAI):

    • Chỉ giữ reasoning: { effort: "none" } cho các mô hình hỗ trợ nỗ lực none của OpenAI
    • Bỏ qua reasoning đã tắt đối với các mô hình hoặc proxy từ chối reasoning.effort: "none"
    • Mặc định đặt schema công cụ ở chế độ nghiêm ngặt
    • Chỉ gắn header quy kết ẩn trên các máy chủ gốc đã xác minh
    • Giữ định dạng yêu cầu chỉ dành cho OpenAI (service_tier, store, tương thích reasoning, gợi ý prompt-cache)

    Tuyến proxy/tương thích:

    • Dùng hành vi tương thích nới lỏng hơn
    • Loại bỏ store của Completions khỏi payload openai-completions không gốc
    • Chấp nhận JSON truyền qua nâng cao params.extra_body/params.extraBody cho các proxy Completions tương thích OpenAI
    • Chấp nhận params.chat_template_kwargs cho các proxy Completions tương thích OpenAI như vLLM
    • Không ép buộc schema công cụ nghiêm ngặt hoặc header chỉ dành cho tuyến gốc

    Azure OpenAI dùng truyền tải gốc và hành vi tương thích nhưng không nhận các header quy kết ẩn.

    Liên quan