Providers
Fuochi d'artificio
Fireworks espone modelli open-weight e instradati tramite un'API compatibile con OpenAI. OpenClaw include un provider Plugin Fireworks in bundle fornito con due modelli Kimi pre-catalogati e accetta qualsiasi modello Fireworks o id router a runtime.
| Proprietà | Valore |
|---|---|
| Id provider | fireworks (alias: fireworks-ai) |
| Plugin | in bundle, enabledByDefault: true |
| Var env auth | FIREWORKS_API_KEY |
| Flag onboarding | --auth-choice fireworks-api-key |
| Flag CLI diretto | --fireworks-api-key <key> |
| API | compatibile con OpenAI (openai-completions) |
| URL base | https://api.fireworks.ai/inference/v1 |
| Modello predefinito | fireworks/accounts/fireworks/routers/kimi-k2p5-turbo |
| Alias predefinito | Kimi K2.5 Turbo |
Per iniziare
Imposta la chiave API Fireworks
openclaw onboard --auth-choice fireworks-api-key
openclaw onboard --non-interactive \
--auth-choice fireworks-api-key \
--fireworks-api-key "$FIREWORKS_API_KEY"
export FIREWORKS_API_KEY=fw-...
L'onboarding memorizza la chiave per il provider fireworks nei tuoi profili di autenticazione e imposta il router Fire Pass Kimi K2.5 Turbo come modello predefinito.
Verifica che il modello sia disponibile
openclaw models list --provider fireworks
L'elenco dovrebbe includere Kimi K2.6 e Kimi K2.5 Turbo (Fire Pass). Se FIREWORKS_API_KEY non viene risolta, openclaw models status --json segnala la credenziale mancante in auth.unusableProfiles.
Configurazione non interattiva
Per installazioni tramite script o CI, passa tutto dalla riga di comando:
openclaw onboard --non-interactive \
--mode local \
--auth-choice fireworks-api-key \
--fireworks-api-key "$FIREWORKS_API_KEY" \
--skip-health \
--accept-risk
Catalogo integrato
| Rif modello | Nome | Input | Contesto | Output max | Thinking |
|---|---|---|---|---|---|
fireworks/accounts/fireworks/models/kimi-k2p6 |
Kimi K2.6 | testo + immagine | 262,144 | 262,144 | Forzato su off |
fireworks/accounts/fireworks/routers/kimi-k2p5-turbo |
Kimi K2.5 Turbo (Fire Pass) | testo + immagine | 256,000 | 256,000 | Forzato su off (predefinito) |
Id modello Fireworks personalizzati
OpenClaw accetta qualsiasi modello Fireworks o id router a runtime. Usa l'id esatto mostrato da Fireworks e anteponi fireworks/. La risoluzione dinamica clona il template Fire Pass (input testo + immagine, API compatibile con OpenAI, costo predefinito zero) e disabilita automaticamente il thinking quando l'id corrisponde al pattern Kimi.
{
agents: {
defaults: {
model: {
primary: "fireworks/accounts/fireworks/models/<your-model-id>",
},
},
},
}
Come funziona il prefisso degli id modello
Ogni riferimento a un modello Fireworks in OpenClaw inizia con fireworks/ seguito dall'id esatto o dal percorso router della piattaforma Fireworks. Per esempio:
- Modello router:
fireworks/accounts/fireworks/routers/kimi-k2p5-turbo - Modello diretto:
fireworks/accounts/fireworks/models/<model-name>
OpenClaw rimuove il prefisso fireworks/ quando costruisce la richiesta API e invia il percorso restante all'endpoint Fireworks come campo model compatibile con OpenAI.
Perché il thinking è forzato su off per Kimi
Fireworks K2.6 restituisce un 400 se la richiesta contiene parametri reasoning_*, anche se Kimi supporta il thinking tramite l'API propria di Moonshot. La policy in bundle (extensions/fireworks/thinking-policy.ts) dichiara solo il livello di thinking off per gli id modello Kimi, così gli switch manuali /think e le superfici delle policy provider restano allineati al contratto di runtime.
Per usare il ragionamento Kimi end-to-end, configura il provider Moonshot e instrada lo stesso modello tramite esso.
Disponibilità dell'ambiente per il daemon
Se il Gateway viene eseguito come servizio gestito (launchd, systemd, Docker), la chiave Fireworks deve essere visibile a quel processo, non solo alla tua shell interattiva.
Su macOS, openclaw gateway install collega già ~/.openclaw/.env al file ambiente del LaunchAgent. Riesegui l'installazione (o openclaw doctor --fix) dopo aver ruotato la chiave.
Correlati
Scelta dei provider, riferimenti ai modelli e comportamento di failover.
Livelli /think, policy provider e instradamento di modelli capaci di ragionamento.
Esegui Kimi con output di thinking nativo tramite l'API propria di Moonshot.
Risoluzione generale dei problemi e FAQ.