FAQ
FAQ: configurazione al primo avvio
Domande e risposte per avvio rapido e prima esecuzione. Per operazioni quotidiane, modelli, autenticazione, sessioni e risoluzione dei problemi consulta le FAQ principali.
Avvio rapido e configurazione della prima esecuzione
Sono bloccato, modo più rapido per sbloccarmi
Usa un agente IA locale che possa vedere la tua macchina. È molto più efficace che chiedere su Discord, perché la maggior parte dei casi "sono bloccato" sono problemi di configurazione locale o di ambiente che gli aiutanti remoti non possono ispezionare.
- Claude Code: https://www.anthropic.com/claude-code/
- OpenAI Codex: https://openai.com/codex/
Questi strumenti possono leggere il repo, eseguire comandi, ispezionare i log e aiutarti a correggere la configurazione a livello di macchina (PATH, servizi, permessi, file di autenticazione). Fornisci loro il checkout completo del sorgente tramite l'installazione modificabile (git):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Questo installa OpenClaw da un checkout git, così l'agente può leggere codice e documentazione e
ragionare sulla versione esatta che stai eseguendo. Puoi sempre tornare alla versione stabile in seguito
rieseguendo l'installer senza --install-method git.
Suggerimento: chiedi all'agente di pianificare e supervisionare la correzione (passo dopo passo), poi esegui solo i comandi necessari. Questo mantiene le modifiche piccole e più facili da verificare.
Se scopri un bug reale o una correzione, apri una issue su GitHub o invia una PR: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pulls
Inizia con questi comandi (condividi gli output quando chiedi aiuto):
openclaw status
openclaw models status
openclaw doctor
Cosa fanno:
openclaw status: istantanea rapida dello stato di Gateway/agente + configurazione di base.openclaw models status: controlla autenticazione dei provider + disponibilità dei modelli.openclaw doctor: convalida e ripara problemi comuni di configurazione/stato.
Altri controlli CLI utili: openclaw status --all, openclaw logs --follow,
openclaw gateway status, openclaw health --verbose.
Ciclo rapido di debug: Primi 60 secondi se qualcosa è rotto. Documentazione di installazione: Installazione, Flag dell'installer, Aggiornamento.
Heartbeat continua a saltare. Cosa significano i motivi di salto?
Motivi comuni per cui Heartbeat viene saltato:
quiet-hours: fuori dalla finestra di ore attive configurataempty-heartbeat-file:HEARTBEAT.mdesiste ma contiene solo una struttura vuota/solo intestazionino-tasks-due: la modalità attività diHEARTBEAT.mdè attiva ma nessuno degli intervalli delle attività è ancora scadutoalerts-disabled: tutta la visibilità di Heartbeat è disattivata (showOk,showAlertseuseIndicatorsono tutti disattivati)
In modalità attività, i timestamp di scadenza vengono avanzati solo dopo il completamento di una reale esecuzione di Heartbeat. Le esecuzioni saltate non segnano le attività come completate.
Documentazione: Heartbeat, Automazione e attività.
Modo consigliato per installare e configurare OpenClaw
Il repo consiglia l'esecuzione da sorgente e l'uso dell'onboarding:
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
La procedura guidata può anche compilare automaticamente gli asset della UI. Dopo l'onboarding, in genere esegui il Gateway sulla porta 18789.
Da sorgente (contributori/dev):
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build
openclaw onboard
Se non hai ancora un'installazione globale, eseguilo tramite pnpm openclaw onboard.
Come apro la dashboard dopo l'onboarding?
La procedura guidata apre il browser con un URL pulito (non tokenizzato) della dashboard subito dopo l'onboarding e stampa anche il link nel riepilogo. Tieni aperta quella scheda; se non si è aperta, copia/incolla l'URL stampato sulla stessa macchina.
Come autentico la dashboard su localhost rispetto a remoto?
Localhost (stessa macchina):
- Apri
http://127.0.0.1:18789/. - Se richiede l'autenticazione con segreto condiviso, incolla il token o la password configurati nelle impostazioni della Control UI.
- Fonte del token:
gateway.auth.token(oOPENCLAW_GATEWAY_TOKEN). - Fonte della password:
gateway.auth.password(oOPENCLAW_GATEWAY_PASSWORD). - Se non è ancora configurato alcun segreto condiviso, genera un token con
openclaw doctor --generate-gateway-token.
Non su localhost:
- Tailscale Serve (consigliato): mantieni il bind su loopback, esegui
openclaw gateway --tailscale serve, aprihttps://<magicdns>/. Segateway.auth.allowTailscaleètrue, gli header di identità soddisfano l'autenticazione Control UI/WebSocket (nessun segreto condiviso da incollare, presuppone un host Gateway attendibile); le API HTTP richiedono comunque l'autenticazione con segreto condiviso, a meno che tu non usi deliberatamente private-ingressnoneo l'autenticazione HTTP trusted-proxy. I tentativi errati simultanei di autenticazione Serve dallo stesso client vengono serializzati prima che il limitatore di autenticazione fallita li registri, quindi il secondo tentativo errato può già mostrareretry later. - Bind tailnet: esegui
openclaw gateway --bind tailnet --token "<token>"(o configura l'autenticazione con password), aprihttp://<tailscale-ip>:18789/, poi incolla il segreto condiviso corrispondente nelle impostazioni della dashboard. - Reverse proxy identity-aware: mantieni il Gateway dietro un proxy attendibile, configura
gateway.auth.mode: "trusted-proxy", poi apri l'URL del proxy. I proxy local loopback sullo stesso host richiedonogateway.auth.trustedProxy.allowLoopback = trueesplicito. - Tunnel SSH:
ssh -N -L 18789:127.0.0.1:18789 user@hostpoi aprihttp://127.0.0.1:18789/. L'autenticazione con segreto condiviso si applica comunque sul tunnel; incolla il token o la password configurati se richiesto.
Consulta Dashboard e Superfici web per le modalità di bind e i dettagli di autenticazione.
Perché ci sono due configurazioni di approvazione exec per le approvazioni in chat?
Controllano livelli diversi:
approvals.exec: inoltra le richieste di approvazione alle destinazioni chatchannels.<channel>.execApprovals: fa agire quel canale come client di approvazione nativo per le approvazioni exec
La policy exec dell'host rimane comunque il vero gate di approvazione. La configurazione della chat controlla solo dove compaiono le richieste di approvazione e come le persone possono rispondere.
Nella maggior parte delle configurazioni non ti servono entrambe:
- Se la chat supporta già comandi e risposte,
/approvenella stessa chat funziona tramite il percorso condiviso. - Se un canale nativo supportato può inferire gli approvatori in modo sicuro, OpenClaw ora abilita automaticamente le approvazioni native DM-first quando
channels.<channel>.execApprovals.enablednon è impostato o è"auto". - Quando sono disponibili schede/pulsanti di approvazione nativi, quella UI nativa è il percorso principale; l'agente dovrebbe includere un comando manuale
/approvesolo se il risultato dello strumento indica che le approvazioni in chat non sono disponibili o che l'approvazione manuale è l'unico percorso. - Usa
approvals.execsolo quando le richieste devono essere inoltrate anche ad altre chat o stanze operative esplicite. - Usa
channels.<channel>.execApprovals.target: "channel"o"both"solo quando vuoi esplicitamente che le richieste di approvazione vengano pubblicate nella stanza/topic di origine. - Le approvazioni dei Plugin sono ancora separate: usano
/approvenella stessa chat per impostazione predefinita, forwarding opzionaleapprovals.plugin, e solo alcuni canali nativi mantengono la gestione nativa delle approvazioni dei Plugin in aggiunta.
Versione breve: il forwarding serve per l'instradamento, la configurazione del client nativo serve per una UX più ricca specifica del canale. Consulta Approvazioni Exec.
Di quale runtime ho bisogno?
È richiesto Node >= 22. pnpm è consigliato. Bun non è consigliato per il Gateway.
Funziona su Raspberry Pi?
Sì. Il Gateway è leggero: la documentazione indica 512MB-1GB RAM, 1 core e circa 500MB di disco come sufficienti per uso personale, e nota che un Raspberry Pi 4 può eseguirlo.
Se vuoi più margine (log, media, altri servizi), sono consigliati 2GB, ma non è un minimo rigido.
Suggerimento: un piccolo Pi/VPS può ospitare il Gateway e puoi associare nodi sul tuo laptop/telefono per schermo/fotocamera/canvas locali o esecuzione di comandi. Consulta Nodi.
Suggerimenti per installazioni su Raspberry Pi?
Versione breve: funziona, ma aspettati qualche asperità.
- Usa un OS 64-bit e mantieni Node >= 22.
- Preferisci l'installazione modificabile (git) così puoi vedere i log e aggiornare rapidamente.
- Inizia senza canali/skills, poi aggiungili uno alla volta.
- Se incontri strani problemi binari, di solito è un problema di compatibilità ARM.
Documentazione: Linux, Installazione.
È bloccato su wake up my friend / l'onboarding non si schiude. E adesso?
Quella schermata dipende dal Gateway raggiungibile e autenticato. Anche la TUI invia "Wake up, my friend!" automaticamente alla prima schiusa. Se vedi quella riga senza nessuna risposta e i token restano a 0, l'agente non è mai stato eseguito.
- Riavvia il Gateway:
openclaw gateway restart
- Controlla stato + autenticazione:
openclaw status
openclaw models status
openclaw logs --follow
- Se resta ancora bloccato, esegui:
openclaw doctor
Se il Gateway è remoto, assicurati che il tunnel/la connessione Tailscale sia attiva e che la UI punti al Gateway corretto. Consulta Accesso remoto.
Posso migrare la mia configurazione su una nuova macchina (Mac mini) senza rifare l'onboarding?
Sì. Copia la directory di stato e il workspace, poi esegui Doctor una volta. Questo mantiene il tuo bot "esattamente uguale" (memoria, cronologia delle sessioni, autenticazione e stato dei canali) purché copi entrambe le posizioni:
- Installa OpenClaw sulla nuova macchina.
- Copia
$OPENCLAW_STATE_DIR(predefinito:~/.openclaw) dalla vecchia macchina. - Copia il tuo workspace (predefinito:
~/.openclaw/workspace). - Esegui
openclaw doctore riavvia il servizio Gateway.
Questo preserva configurazione, profili di autenticazione, credenziali WhatsApp, sessioni e memoria. Se sei in modalità remota, ricorda che l'host Gateway possiede lo store delle sessioni e il workspace.
Importante: se fai solo commit/push del workspace su GitHub, stai eseguendo il backup
di memoria + file di bootstrap, ma non della cronologia delle sessioni o dell'autenticazione. Questi si trovano
sotto ~/.openclaw/ (per esempio ~/.openclaw/agents/<agentId>/sessions/).
Correlati: Migrazione, Dove si trovano le cose su disco, Workspace dell'agente, Doctor, Modalità remota.
Dove vedo cosa c'è di nuovo nell'ultima versione?
Consulta il changelog su GitHub: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
Le voci più recenti sono in alto. Se la sezione superiore è contrassegnata come Unreleased, la sezione datata successiva è l'ultima versione rilasciata. Le voci sono raggruppate per Highlights, Changes e Fixes (più sezioni documentazione/altro quando necessario).
Impossibile accedere a docs.openclaw.ai (errore SSL)
Alcune connessioni Comcast/Xfinity bloccano erroneamente docs.openclaw.ai tramite Xfinity
Advanced Security. Disattivalo o inserisci docs.openclaw.ai nella allowlist, poi riprova.
Aiutaci a sbloccarlo segnalandolo qui: https://spa.xfinity.com/check_url_status.
Se non riesci ancora a raggiungere il sito, la documentazione è replicata su GitHub: https://github.com/openclaw/openclaw/tree/main/docs
Differenza tra stable e beta
Stable e beta sono npm dist-tags, non linee di codice separate:
latest= stablebeta= build anticipata per i test
Di solito, una release stable arriva prima su beta, poi un passaggio esplicito
di promozione sposta quella stessa versione su latest. I maintainer possono anche
pubblicare direttamente su latest quando necessario. Ecco perché beta e stable possono
puntare alla stessa versione dopo la promozione.
Vedi cosa è cambiato: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
Per i comandi di installazione in una riga e la differenza tra beta e dev, vedi l'accordion qui sotto.
Come installo la versione beta e qual è la differenza tra beta e dev?
Beta è il npm dist-tag beta (può corrispondere a latest dopo la promozione).
Dev è la punta mobile di main (git); quando viene pubblicata, usa il npm dist-tag dev.
Comandi in una riga (macOS/Linux):
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git
Installer Windows (PowerShell): https://openclaw.ai/install.ps1
Maggiori dettagli: Canali di sviluppo e Flag dell'installer.
Come provo le modifiche più recenti?
Due opzioni:
- Canale dev (git checkout):
openclaw update --channel dev
Questo passa al branch main e aggiorna dal sorgente.
- Installazione modificabile (dal sito dell'installer):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Ti dà un repo locale che puoi modificare, poi aggiornare tramite git.
Se preferisci un clone pulito manuale, usa:
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
Documentazione: Aggiornamento, Canali di sviluppo, Installazione.
Quanto tempo richiedono di solito installazione e onboarding?
Indicazione approssimativa:
- Installazione: 2-5 minuti
- Onboarding: 5-15 minuti a seconda di quanti canali/modelli configuri
Se si blocca, usa Installer bloccato e il ciclo rapido di debug in Sono bloccato.
Installer bloccato? Come ottengo più feedback?
Esegui di nuovo l'installer con output dettagliato:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose
Installazione beta con output dettagliato:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose
Per un'installazione modificabile (git):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose
Equivalente Windows (PowerShell):
# install.ps1 has no dedicated -Verbose flag yet.
Set-PSDebug -Trace 1
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
Set-PSDebug -Trace 0
Altre opzioni: Flag dell'installer.
L'installazione su Windows dice che git non è stato trovato o openclaw non è riconosciuto
Due problemi comuni su Windows:
1) errore npm spawn git / git non trovato
- Installa Git for Windows e assicurati che
gitsia nel tuo PATH. - Chiudi e riapri PowerShell, poi esegui di nuovo l'installer.
2) openclaw non è riconosciuto dopo l'installazione
-
La cartella bin globale di npm non è nel PATH.
-
Controlla il percorso:
npm config get prefix -
Aggiungi quella directory al PATH utente (su Windows non serve il suffisso
\bin; sulla maggior parte dei sistemi è%AppData%\npm). -
Chiudi e riapri PowerShell dopo aver aggiornato il PATH.
Se vuoi la configurazione Windows più fluida, usa WSL2 invece di Windows nativo. Documentazione: Windows.
L'output exec di Windows mostra testo cinese illeggibile - cosa devo fare?
Di solito si tratta di una mancata corrispondenza della code page della console nelle shell Windows native.
Sintomi:
- L'output di
system.run/execrende il cinese come mojibake - Lo stesso comando appare correttamente in un altro profilo terminale
Soluzione rapida in PowerShell:
chcp 65001
[Console]::InputEncoding = [System.Text.UTF8Encoding]::new($false)
[Console]::OutputEncoding = [System.Text.UTF8Encoding]::new($false)
$OutputEncoding = [System.Text.UTF8Encoding]::new($false)
Poi riavvia il Gateway e riprova il comando:
openclaw gateway restart
Se riesci ancora a riprodurre il problema sull'ultima versione di OpenClaw, seguilo/segnalalo in:
La documentazione non ha risposto alla mia domanda - come ottengo una risposta migliore?
Usa l'installazione modificabile (git) così avrai tutto il sorgente e la documentazione in locale, poi chiedi al tuo bot (o Claude/Codex) da quella cartella così potrà leggere il repo e rispondere con precisione.
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
Maggiori dettagli: Installazione e Flag dell'installer.
Come installo OpenClaw su Linux?
Risposta breve: segui la guida Linux, poi esegui l'onboarding.
- Percorso rapido Linux + installazione del servizio: Linux.
- Procedura completa: Primi passi.
- Installer + aggiornamenti: Installazione e aggiornamenti.
Come installo OpenClaw su un VPS?
Qualsiasi VPS Linux va bene. Installa sul server, poi usa SSH/Tailscale per raggiungere il Gateway.
Guide: exe.dev, Hetzner, Fly.io. Accesso remoto: Gateway remoto.
Dove sono le guide di installazione cloud/VPS?
Manteniamo un hub hosting con i provider comuni. Scegline uno e segui la guida:
- Hosting VPS (tutti i provider in un unico posto)
- Fly.io
- Hetzner
- exe.dev
Come funziona nel cloud: il Gateway viene eseguito sul server e tu vi accedi dal tuo laptop/telefono tramite la Control UI (o Tailscale/SSH). Il tuo stato + workspace risiedono sul server, quindi tratta l'host come fonte di verità e fanne il backup.
Puoi associare nodi (Mac/iOS/Android/headless) a quel Gateway cloud per accedere a schermo/camera/canvas locali o eseguire comandi sul tuo laptop mantenendo il Gateway nel cloud.
Hub: Piattaforme. Accesso remoto: Gateway remoto. Nodi: Nodi, CLI nodi.
Posso chiedere a OpenClaw di aggiornarsi da solo?
Risposta breve: possibile, non consigliato. Il flusso di aggiornamento può riavviare il Gateway (interrompendo la sessione attiva), può richiedere un git checkout pulito e può chiedere conferma. Più sicuro: esegui gli aggiornamenti da una shell come operatore.
Usa la CLI:
openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart
Se devi automatizzare da un agent:
openclaw update --yes --no-restart
openclaw gateway restart
Documentazione: Aggiornamento, Aggiornamento.
Che cosa fa davvero l'onboarding?
openclaw onboard è il percorso di configurazione consigliato. In modalità locale ti guida attraverso:
- Configurazione modello/auth (OAuth del provider, API key, setup-token Anthropic, più opzioni per modelli locali come LM Studio)
- Posizione del workspace + file bootstrap
- Impostazioni Gateway (bind/port/auth/tailscale)
- Canali (WhatsApp, Telegram, Discord, Mattermost, Signal, iMessage, più Plugin di canale inclusi come QQ Bot)
- Installazione daemon (LaunchAgent su macOS; unità utente systemd su Linux/WSL2)
- Controlli di integrità e selezione delle Skills
Avvisa anche se il modello configurato è sconosciuto o non dispone di auth.
Mi serve un abbonamento Claude o OpenAI per eseguirlo?
No. Puoi eseguire OpenClaw con API key (Anthropic/OpenAI/altri) oppure con modelli solo locali così i tuoi dati restano sul tuo dispositivo. Gli abbonamenti (Claude Pro/Max o OpenAI Codex) sono modi opzionali per autenticare quei provider.
Per Anthropic in OpenClaw, la divisione pratica è:
- API key Anthropic: normale fatturazione dell'API Anthropic
- Claude CLI / auth da abbonamento Claude in OpenClaw: lo staff Anthropic
ci ha detto che questo uso è di nuovo consentito, e OpenClaw tratta l'uso di
claude -pcome autorizzato per questa integrazione salvo nuova policy pubblicata da Anthropic
Per host Gateway di lunga durata, le API key Anthropic restano comunque la configurazione più prevedibile. OAuth di OpenAI Codex è supportato esplicitamente per strumenti esterni come OpenClaw.
OpenClaw supporta anche altre opzioni in stile abbonamento hosted, tra cui Qwen Cloud Coding Plan, MiniMax Coding Plan e Z.AI / GLM Coding Plan.
Documentazione: Anthropic, OpenAI, Qwen Cloud, MiniMax, Modelli GLM, Modelli locali, Modelli.
Posso usare l'abbonamento Claude Max senza un'API key?
Sì.
Lo staff Anthropic ci ha detto che l'uso di Claude CLI in stile OpenClaw è di nuovo consentito, quindi
OpenClaw tratta l'auth da abbonamento Claude e l'uso di claude -p come autorizzati
per questa integrazione salvo nuova policy pubblicata da Anthropic. Se vuoi
la configurazione lato server più prevedibile, usa invece un'API key Anthropic.
Supportate l'auth da abbonamento Claude (Claude Pro o Max)?
Sì.
Lo staff Anthropic ci ha detto che questo uso è di nuovo consentito, quindi OpenClaw tratta
il riuso di Claude CLI e l'uso di claude -p come autorizzati per questa integrazione
salvo nuova policy pubblicata da Anthropic.
Anthropic setup-token è ancora disponibile come percorso token supportato da OpenClaw, ma ora OpenClaw preferisce il riuso di Claude CLI e claude -p quando disponibili.
Per carichi di lavoro di produzione o multiutente, l'auth con API key Anthropic resta comunque la
scelta più sicura e prevedibile. Se vuoi altre opzioni hosted in stile abbonamento
in OpenClaw, vedi OpenAI, Qwen / Model
Cloud, MiniMax e Modelli
GLM.
Perché vedo HTTP 429 rate_limit_error da Anthropic?
Significa che la tua quota/rate limit Anthropic è esaurita per la finestra corrente. Se usi Claude CLI, attendi il reset della finestra o aggiorna il tuo piano. Se usi un'API key Anthropic, controlla la Console Anthropic per uso/fatturazione e aumenta i limiti secondo necessità.
Se il messaggio è specificamente:
Extra usage is required for long context requests, la richiesta sta tentando di usare
la beta del contesto da 1M di Anthropic (context1m: true). Funziona solo quando la tua
credenziale è idonea per la fatturazione del contesto esteso (fatturazione con chiave API o il
percorso Claude-login di OpenClaw con Extra Usage abilitato).
Suggerimento: imposta un modello di fallback così OpenClaw può continuare a rispondere mentre un provider è soggetto a limiti di frequenza. Vedi Modelli, OAuth e /gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context.
AWS Bedrock è supportato?
Sì. OpenClaw include un provider Amazon Bedrock (Converse) integrato. Con i marcatori env AWS presenti, OpenClaw può rilevare automaticamente il catalogo Bedrock streaming/testo e unirlo come provider implicito amazon-bedrock; altrimenti puoi abilitare esplicitamente plugins.entries.amazon-bedrock.config.discovery.enabled o aggiungere una voce provider manuale. Vedi Amazon Bedrock e Provider di modelli. Se preferisci un flusso con chiave gestita, un proxy compatibile con OpenAI davanti a Bedrock resta comunque un'opzione valida.
Come funziona l'autenticazione Codex?
OpenClaw supporta OpenAI Code (Codex) tramite OAuth (accesso ChatGPT). Usa
openai/gpt-5.5 con agentRuntime.id: "codex" per la configurazione comune:
autenticazione con abbonamento ChatGPT/Codex più esecuzione nativa del server app Codex. Usa
openai-codex/gpt-5.5 solo quando vuoi OAuth Codex tramite il runtime
Codex predefinito. L'accesso diretto con chiave API OpenAI resta disponibile per le superfici
API OpenAI non agent e per i modelli agent tramite un profilo con chiave API
openai-codex ordinato.
Vedi Provider di modelli e Onboarding (CLI).
Perché OpenClaw menziona ancora openai-codex?
openai-codex è l'id del provider e del profilo di autenticazione per OAuth ChatGPT/Codex.
Anche le configurazioni più vecchie lo usavano come prefisso di modello:
openai/gpt-5.5= autenticazione con abbonamento ChatGPT/Codex con runtime Codex nativo per i turni agentopenai-codex/gpt-5.5= route modello legacy riparata daopenclaw doctor --fixopenai/gpt-5.5più un profilo con chiave APIopenai-codexordinato = autenticazione con chiave API per un modello agent OpenAIopenai-codex:...= id del profilo di autenticazione, non un riferimento di modello
Se vuoi il percorso diretto di fatturazione/limiti di OpenAI Platform, imposta
OPENAI_API_KEY. Se vuoi l'autenticazione con abbonamento ChatGPT/Codex, accedi con
openclaw models auth login --provider openai-codex. Mantieni il riferimento del modello come
openai/gpt-5.5; i riferimenti modello openai-codex/* sono configurazioni legacy che
openclaw doctor --fix riscrive.
Perché i limiti OAuth Codex possono differire da ChatGPT web?
OAuth Codex usa finestre di quota gestite da OpenAI e dipendenti dal piano. In pratica, questi limiti possono differire dall'esperienza del sito/app ChatGPT, anche quando entrambi sono collegati allo stesso account.
OpenClaw può mostrare le finestre di utilizzo/quota del provider attualmente visibili in
openclaw models status, ma non inventa né normalizza i diritti ChatGPT web
trasformandoli in accesso API diretto. Se vuoi il percorso diretto di fatturazione/limiti di OpenAI Platform, usa openai/* con una chiave API.
Supportate l'autenticazione con abbonamento OpenAI (OAuth Codex)?
Sì. OpenClaw supporta pienamente OAuth con abbonamento OpenAI Code (Codex). OpenAI consente esplicitamente l'uso di OAuth con abbonamento in strumenti/flussi di lavoro esterni come OpenClaw. L'onboarding può eseguire il flusso OAuth per te.
Vedi OAuth, Provider di modelli e Onboarding (CLI).
Come configuro OAuth per Gemini CLI?
Gemini CLI usa un flusso di autenticazione Plugin, non un client id o un secret in openclaw.json.
Passaggi:
- Installa Gemini CLI localmente in modo che
geminisia suPATH- Homebrew:
brew install gemini-cli - npm:
npm install -g @google/gemini-cli
- Homebrew:
- Abilita il Plugin:
openclaw plugins enable google - Accedi:
openclaw models auth login --provider google-gemini-cli --set-default - Modello predefinito dopo l'accesso:
google-gemini-cli/gemini-3-flash-preview - Se le richieste falliscono, imposta
GOOGLE_CLOUD_PROJECToGOOGLE_CLOUD_PROJECT_IDsull'host del Gateway
Questo archivia i token OAuth nei profili di autenticazione sull'host del Gateway. Dettagli: Provider di modelli.
Un modello locale va bene per chat informali?
Di solito no. OpenClaw richiede contesto ampio e sicurezza robusta; le schede piccole troncano e disperdono informazioni. Se devi farlo, esegui localmente la build del modello più grande che puoi (LM Studio) e vedi /gateway/local-models. I modelli più piccoli/quantizzati aumentano il rischio di prompt injection - vedi Sicurezza.
Come mantengo il traffico dei modelli ospitati in una regione specifica?
Scegli endpoint vincolati alla regione. OpenRouter espone opzioni ospitate negli Stati Uniti per MiniMax, Kimi e GLM; scegli la variante ospitata negli Stati Uniti per mantenere i dati nella regione. Puoi comunque elencare Anthropic/OpenAI accanto a questi usando models.mode: "merge" così i fallback restano disponibili rispettando il provider regionale selezionato.
Devo comprare un Mac Mini per installarlo?
No. OpenClaw gira su macOS o Linux (Windows tramite WSL2). Un Mac mini è opzionale - alcune persone ne comprano uno come host sempre acceso, ma vanno bene anche un piccolo VPS, un server domestico o un box di classe Raspberry Pi.
Ti serve un Mac solo per strumenti disponibili solo su macOS. Per iMessage, usa BlueBubbles (consigliato) - il server BlueBubbles gira su qualsiasi Mac e il Gateway può girare su Linux o altrove. Se vuoi altri strumenti disponibili solo su macOS, esegui il Gateway su un Mac o abbina un nodo macOS.
Documentazione: BlueBubbles, Nodi, Modalità remota Mac.
Mi serve un Mac mini per il supporto iMessage?
Ti serve un dispositivo macOS qualsiasi con accesso a Messaggi. Non deve essere un Mac mini - va bene qualsiasi Mac. Usa BlueBubbles (consigliato) per iMessage - il server BlueBubbles gira su macOS, mentre il Gateway può girare su Linux o altrove.
Configurazioni comuni:
- Esegui il Gateway su Linux/VPS e il server BlueBubbles su qualsiasi Mac con accesso a Messaggi.
- Esegui tutto sul Mac se vuoi la configurazione più semplice su una sola macchina.
Documentazione: BlueBubbles, Nodi, Modalità remota Mac.
Se compro un Mac mini per eseguire OpenClaw, posso collegarlo al mio MacBook Pro?
Sì. Il Mac mini può eseguire il Gateway e il tuo MacBook Pro può connettersi come
nodo (dispositivo companion). I nodi non eseguono il Gateway - forniscono capacità extra
come schermo/fotocamera/canvas e system.run su quel dispositivo.
Schema comune:
- Gateway sul Mac mini (sempre acceso).
- MacBook Pro esegue l'app macOS o un host nodo e si abbina al Gateway.
- Usa
openclaw nodes status/openclaw nodes listper vederlo.
Documentazione: Nodi, CLI dei nodi.
Posso usare Bun?
Bun è sconsigliato. Vediamo bug di runtime, soprattutto con WhatsApp e Telegram. Usa Node per Gateway stabili.
Se vuoi comunque sperimentare con Bun, fallo su un Gateway non di produzione senza WhatsApp/Telegram.
Telegram: cosa va in allowFrom?
channels.telegram.allowFrom è l'ID utente Telegram del mittente umano (numerico). Non è il nome utente del bot.
La configurazione richiede solo ID utente numerici. Se hai già voci legacy @username nella configurazione, openclaw doctor --fix può provare a risolverle.
Più sicuro (senza bot di terze parti):
- Invia un DM al tuo bot, poi esegui
openclaw logs --followe leggifrom.id.
API Bot ufficiale:
- Invia un DM al tuo bot, poi chiama
https://api.telegram.org/bot<bot_token>/getUpdatese leggimessage.from.id.
Terze parti (meno privato):
- Invia un DM a
@userinfoboto@getidsbot.
Vedi /channels/telegram.
Più persone possono usare un numero WhatsApp con istanze OpenClaw diverse?
Sì, tramite routing multi-agent. Associa il DM WhatsApp di ciascun mittente (peer kind: "direct", mittente E.164 come +15551234567) a un agentId diverso, così ogni persona ottiene il proprio workspace e archivio sessioni. Le risposte arrivano comunque dallo stesso account WhatsApp e il controllo di accesso ai DM (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) è globale per account WhatsApp. Vedi Routing multi-agent e WhatsApp.
Posso eseguire un agent "chat veloce" e un agent "Opus per programmare"?
Sì. Usa il routing multi-agent: assegna a ogni agent il proprio modello predefinito, poi associa le route in ingresso (account provider o peer specifici) a ciascun agent. Un esempio di configurazione si trova in Routing multi-agent. Vedi anche Modelli e Configurazione.
Homebrew funziona su Linux?
Sì. Homebrew supporta Linux (Linuxbrew). Configurazione rapida:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
brew install <formula>
Se esegui OpenClaw tramite systemd, assicurati che il PATH del servizio includa /home/linuxbrew/.linuxbrew/bin (o il tuo prefisso brew) così gli strumenti installati con brew si risolvono nelle shell non di login.
Le build recenti antepongono anche directory bin utente comuni nei servizi systemd Linux (per esempio ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin) e rispettano PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR e FNM_DIR quando impostate.
Differenza tra l'installazione git modificabile e l'installazione npm
- Installazione modificabile (git): checkout completo del sorgente, modificabile, ideale per contributor. Esegui le build localmente e puoi applicare patch a codice/documentazione.
- Installazione npm: installazione globale della CLI, senza repo, ideale per "farlo semplicemente girare". Gli aggiornamenti arrivano dai dist-tag npm.
Documentazione: Primi passi, Aggiornamento.
Posso passare tra installazioni npm e git in seguito?
Sì. Usa openclaw update --channel ... quando OpenClaw è già installato.
Questo non elimina i tuoi dati - cambia solo l'installazione del codice OpenClaw.
Il tuo stato (~/.openclaw) e il workspace (~/.openclaw/workspace) restano intatti.
Da npm a git:
openclaw update --channel dev
Da git a npm:
openclaw update --channel stable
Aggiungi --dry-run per visualizzare prima in anteprima il cambio di modalità pianificato. L'updater esegue
i follow-up di Doctor, aggiorna le sorgenti Plugin per il canale di destinazione e
riavvia il Gateway a meno che tu non passi --no-restart.
Anche l'installer può forzare una delle due modalità:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method npm
Suggerimenti di backup: vedi Strategia di backup.
Devo eseguire il Gateway sul mio laptop o su un VPS?
Risposta breve: se vuoi affidabilità 24/7, usa un VPS. Se vuoi il minimo attrito e per te vanno bene sospensione/riavvii, eseguilo localmente.
Laptop (Gateway locale)
- Pro: nessun costo del server, accesso diretto ai file locali, finestra del browser live.
- Contro: sospensione/cadute di rete = disconnessioni, aggiornamenti/riavvii del sistema operativo interrompono, deve restare attivo.
VPS / cloud
- Pro: sempre attivo, rete stabile, nessun problema di sospensione del laptop, più facile da mantenere in esecuzione.
- Contro: spesso eseguito headless (usa screenshot), solo accesso remoto ai file, devi usare SSH per gli aggiornamenti.
Nota specifica per OpenClaw: WhatsApp/Telegram/Slack/Mattermost/Discord funzionano tutti bene da un VPS. L'unico vero compromesso è browser headless rispetto a una finestra visibile. Vedi Browser.
Impostazione predefinita consigliata: VPS se in passato hai avuto disconnessioni del gateway. Il locale è ottimo quando usi attivamente il Mac e vuoi accesso ai file locali o automazione dell'interfaccia utente con un browser visibile.
Quanto è importante eseguire OpenClaw su una macchina dedicata?
Non è obbligatorio, ma consigliato per affidabilità e isolamento.
- Host dedicato (VPS/Mac mini/Pi): sempre attivo, meno interruzioni per sospensione/riavvio, autorizzazioni più pulite, più facile da mantenere in esecuzione.
- Laptop/desktop condiviso: va benissimo per test e uso attivo, ma aspettati pause quando la macchina va in sospensione o si aggiorna.
Se vuoi il meglio di entrambi i mondi, mantieni il Gateway su un host dedicato e abbina il tuo laptop come Node per gli strumenti locali di schermo/fotocamera/exec. Vedi Node. Per indicazioni sulla sicurezza, leggi Sicurezza.
Quali sono i requisiti minimi del VPS e il sistema operativo consigliato?
OpenClaw è leggero. Per un Gateway di base + un canale chat:
- Minimo assoluto: 1 vCPU, 1GB RAM, ~500MB disco.
- Consigliato: 1-2 vCPU, 2GB RAM o più per margine (log, media, più canali). Gli strumenti Node e l'automazione del browser possono richiedere molte risorse.
Sistema operativo: usa Ubuntu LTS (o qualsiasi Debian/Ubuntu moderno). Il percorso di installazione Linux è testato meglio lì.
Documentazione: Linux, hosting VPS.
Posso eseguire OpenClaw in una VM e quali sono i requisiti?
Sì. Tratta una VM come un VPS: deve essere sempre attiva, raggiungibile e avere abbastanza RAM per il Gateway e tutti i canali che abiliti.
Indicazioni di base:
- Minimo assoluto: 1 vCPU, 1GB RAM.
- Consigliato: 2GB RAM o più se esegui più canali, automazione del browser o strumenti multimediali.
- Sistema operativo: Ubuntu LTS o un altro Debian/Ubuntu moderno.
Se usi Windows, WSL2 è la configurazione in stile VM più semplice e offre la migliore compatibilità con gli strumenti. Vedi Windows, hosting VPS. Se esegui macOS in una VM, vedi VM macOS.
Correlati
- FAQ — le FAQ principali (modelli, sessioni, Gateway, sicurezza, altro)
- Panoramica dell'installazione
- Primi passi
- Risoluzione dei problemi