FAQ

FAQ: configurazione al primo avvio

Domande e risposte per avvio rapido e prima esecuzione. Per operazioni quotidiane, modelli, autenticazione, sessioni e risoluzione dei problemi consulta le FAQ principali.

Avvio rapido e configurazione della prima esecuzione

Sono bloccato, modo più rapido per sbloccarmi

Usa un agente IA locale che possa vedere la tua macchina. È molto più efficace che chiedere su Discord, perché la maggior parte dei casi "sono bloccato" sono problemi di configurazione locale o di ambiente che gli aiutanti remoti non possono ispezionare.

Questi strumenti possono leggere il repo, eseguire comandi, ispezionare i log e aiutarti a correggere la configurazione a livello di macchina (PATH, servizi, permessi, file di autenticazione). Fornisci loro il checkout completo del sorgente tramite l'installazione modificabile (git):

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

Questo installa OpenClaw da un checkout git, così l'agente può leggere codice e documentazione e ragionare sulla versione esatta che stai eseguendo. Puoi sempre tornare alla versione stabile in seguito rieseguendo l'installer senza --install-method git.

Suggerimento: chiedi all'agente di pianificare e supervisionare la correzione (passo dopo passo), poi esegui solo i comandi necessari. Questo mantiene le modifiche piccole e più facili da verificare.

Se scopri un bug reale o una correzione, apri una issue su GitHub o invia una PR: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pulls

Inizia con questi comandi (condividi gli output quando chiedi aiuto):

openclaw status
openclaw models status
openclaw doctor

Cosa fanno:

  • openclaw status: istantanea rapida dello stato di Gateway/agente + configurazione di base.
  • openclaw models status: controlla autenticazione dei provider + disponibilità dei modelli.
  • openclaw doctor: convalida e ripara problemi comuni di configurazione/stato.

Altri controlli CLI utili: openclaw status --all, openclaw logs --follow, openclaw gateway status, openclaw health --verbose.

Ciclo rapido di debug: Primi 60 secondi se qualcosa è rotto. Documentazione di installazione: Installazione, Flag dell'installer, Aggiornamento.

Heartbeat continua a saltare. Cosa significano i motivi di salto?

Motivi comuni per cui Heartbeat viene saltato:

  • quiet-hours: fuori dalla finestra di ore attive configurata
  • empty-heartbeat-file: HEARTBEAT.md esiste ma contiene solo una struttura vuota/solo intestazioni
  • no-tasks-due: la modalità attività di HEARTBEAT.md è attiva ma nessuno degli intervalli delle attività è ancora scaduto
  • alerts-disabled: tutta la visibilità di Heartbeat è disattivata (showOk, showAlerts e useIndicator sono tutti disattivati)

In modalità attività, i timestamp di scadenza vengono avanzati solo dopo il completamento di una reale esecuzione di Heartbeat. Le esecuzioni saltate non segnano le attività come completate.

Documentazione: Heartbeat, Automazione e attività.

Modo consigliato per installare e configurare OpenClaw

Il repo consiglia l'esecuzione da sorgente e l'uso dell'onboarding:

curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon

La procedura guidata può anche compilare automaticamente gli asset della UI. Dopo l'onboarding, in genere esegui il Gateway sulla porta 18789.

Da sorgente (contributori/dev):

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build
openclaw onboard

Se non hai ancora un'installazione globale, eseguilo tramite pnpm openclaw onboard.

Come apro la dashboard dopo l'onboarding?

La procedura guidata apre il browser con un URL pulito (non tokenizzato) della dashboard subito dopo l'onboarding e stampa anche il link nel riepilogo. Tieni aperta quella scheda; se non si è aperta, copia/incolla l'URL stampato sulla stessa macchina.

Come autentico la dashboard su localhost rispetto a remoto?

Localhost (stessa macchina):

  • Apri http://127.0.0.1:18789/.
  • Se richiede l'autenticazione con segreto condiviso, incolla il token o la password configurati nelle impostazioni della Control UI.
  • Fonte del token: gateway.auth.token (o OPENCLAW_GATEWAY_TOKEN).
  • Fonte della password: gateway.auth.password (o OPENCLAW_GATEWAY_PASSWORD).
  • Se non è ancora configurato alcun segreto condiviso, genera un token con openclaw doctor --generate-gateway-token.

Non su localhost:

  • Tailscale Serve (consigliato): mantieni il bind su loopback, esegui openclaw gateway --tailscale serve, apri https://<magicdns>/. Se gateway.auth.allowTailscale è true, gli header di identità soddisfano l'autenticazione Control UI/WebSocket (nessun segreto condiviso da incollare, presuppone un host Gateway attendibile); le API HTTP richiedono comunque l'autenticazione con segreto condiviso, a meno che tu non usi deliberatamente private-ingress none o l'autenticazione HTTP trusted-proxy. I tentativi errati simultanei di autenticazione Serve dallo stesso client vengono serializzati prima che il limitatore di autenticazione fallita li registri, quindi il secondo tentativo errato può già mostrare retry later.
  • Bind tailnet: esegui openclaw gateway --bind tailnet --token "<token>" (o configura l'autenticazione con password), apri http://<tailscale-ip>:18789/, poi incolla il segreto condiviso corrispondente nelle impostazioni della dashboard.
  • Reverse proxy identity-aware: mantieni il Gateway dietro un proxy attendibile, configura gateway.auth.mode: "trusted-proxy", poi apri l'URL del proxy. I proxy local loopback sullo stesso host richiedono gateway.auth.trustedProxy.allowLoopback = true esplicito.
  • Tunnel SSH: ssh -N -L 18789:127.0.0.1:18789 user@host poi apri http://127.0.0.1:18789/. L'autenticazione con segreto condiviso si applica comunque sul tunnel; incolla il token o la password configurati se richiesto.

Consulta Dashboard e Superfici web per le modalità di bind e i dettagli di autenticazione.

Perché ci sono due configurazioni di approvazione exec per le approvazioni in chat?

Controllano livelli diversi:

  • approvals.exec: inoltra le richieste di approvazione alle destinazioni chat
  • channels.<channel>.execApprovals: fa agire quel canale come client di approvazione nativo per le approvazioni exec

La policy exec dell'host rimane comunque il vero gate di approvazione. La configurazione della chat controlla solo dove compaiono le richieste di approvazione e come le persone possono rispondere.

Nella maggior parte delle configurazioni non ti servono entrambe:

  • Se la chat supporta già comandi e risposte, /approve nella stessa chat funziona tramite il percorso condiviso.
  • Se un canale nativo supportato può inferire gli approvatori in modo sicuro, OpenClaw ora abilita automaticamente le approvazioni native DM-first quando channels.<channel>.execApprovals.enabled non è impostato o è "auto".
  • Quando sono disponibili schede/pulsanti di approvazione nativi, quella UI nativa è il percorso principale; l'agente dovrebbe includere un comando manuale /approve solo se il risultato dello strumento indica che le approvazioni in chat non sono disponibili o che l'approvazione manuale è l'unico percorso.
  • Usa approvals.exec solo quando le richieste devono essere inoltrate anche ad altre chat o stanze operative esplicite.
  • Usa channels.<channel>.execApprovals.target: "channel" o "both" solo quando vuoi esplicitamente che le richieste di approvazione vengano pubblicate nella stanza/topic di origine.
  • Le approvazioni dei Plugin sono ancora separate: usano /approve nella stessa chat per impostazione predefinita, forwarding opzionale approvals.plugin, e solo alcuni canali nativi mantengono la gestione nativa delle approvazioni dei Plugin in aggiunta.

Versione breve: il forwarding serve per l'instradamento, la configurazione del client nativo serve per una UX più ricca specifica del canale. Consulta Approvazioni Exec.

Di quale runtime ho bisogno?

È richiesto Node >= 22. pnpm è consigliato. Bun non è consigliato per il Gateway.

Funziona su Raspberry Pi?

Sì. Il Gateway è leggero: la documentazione indica 512MB-1GB RAM, 1 core e circa 500MB di disco come sufficienti per uso personale, e nota che un Raspberry Pi 4 può eseguirlo.

Se vuoi più margine (log, media, altri servizi), sono consigliati 2GB, ma non è un minimo rigido.

Suggerimento: un piccolo Pi/VPS può ospitare il Gateway e puoi associare nodi sul tuo laptop/telefono per schermo/fotocamera/canvas locali o esecuzione di comandi. Consulta Nodi.

Suggerimenti per installazioni su Raspberry Pi?

Versione breve: funziona, ma aspettati qualche asperità.

  • Usa un OS 64-bit e mantieni Node >= 22.
  • Preferisci l'installazione modificabile (git) così puoi vedere i log e aggiornare rapidamente.
  • Inizia senza canali/skills, poi aggiungili uno alla volta.
  • Se incontri strani problemi binari, di solito è un problema di compatibilità ARM.

Documentazione: Linux, Installazione.

È bloccato su wake up my friend / l'onboarding non si schiude. E adesso?

Quella schermata dipende dal Gateway raggiungibile e autenticato. Anche la TUI invia "Wake up, my friend!" automaticamente alla prima schiusa. Se vedi quella riga senza nessuna risposta e i token restano a 0, l'agente non è mai stato eseguito.

  1. Riavvia il Gateway:
openclaw gateway restart
  1. Controlla stato + autenticazione:
openclaw status
openclaw models status
openclaw logs --follow
  1. Se resta ancora bloccato, esegui:
openclaw doctor

Se il Gateway è remoto, assicurati che il tunnel/la connessione Tailscale sia attiva e che la UI punti al Gateway corretto. Consulta Accesso remoto.

Posso migrare la mia configurazione su una nuova macchina (Mac mini) senza rifare l'onboarding?

Sì. Copia la directory di stato e il workspace, poi esegui Doctor una volta. Questo mantiene il tuo bot "esattamente uguale" (memoria, cronologia delle sessioni, autenticazione e stato dei canali) purché copi entrambe le posizioni:

  1. Installa OpenClaw sulla nuova macchina.
  2. Copia $OPENCLAW_STATE_DIR (predefinito: ~/.openclaw) dalla vecchia macchina.
  3. Copia il tuo workspace (predefinito: ~/.openclaw/workspace).
  4. Esegui openclaw doctor e riavvia il servizio Gateway.

Questo preserva configurazione, profili di autenticazione, credenziali WhatsApp, sessioni e memoria. Se sei in modalità remota, ricorda che l'host Gateway possiede lo store delle sessioni e il workspace.

Importante: se fai solo commit/push del workspace su GitHub, stai eseguendo il backup di memoria + file di bootstrap, ma non della cronologia delle sessioni o dell'autenticazione. Questi si trovano sotto ~/.openclaw/ (per esempio ~/.openclaw/agents/<agentId>/sessions/).

Correlati: Migrazione, Dove si trovano le cose su disco, Workspace dell'agente, Doctor, Modalità remota.

Dove vedo cosa c'è di nuovo nell'ultima versione?

Consulta il changelog su GitHub: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md

Le voci più recenti sono in alto. Se la sezione superiore è contrassegnata come Unreleased, la sezione datata successiva è l'ultima versione rilasciata. Le voci sono raggruppate per Highlights, Changes e Fixes (più sezioni documentazione/altro quando necessario).

Impossibile accedere a docs.openclaw.ai (errore SSL)

Alcune connessioni Comcast/Xfinity bloccano erroneamente docs.openclaw.ai tramite Xfinity Advanced Security. Disattivalo o inserisci docs.openclaw.ai nella allowlist, poi riprova. Aiutaci a sbloccarlo segnalandolo qui: https://spa.xfinity.com/check_url_status.

Se non riesci ancora a raggiungere il sito, la documentazione è replicata su GitHub: https://github.com/openclaw/openclaw/tree/main/docs

Differenza tra stable e beta

Stable e beta sono npm dist-tags, non linee di codice separate:

  • latest = stable
  • beta = build anticipata per i test

Di solito, una release stable arriva prima su beta, poi un passaggio esplicito di promozione sposta quella stessa versione su latest. I maintainer possono anche pubblicare direttamente su latest quando necessario. Ecco perché beta e stable possono puntare alla stessa versione dopo la promozione.

Vedi cosa è cambiato: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md

Per i comandi di installazione in una riga e la differenza tra beta e dev, vedi l'accordion qui sotto.

Come installo la versione beta e qual è la differenza tra beta e dev?

Beta è il npm dist-tag beta (può corrispondere a latest dopo la promozione). Dev è la punta mobile di main (git); quando viene pubblicata, usa il npm dist-tag dev.

Comandi in una riga (macOS/Linux):

curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git

Installer Windows (PowerShell): https://openclaw.ai/install.ps1

Maggiori dettagli: Canali di sviluppo e Flag dell'installer.

Come provo le modifiche più recenti?

Due opzioni:

  1. Canale dev (git checkout):
openclaw update --channel dev

Questo passa al branch main e aggiorna dal sorgente.

  1. Installazione modificabile (dal sito dell'installer):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

Ti dà un repo locale che puoi modificare, poi aggiornare tramite git.

Se preferisci un clone pulito manuale, usa:

git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build

Documentazione: Aggiornamento, Canali di sviluppo, Installazione.

Quanto tempo richiedono di solito installazione e onboarding?

Indicazione approssimativa:

  • Installazione: 2-5 minuti
  • Onboarding: 5-15 minuti a seconda di quanti canali/modelli configuri

Se si blocca, usa Installer bloccato e il ciclo rapido di debug in Sono bloccato.

Installer bloccato? Come ottengo più feedback?

Esegui di nuovo l'installer con output dettagliato:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose

Installazione beta con output dettagliato:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose

Per un'installazione modificabile (git):

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose

Equivalente Windows (PowerShell):

# install.ps1 has no dedicated -Verbose flag yet.
Set-PSDebug -Trace 1
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
Set-PSDebug -Trace 0

Altre opzioni: Flag dell'installer.

L'installazione su Windows dice che git non è stato trovato o openclaw non è riconosciuto

Due problemi comuni su Windows:

1) errore npm spawn git / git non trovato

  • Installa Git for Windows e assicurati che git sia nel tuo PATH.
  • Chiudi e riapri PowerShell, poi esegui di nuovo l'installer.

2) openclaw non è riconosciuto dopo l'installazione

  • La cartella bin globale di npm non è nel PATH.

  • Controlla il percorso:

    npm config get prefix
    
  • Aggiungi quella directory al PATH utente (su Windows non serve il suffisso \bin; sulla maggior parte dei sistemi è %AppData%\npm).

  • Chiudi e riapri PowerShell dopo aver aggiornato il PATH.

Se vuoi la configurazione Windows più fluida, usa WSL2 invece di Windows nativo. Documentazione: Windows.

L'output exec di Windows mostra testo cinese illeggibile - cosa devo fare?

Di solito si tratta di una mancata corrispondenza della code page della console nelle shell Windows native.

Sintomi:

  • L'output di system.run/exec rende il cinese come mojibake
  • Lo stesso comando appare correttamente in un altro profilo terminale

Soluzione rapida in PowerShell:

chcp 65001
[Console]::InputEncoding = [System.Text.UTF8Encoding]::new($false)
[Console]::OutputEncoding = [System.Text.UTF8Encoding]::new($false)
$OutputEncoding = [System.Text.UTF8Encoding]::new($false)

Poi riavvia il Gateway e riprova il comando:

openclaw gateway restart

Se riesci ancora a riprodurre il problema sull'ultima versione di OpenClaw, seguilo/segnalalo in:

La documentazione non ha risposto alla mia domanda - come ottengo una risposta migliore?

Usa l'installazione modificabile (git) così avrai tutto il sorgente e la documentazione in locale, poi chiedi al tuo bot (o Claude/Codex) da quella cartella così potrà leggere il repo e rispondere con precisione.

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

Maggiori dettagli: Installazione e Flag dell'installer.

Come installo OpenClaw su Linux?

Risposta breve: segui la guida Linux, poi esegui l'onboarding.

Come installo OpenClaw su un VPS?

Qualsiasi VPS Linux va bene. Installa sul server, poi usa SSH/Tailscale per raggiungere il Gateway.

Guide: exe.dev, Hetzner, Fly.io. Accesso remoto: Gateway remoto.

Dove sono le guide di installazione cloud/VPS?

Manteniamo un hub hosting con i provider comuni. Scegline uno e segui la guida:

Come funziona nel cloud: il Gateway viene eseguito sul server e tu vi accedi dal tuo laptop/telefono tramite la Control UI (o Tailscale/SSH). Il tuo stato + workspace risiedono sul server, quindi tratta l'host come fonte di verità e fanne il backup.

Puoi associare nodi (Mac/iOS/Android/headless) a quel Gateway cloud per accedere a schermo/camera/canvas locali o eseguire comandi sul tuo laptop mantenendo il Gateway nel cloud.

Hub: Piattaforme. Accesso remoto: Gateway remoto. Nodi: Nodi, CLI nodi.

Posso chiedere a OpenClaw di aggiornarsi da solo?

Risposta breve: possibile, non consigliato. Il flusso di aggiornamento può riavviare il Gateway (interrompendo la sessione attiva), può richiedere un git checkout pulito e può chiedere conferma. Più sicuro: esegui gli aggiornamenti da una shell come operatore.

Usa la CLI:

openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart

Se devi automatizzare da un agent:

openclaw update --yes --no-restart
openclaw gateway restart

Documentazione: Aggiornamento, Aggiornamento.

Che cosa fa davvero l'onboarding?

openclaw onboard è il percorso di configurazione consigliato. In modalità locale ti guida attraverso:

  • Configurazione modello/auth (OAuth del provider, API key, setup-token Anthropic, più opzioni per modelli locali come LM Studio)
  • Posizione del workspace + file bootstrap
  • Impostazioni Gateway (bind/port/auth/tailscale)
  • Canali (WhatsApp, Telegram, Discord, Mattermost, Signal, iMessage, più Plugin di canale inclusi come QQ Bot)
  • Installazione daemon (LaunchAgent su macOS; unità utente systemd su Linux/WSL2)
  • Controlli di integrità e selezione delle Skills

Avvisa anche se il modello configurato è sconosciuto o non dispone di auth.

Mi serve un abbonamento Claude o OpenAI per eseguirlo?

No. Puoi eseguire OpenClaw con API key (Anthropic/OpenAI/altri) oppure con modelli solo locali così i tuoi dati restano sul tuo dispositivo. Gli abbonamenti (Claude Pro/Max o OpenAI Codex) sono modi opzionali per autenticare quei provider.

Per Anthropic in OpenClaw, la divisione pratica è:

  • API key Anthropic: normale fatturazione dell'API Anthropic
  • Claude CLI / auth da abbonamento Claude in OpenClaw: lo staff Anthropic ci ha detto che questo uso è di nuovo consentito, e OpenClaw tratta l'uso di claude -p come autorizzato per questa integrazione salvo nuova policy pubblicata da Anthropic

Per host Gateway di lunga durata, le API key Anthropic restano comunque la configurazione più prevedibile. OAuth di OpenAI Codex è supportato esplicitamente per strumenti esterni come OpenClaw.

OpenClaw supporta anche altre opzioni in stile abbonamento hosted, tra cui Qwen Cloud Coding Plan, MiniMax Coding Plan e Z.AI / GLM Coding Plan.

Documentazione: Anthropic, OpenAI, Qwen Cloud, MiniMax, Modelli GLM, Modelli locali, Modelli.

Posso usare l'abbonamento Claude Max senza un'API key?

Sì.

Lo staff Anthropic ci ha detto che l'uso di Claude CLI in stile OpenClaw è di nuovo consentito, quindi OpenClaw tratta l'auth da abbonamento Claude e l'uso di claude -p come autorizzati per questa integrazione salvo nuova policy pubblicata da Anthropic. Se vuoi la configurazione lato server più prevedibile, usa invece un'API key Anthropic.

Supportate l'auth da abbonamento Claude (Claude Pro o Max)?

Sì.

Lo staff Anthropic ci ha detto che questo uso è di nuovo consentito, quindi OpenClaw tratta il riuso di Claude CLI e l'uso di claude -p come autorizzati per questa integrazione salvo nuova policy pubblicata da Anthropic.

Anthropic setup-token è ancora disponibile come percorso token supportato da OpenClaw, ma ora OpenClaw preferisce il riuso di Claude CLI e claude -p quando disponibili. Per carichi di lavoro di produzione o multiutente, l'auth con API key Anthropic resta comunque la scelta più sicura e prevedibile. Se vuoi altre opzioni hosted in stile abbonamento in OpenClaw, vedi OpenAI, Qwen / Model Cloud, MiniMax e Modelli GLM.

Perché vedo HTTP 429 rate_limit_error da Anthropic?

Significa che la tua quota/rate limit Anthropic è esaurita per la finestra corrente. Se usi Claude CLI, attendi il reset della finestra o aggiorna il tuo piano. Se usi un'API key Anthropic, controlla la Console Anthropic per uso/fatturazione e aumenta i limiti secondo necessità.

Se il messaggio è specificamente: Extra usage is required for long context requests, la richiesta sta tentando di usare la beta del contesto da 1M di Anthropic (context1m: true). Funziona solo quando la tua credenziale è idonea per la fatturazione del contesto esteso (fatturazione con chiave API o il percorso Claude-login di OpenClaw con Extra Usage abilitato).

Suggerimento: imposta un modello di fallback così OpenClaw può continuare a rispondere mentre un provider è soggetto a limiti di frequenza. Vedi Modelli, OAuth e /gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context.

AWS Bedrock è supportato?

Sì. OpenClaw include un provider Amazon Bedrock (Converse) integrato. Con i marcatori env AWS presenti, OpenClaw può rilevare automaticamente il catalogo Bedrock streaming/testo e unirlo come provider implicito amazon-bedrock; altrimenti puoi abilitare esplicitamente plugins.entries.amazon-bedrock.config.discovery.enabled o aggiungere una voce provider manuale. Vedi Amazon Bedrock e Provider di modelli. Se preferisci un flusso con chiave gestita, un proxy compatibile con OpenAI davanti a Bedrock resta comunque un'opzione valida.

Come funziona l'autenticazione Codex?

OpenClaw supporta OpenAI Code (Codex) tramite OAuth (accesso ChatGPT). Usa openai/gpt-5.5 con agentRuntime.id: "codex" per la configurazione comune: autenticazione con abbonamento ChatGPT/Codex più esecuzione nativa del server app Codex. Usa openai-codex/gpt-5.5 solo quando vuoi OAuth Codex tramite il runtime Codex predefinito. L'accesso diretto con chiave API OpenAI resta disponibile per le superfici API OpenAI non agent e per i modelli agent tramite un profilo con chiave API openai-codex ordinato. Vedi Provider di modelli e Onboarding (CLI).

Perché OpenClaw menziona ancora openai-codex?

openai-codex è l'id del provider e del profilo di autenticazione per OAuth ChatGPT/Codex. Anche le configurazioni più vecchie lo usavano come prefisso di modello:

  • openai/gpt-5.5 = autenticazione con abbonamento ChatGPT/Codex con runtime Codex nativo per i turni agent
  • openai-codex/gpt-5.5 = route modello legacy riparata da openclaw doctor --fix
  • openai/gpt-5.5 più un profilo con chiave API openai-codex ordinato = autenticazione con chiave API per un modello agent OpenAI
  • openai-codex:... = id del profilo di autenticazione, non un riferimento di modello

Se vuoi il percorso diretto di fatturazione/limiti di OpenAI Platform, imposta OPENAI_API_KEY. Se vuoi l'autenticazione con abbonamento ChatGPT/Codex, accedi con openclaw models auth login --provider openai-codex. Mantieni il riferimento del modello come openai/gpt-5.5; i riferimenti modello openai-codex/* sono configurazioni legacy che openclaw doctor --fix riscrive.

Perché i limiti OAuth Codex possono differire da ChatGPT web?

OAuth Codex usa finestre di quota gestite da OpenAI e dipendenti dal piano. In pratica, questi limiti possono differire dall'esperienza del sito/app ChatGPT, anche quando entrambi sono collegati allo stesso account.

OpenClaw può mostrare le finestre di utilizzo/quota del provider attualmente visibili in openclaw models status, ma non inventa né normalizza i diritti ChatGPT web trasformandoli in accesso API diretto. Se vuoi il percorso diretto di fatturazione/limiti di OpenAI Platform, usa openai/* con una chiave API.

Supportate l'autenticazione con abbonamento OpenAI (OAuth Codex)?

Sì. OpenClaw supporta pienamente OAuth con abbonamento OpenAI Code (Codex). OpenAI consente esplicitamente l'uso di OAuth con abbonamento in strumenti/flussi di lavoro esterni come OpenClaw. L'onboarding può eseguire il flusso OAuth per te.

Vedi OAuth, Provider di modelli e Onboarding (CLI).

Come configuro OAuth per Gemini CLI?

Gemini CLI usa un flusso di autenticazione Plugin, non un client id o un secret in openclaw.json.

Passaggi:

  1. Installa Gemini CLI localmente in modo che gemini sia su PATH
    • Homebrew: brew install gemini-cli
    • npm: npm install -g @google/gemini-cli
  2. Abilita il Plugin: openclaw plugins enable google
  3. Accedi: openclaw models auth login --provider google-gemini-cli --set-default
  4. Modello predefinito dopo l'accesso: google-gemini-cli/gemini-3-flash-preview
  5. Se le richieste falliscono, imposta GOOGLE_CLOUD_PROJECT o GOOGLE_CLOUD_PROJECT_ID sull'host del Gateway

Questo archivia i token OAuth nei profili di autenticazione sull'host del Gateway. Dettagli: Provider di modelli.

Un modello locale va bene per chat informali?

Di solito no. OpenClaw richiede contesto ampio e sicurezza robusta; le schede piccole troncano e disperdono informazioni. Se devi farlo, esegui localmente la build del modello più grande che puoi (LM Studio) e vedi /gateway/local-models. I modelli più piccoli/quantizzati aumentano il rischio di prompt injection - vedi Sicurezza.

Come mantengo il traffico dei modelli ospitati in una regione specifica?

Scegli endpoint vincolati alla regione. OpenRouter espone opzioni ospitate negli Stati Uniti per MiniMax, Kimi e GLM; scegli la variante ospitata negli Stati Uniti per mantenere i dati nella regione. Puoi comunque elencare Anthropic/OpenAI accanto a questi usando models.mode: "merge" così i fallback restano disponibili rispettando il provider regionale selezionato.

Devo comprare un Mac Mini per installarlo?

No. OpenClaw gira su macOS o Linux (Windows tramite WSL2). Un Mac mini è opzionale - alcune persone ne comprano uno come host sempre acceso, ma vanno bene anche un piccolo VPS, un server domestico o un box di classe Raspberry Pi.

Ti serve un Mac solo per strumenti disponibili solo su macOS. Per iMessage, usa BlueBubbles (consigliato) - il server BlueBubbles gira su qualsiasi Mac e il Gateway può girare su Linux o altrove. Se vuoi altri strumenti disponibili solo su macOS, esegui il Gateway su un Mac o abbina un nodo macOS.

Documentazione: BlueBubbles, Nodi, Modalità remota Mac.

Mi serve un Mac mini per il supporto iMessage?

Ti serve un dispositivo macOS qualsiasi con accesso a Messaggi. Non deve essere un Mac mini - va bene qualsiasi Mac. Usa BlueBubbles (consigliato) per iMessage - il server BlueBubbles gira su macOS, mentre il Gateway può girare su Linux o altrove.

Configurazioni comuni:

  • Esegui il Gateway su Linux/VPS e il server BlueBubbles su qualsiasi Mac con accesso a Messaggi.
  • Esegui tutto sul Mac se vuoi la configurazione più semplice su una sola macchina.

Documentazione: BlueBubbles, Nodi, Modalità remota Mac.

Se compro un Mac mini per eseguire OpenClaw, posso collegarlo al mio MacBook Pro?

Sì. Il Mac mini può eseguire il Gateway e il tuo MacBook Pro può connettersi come nodo (dispositivo companion). I nodi non eseguono il Gateway - forniscono capacità extra come schermo/fotocamera/canvas e system.run su quel dispositivo.

Schema comune:

  • Gateway sul Mac mini (sempre acceso).
  • MacBook Pro esegue l'app macOS o un host nodo e si abbina al Gateway.
  • Usa openclaw nodes status / openclaw nodes list per vederlo.

Documentazione: Nodi, CLI dei nodi.

Posso usare Bun?

Bun è sconsigliato. Vediamo bug di runtime, soprattutto con WhatsApp e Telegram. Usa Node per Gateway stabili.

Se vuoi comunque sperimentare con Bun, fallo su un Gateway non di produzione senza WhatsApp/Telegram.

Telegram: cosa va in allowFrom?

channels.telegram.allowFrom è l'ID utente Telegram del mittente umano (numerico). Non è il nome utente del bot.

La configurazione richiede solo ID utente numerici. Se hai già voci legacy @username nella configurazione, openclaw doctor --fix può provare a risolverle.

Più sicuro (senza bot di terze parti):

  • Invia un DM al tuo bot, poi esegui openclaw logs --follow e leggi from.id.

API Bot ufficiale:

  • Invia un DM al tuo bot, poi chiama https://api.telegram.org/bot<bot_token>/getUpdates e leggi message.from.id.

Terze parti (meno privato):

  • Invia un DM a @userinfobot o @getidsbot.

Vedi /channels/telegram.

Più persone possono usare un numero WhatsApp con istanze OpenClaw diverse?

Sì, tramite routing multi-agent. Associa il DM WhatsApp di ciascun mittente (peer kind: "direct", mittente E.164 come +15551234567) a un agentId diverso, così ogni persona ottiene il proprio workspace e archivio sessioni. Le risposte arrivano comunque dallo stesso account WhatsApp e il controllo di accesso ai DM (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) è globale per account WhatsApp. Vedi Routing multi-agent e WhatsApp.

Posso eseguire un agent "chat veloce" e un agent "Opus per programmare"?

Sì. Usa il routing multi-agent: assegna a ogni agent il proprio modello predefinito, poi associa le route in ingresso (account provider o peer specifici) a ciascun agent. Un esempio di configurazione si trova in Routing multi-agent. Vedi anche Modelli e Configurazione.

Homebrew funziona su Linux?

Sì. Homebrew supporta Linux (Linuxbrew). Configurazione rapida:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
brew install <formula>

Se esegui OpenClaw tramite systemd, assicurati che il PATH del servizio includa /home/linuxbrew/.linuxbrew/bin (o il tuo prefisso brew) così gli strumenti installati con brew si risolvono nelle shell non di login. Le build recenti antepongono anche directory bin utente comuni nei servizi systemd Linux (per esempio ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin) e rispettano PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR e FNM_DIR quando impostate.

Differenza tra l'installazione git modificabile e l'installazione npm
  • Installazione modificabile (git): checkout completo del sorgente, modificabile, ideale per contributor. Esegui le build localmente e puoi applicare patch a codice/documentazione.
  • Installazione npm: installazione globale della CLI, senza repo, ideale per "farlo semplicemente girare". Gli aggiornamenti arrivano dai dist-tag npm.

Documentazione: Primi passi, Aggiornamento.

Posso passare tra installazioni npm e git in seguito?

Sì. Usa openclaw update --channel ... quando OpenClaw è già installato. Questo non elimina i tuoi dati - cambia solo l'installazione del codice OpenClaw. Il tuo stato (~/.openclaw) e il workspace (~/.openclaw/workspace) restano intatti.

Da npm a git:

openclaw update --channel dev

Da git a npm:

openclaw update --channel stable

Aggiungi --dry-run per visualizzare prima in anteprima il cambio di modalità pianificato. L'updater esegue i follow-up di Doctor, aggiorna le sorgenti Plugin per il canale di destinazione e riavvia il Gateway a meno che tu non passi --no-restart.

Anche l'installer può forzare una delle due modalità:

curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method npm

Suggerimenti di backup: vedi Strategia di backup.

Devo eseguire il Gateway sul mio laptop o su un VPS?

Risposta breve: se vuoi affidabilità 24/7, usa un VPS. Se vuoi il minimo attrito e per te vanno bene sospensione/riavvii, eseguilo localmente.

Laptop (Gateway locale)

  • Pro: nessun costo del server, accesso diretto ai file locali, finestra del browser live.
  • Contro: sospensione/cadute di rete = disconnessioni, aggiornamenti/riavvii del sistema operativo interrompono, deve restare attivo.

VPS / cloud

  • Pro: sempre attivo, rete stabile, nessun problema di sospensione del laptop, più facile da mantenere in esecuzione.
  • Contro: spesso eseguito headless (usa screenshot), solo accesso remoto ai file, devi usare SSH per gli aggiornamenti.

Nota specifica per OpenClaw: WhatsApp/Telegram/Slack/Mattermost/Discord funzionano tutti bene da un VPS. L'unico vero compromesso è browser headless rispetto a una finestra visibile. Vedi Browser.

Impostazione predefinita consigliata: VPS se in passato hai avuto disconnessioni del gateway. Il locale è ottimo quando usi attivamente il Mac e vuoi accesso ai file locali o automazione dell'interfaccia utente con un browser visibile.

Quanto è importante eseguire OpenClaw su una macchina dedicata?

Non è obbligatorio, ma consigliato per affidabilità e isolamento.

  • Host dedicato (VPS/Mac mini/Pi): sempre attivo, meno interruzioni per sospensione/riavvio, autorizzazioni più pulite, più facile da mantenere in esecuzione.
  • Laptop/desktop condiviso: va benissimo per test e uso attivo, ma aspettati pause quando la macchina va in sospensione o si aggiorna.

Se vuoi il meglio di entrambi i mondi, mantieni il Gateway su un host dedicato e abbina il tuo laptop come Node per gli strumenti locali di schermo/fotocamera/exec. Vedi Node. Per indicazioni sulla sicurezza, leggi Sicurezza.

Quali sono i requisiti minimi del VPS e il sistema operativo consigliato?

OpenClaw è leggero. Per un Gateway di base + un canale chat:

  • Minimo assoluto: 1 vCPU, 1GB RAM, ~500MB disco.
  • Consigliato: 1-2 vCPU, 2GB RAM o più per margine (log, media, più canali). Gli strumenti Node e l'automazione del browser possono richiedere molte risorse.

Sistema operativo: usa Ubuntu LTS (o qualsiasi Debian/Ubuntu moderno). Il percorso di installazione Linux è testato meglio lì.

Documentazione: Linux, hosting VPS.

Posso eseguire OpenClaw in una VM e quali sono i requisiti?

Sì. Tratta una VM come un VPS: deve essere sempre attiva, raggiungibile e avere abbastanza RAM per il Gateway e tutti i canali che abiliti.

Indicazioni di base:

  • Minimo assoluto: 1 vCPU, 1GB RAM.
  • Consigliato: 2GB RAM o più se esegui più canali, automazione del browser o strumenti multimediali.
  • Sistema operativo: Ubuntu LTS o un altro Debian/Ubuntu moderno.

Se usi Windows, WSL2 è la configurazione in stile VM più semplice e offre la migliore compatibilità con gli strumenti. Vedi Windows, hosting VPS. Se esegui macOS in una VM, vedi VM macOS.

Correlati