Providers
Proxy API Claude Max
claude-max-api-proxy è uno strumento della community che espone il tuo abbonamento Claude Max/Pro come endpoint API compatibile con OpenAI. Questo ti consente di usare il tuo abbonamento con qualsiasi strumento che supporti il formato API OpenAI.
Perché usarlo?
| Approccio | Costo | Ideale per |
|---|---|---|
| API Anthropic | Pagamento per token (~$15/M input, $75/M output per Opus) | App di produzione, alto volume |
| Abbonamento Claude Max | $200/mese fissi | Uso personale, sviluppo, uso illimitato |
Se hai un abbonamento Claude Max e vuoi usarlo con strumenti compatibili con OpenAI, questo proxy può ridurre i costi per alcuni flussi di lavoro. Le chiavi API restano il percorso di policy più chiaro per l'uso in produzione.
Come funziona
La tua app → claude-max-api-proxy → Claude Code CLI → Anthropic (tramite abbonamento)
(formato OpenAI) (converte il formato) (usa il tuo login)
Il proxy:
- Accetta richieste in formato OpenAI su
http://localhost:3456/v1/chat/completions - Le converte in comandi Claude Code CLI
- Restituisce risposte in formato OpenAI (streaming supportato)
Per iniziare
Installa il proxy
Richiede Node.js 20+ e Claude Code CLI.
npm install -g claude-max-api-proxy
# Verifica che Claude CLI sia autenticata
claude --version
Avvia il server
claude-max-api
# Il server viene eseguito su http://localhost:3456
Testa il proxy
# Health check
curl http://localhost:3456/health
# Elenca i modelli
curl http://localhost:3456/v1/models
# Chat completion
curl http://localhost:3456/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "claude-opus-4",
"messages": [{"role": "user", "content": "Hello!"}]
}'
Configura OpenClaw
Punta OpenClaw al proxy come endpoint personalizzato compatibile con OpenAI:
{
env: {
OPENAI_API_KEY: "not-needed",
OPENAI_BASE_URL: "http://localhost:3456/v1",
},
agents: {
defaults: {
model: { primary: "openai/claude-opus-4" },
},
},
}
Catalogo integrato
| ID modello | Mappa a |
|---|---|
claude-opus-4 |
Claude Opus 4 |
claude-sonnet-4 |
Claude Sonnet 4 |
claude-haiku-4 |
Claude Haiku 4 |
Configurazione avanzata
Note sul percorso compatibile con OpenAI in stile proxy
Questo percorso usa la stessa route compatibile con OpenAI in stile proxy degli altri backend personalizzati
/v1:
- Il request shaping nativo solo-OpenAI non si applica
- Nessun
service_tier, nessunstoredi Responses, nessun suggerimento di cache del prompt e nessun payload shaping di compatibilità del reasoning OpenAI - Gli header di attribuzione nascosti di OpenClaw (
originator,version,User-Agent) non vengono inseriti sull'URL del proxy
Avvio automatico su macOS con LaunchAgent
Crea un LaunchAgent per eseguire automaticamente il proxy:
cat > ~/Library/LaunchAgents/com.claude-max-api.plist << 'EOF'
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
<key>Label</key>
<string>com.claude-max-api</string>
<key>RunAtLoad</key>
<true/>
<key>KeepAlive</key>
<true/>
<key>ProgramArguments</key>
<array>
<string>/usr/local/bin/node</string>
<string>/usr/local/lib/node_modules/claude-max-api-proxy/dist/server/standalone.js</string>
</array>
<key>EnvironmentVariables</key>
<dict>
<key>PATH</key>
<string>/usr/local/bin:/opt/homebrew/bin:~/.local/bin:/usr/bin:/bin</string>
</dict>
</dict>
</plist>
EOF
launchctl bootstrap gui/$(id -u) ~/Library/LaunchAgents/com.claude-max-api.plist
Link
- npm: https://www.npmjs.com/package/claude-max-api-proxy
- GitHub: https://github.com/atalovesyou/claude-max-api-proxy
- Issue: https://github.com/atalovesyou/claude-max-api-proxy/issues
Note
- Questo è uno strumento della community, non ufficialmente supportato da Anthropic o OpenClaw
- Richiede un abbonamento Claude Max/Pro attivo con Claude Code CLI autenticata
- Il proxy viene eseguito localmente e non invia dati a server di terze parti
- Le risposte in streaming sono pienamente supportate