Providers

Proxy API Claude Max

claude-max-api-proxy è uno strumento della community che espone il tuo abbonamento Claude Max/Pro come endpoint API compatibile con OpenAI. Questo ti consente di usare il tuo abbonamento con qualsiasi strumento che supporti il formato API OpenAI.

Perché usarlo?

Approccio Costo Ideale per
API Anthropic Pagamento per token (~$15/M input, $75/M output per Opus) App di produzione, alto volume
Abbonamento Claude Max $200/mese fissi Uso personale, sviluppo, uso illimitato

Se hai un abbonamento Claude Max e vuoi usarlo con strumenti compatibili con OpenAI, questo proxy può ridurre i costi per alcuni flussi di lavoro. Le chiavi API restano il percorso di policy più chiaro per l'uso in produzione.

Come funziona

La tua app → claude-max-api-proxy → Claude Code CLI → Anthropic (tramite abbonamento)
 (formato OpenAI)                 (converte il formato)      (usa il tuo login)

Il proxy:

  1. Accetta richieste in formato OpenAI su http://localhost:3456/v1/chat/completions
  2. Le converte in comandi Claude Code CLI
  3. Restituisce risposte in formato OpenAI (streaming supportato)

Per iniziare

  • Installa il proxy

    Richiede Node.js 20+ e Claude Code CLI.

    npm install -g claude-max-api-proxy
    
    # Verifica che Claude CLI sia autenticata
    claude --version
    
  • Avvia il server

    claude-max-api
    # Il server viene eseguito su http://localhost:3456
    
  • Testa il proxy

    # Health check
    curl http://localhost:3456/health
    
    # Elenca i modelli
    curl http://localhost:3456/v1/models
    
    # Chat completion
    curl http://localhost:3456/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
        "model": "claude-opus-4",
        "messages": [{"role": "user", "content": "Hello!"}]
      }'
    
  • Configura OpenClaw

    Punta OpenClaw al proxy come endpoint personalizzato compatibile con OpenAI:

    {
      env: {
        OPENAI_API_KEY: "not-needed",
        OPENAI_BASE_URL: "http://localhost:3456/v1",
      },
      agents: {
        defaults: {
          model: { primary: "openai/claude-opus-4" },
        },
      },
    }
    
  • Catalogo integrato

    ID modello Mappa a
    claude-opus-4 Claude Opus 4
    claude-sonnet-4 Claude Sonnet 4
    claude-haiku-4 Claude Haiku 4

    Configurazione avanzata

    Note sul percorso compatibile con OpenAI in stile proxy

    Questo percorso usa la stessa route compatibile con OpenAI in stile proxy degli altri backend personalizzati /v1:

    • Il request shaping nativo solo-OpenAI non si applica
    • Nessun service_tier, nessun store di Responses, nessun suggerimento di cache del prompt e nessun payload shaping di compatibilità del reasoning OpenAI
    • Gli header di attribuzione nascosti di OpenClaw (originator, version, User-Agent) non vengono inseriti sull'URL del proxy
    Avvio automatico su macOS con LaunchAgent

    Crea un LaunchAgent per eseguire automaticamente il proxy:

    cat > ~/Library/LaunchAgents/com.claude-max-api.plist << 'EOF'
    <?xml version="1.0" encoding="UTF-8"?>
    <!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
    <plist version="1.0">
    <dict>
      <key>Label</key>
      <string>com.claude-max-api</string>
      <key>RunAtLoad</key>
      <true/>
      <key>KeepAlive</key>
      <true/>
      <key>ProgramArguments</key>
      <array>
        <string>/usr/local/bin/node</string>
        <string>/usr/local/lib/node_modules/claude-max-api-proxy/dist/server/standalone.js</string>
      </array>
      <key>EnvironmentVariables</key>
      <dict>
        <key>PATH</key>
        <string>/usr/local/bin:/opt/homebrew/bin:~/.local/bin:/usr/bin:/bin</string>
      </dict>
    </dict>
    </plist>
    EOF
    
    launchctl bootstrap gui/$(id -u) ~/Library/LaunchAgents/com.claude-max-api.plist
    

    Note

    • Questo è uno strumento della community, non ufficialmente supportato da Anthropic o OpenClaw
    • Richiede un abbonamento Claude Max/Pro attivo con Claude Code CLI autenticata
    • Il proxy viene eseguito localmente e non invia dati a server di terze parti
    • Le risposte in streaming sono pienamente supportate

    Correlati