Providers

Proxy API Claude Max

claude-max-api-proxy to narzędzie społeczności, które udostępnia Twoją subskrypcję Claude Max/Pro jako endpoint API kompatybilny z OpenAI. Pozwala to używać subskrypcji z dowolnym narzędziem obsługującym format API OpenAI.

Dlaczego warto tego używać?

Podejście Koszt Najlepsze do
API Anthropic Opłata za token (~$15/M wejścia, $75/M wyjścia dla Opus) Aplikacje produkcyjne, duży wolumen
Subskrypcja Claude Max $200/miesiąc ryczałtowo Użycie osobiste, rozwój, nieograniczone użycie

Jeśli masz subskrypcję Claude Max i chcesz używać jej z narzędziami kompatybilnymi z OpenAI, ten proxy może obniżyć koszt niektórych przepływów pracy. Klucze API pozostają bardziej jednoznaczną ścieżką polityki dla zastosowań produkcyjnych.

Jak to działa

Twoja aplikacja → claude-max-api-proxy → Claude Code CLI → Anthropic (przez subskrypcję)
   (format OpenAI)              (konwertuje format)         (używa Twojego logowania)

Proxy:

  1. Przyjmuje żądania w formacie OpenAI pod http://localhost:3456/v1/chat/completions
  2. Konwertuje je na polecenia Claude Code CLI
  3. Zwraca odpowiedzi w formacie OpenAI (obsługiwany streaming)

Pierwsze kroki

  • Install the proxy

    Wymaga Node.js 20+ oraz Claude Code CLI.

    npm install -g claude-max-api-proxy
    
    # Zweryfikuj, że Claude CLI jest uwierzytelnione
    claude --version
    
  • Start the server

    claude-max-api
    # Serwer działa pod http://localhost:3456
    
  • Test the proxy

    # Health check
    curl http://localhost:3456/health
    
    # Wyświetl modele
    curl http://localhost:3456/v1/models
    
    # Chat completion
    curl http://localhost:3456/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
        "model": "claude-opus-4",
        "messages": [{"role": "user", "content": "Hello!"}]
      }'
    
  • Configure OpenClaw

    Skieruj OpenClaw na proxy jako niestandardowy endpoint kompatybilny z OpenAI:

    {
      env: {
        OPENAI_API_KEY: "not-needed",
        OPENAI_BASE_URL: "http://localhost:3456/v1",
      },
      agents: {
        defaults: {
          model: { primary: "openai/claude-opus-4" },
        },
      },
    }
    
  • Wbudowany katalog

    ID modelu Mapuje do
    claude-opus-4 Claude Opus 4
    claude-sonnet-4 Claude Sonnet 4
    claude-haiku-4 Claude Haiku 4

    Zaawansowana konfiguracja

    Uwagi dotyczące trasy proxy w stylu OpenAI-compatible

    Ta ścieżka używa tej samej trasy proxy w stylu OpenAI-compatible co inne niestandardowe backendy /v1:

    • Natywne kształtowanie żądań tylko dla OpenAI nie ma zastosowania
    • Brak service_tier, brak store dla Responses, brak wskazówek prompt-cache i brak kształtowania ładunków zgodności z rozumowaniem OpenAI
    • Ukryte nagłówki atrybucji OpenClaw (originator, version, User-Agent) nie są wstrzykiwane na URL proxy
    Auto-start na macOS przez LaunchAgent

    Utwórz LaunchAgent, aby uruchamiać proxy automatycznie:

    cat > ~/Library/LaunchAgents/com.claude-max-api.plist << 'EOF'
    <?xml version="1.0" encoding="UTF-8"?>
    <!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
    <plist version="1.0">
    <dict>
      <key>Label</key>
      <string>com.claude-max-api</string>
      <key>RunAtLoad</key>
      <true/>
      <key>KeepAlive</key>
      <true/>
      <key>ProgramArguments</key>
      <array>
        <string>/usr/local/bin/node</string>
        <string>/usr/local/lib/node_modules/claude-max-api-proxy/dist/server/standalone.js</string>
      </array>
      <key>EnvironmentVariables</key>
      <dict>
        <key>PATH</key>
        <string>/usr/local/bin:/opt/homebrew/bin:~/.local/bin:/usr/bin:/bin</string>
      </dict>
    </dict>
    </plist>
    EOF
    
    launchctl bootstrap gui/$(id -u) ~/Library/LaunchAgents/com.claude-max-api.plist
    

    Linki

    Uwagi

    • To narzędzie społeczności, nieobsługiwane oficjalnie przez Anthropic ani OpenClaw
    • Wymaga aktywnej subskrypcji Claude Max/Pro z uwierzytelnionym Claude Code CLI
    • Proxy działa lokalnie i nie wysyła danych do żadnych zewnętrznych serwerów
    • Odpowiedzi streamingowe są w pełni obsługiwane

    Powiązane