Providers

DeepSeek

DeepSeek stellt leistungsstarke KI-Modelle mit einer OpenAI-kompatiblen API bereit.

Eigenschaft Wert
Provider deepseek
Auth DEEPSEEK_API_KEY
API OpenAI-kompatibel
Basis-URL https://api.deepseek.com

Erste Schritte

  • Ihren API-Schlüssel abrufen

    Erstellen Sie einen API-Schlüssel unter platform.deepseek.com.

  • Onboarding ausführen

    openclaw onboard --auth-choice deepseek-api-key
    

    Dadurch werden Sie nach Ihrem API-Schlüssel gefragt, und deepseek/deepseek-v4-flash wird als Standardmodell festgelegt.

  • Verifizieren, dass Modelle verfügbar sind

    openclaw models list --provider deepseek
    

    Um den gebündelten statischen Katalog zu prüfen, ohne dass ein laufender Gateway erforderlich ist, verwenden Sie:

    openclaw models list --all --provider deepseek
    
  • Nicht interaktive Einrichtung

    Für skriptgesteuerte oder headless Installationen übergeben Sie alle Flags direkt:

    openclaw onboard --non-interactive \
      --mode local \
      --auth-choice deepseek-api-key \
      --deepseek-api-key "$DEEPSEEK_API_KEY" \
      --skip-health \
      --accept-risk
    

    Integrierter Katalog

    Modellreferenz Name Eingabe Kontext Maximale Ausgabe Hinweise
    deepseek/deepseek-v4-flash DeepSeek V4 Flash Text 1,000,000 384,000 Standardmodell; V4-Oberfläche mit Thinking-Unterstützung
    deepseek/deepseek-v4-pro DeepSeek V4 Pro Text 1,000,000 384,000 V4-Oberfläche mit Thinking-Unterstützung
    deepseek/deepseek-chat DeepSeek Chat Text 131,072 8,192 DeepSeek V3.2-Oberfläche ohne Thinking
    deepseek/deepseek-reasoner DeepSeek Reasoner Text 131,072 65,536 V3.2-Oberfläche mit Reasoning-Unterstützung

    Thinking und Tools

    DeepSeek-V4-Thinking-Sitzungen haben einen strengeren Replay-Vertrag als die meisten OpenAI-kompatiblen Provider: Nachdem ein Turn mit aktiviertem Thinking Tools verwendet hat, erwartet DeepSeek, dass erneut abgespielte Assistant-Nachrichten aus diesem Turn bei Folgeanfragen reasoning_content enthalten. OpenClaw behandelt dies innerhalb des DeepSeek-Plugins, sodass normale Tool-Nutzung über mehrere Turns mit deepseek/deepseek-v4-flash und deepseek/deepseek-v4-pro funktioniert.

    Wenn Sie eine vorhandene Sitzung von einem anderen OpenAI-kompatiblen Provider zu einem DeepSeek-V4-Modell wechseln, haben ältere Assistant-Tool-Call-Turns möglicherweise kein natives DeepSeek-reasoning_content. OpenClaw ergänzt dieses fehlende Feld bei erneut abgespielten Assistant-Nachrichten für DeepSeek-V4-Thinking-Anfragen, damit der Provider den Verlauf akzeptieren kann, ohne dass /new erforderlich ist.

    Wenn Thinking in OpenClaw deaktiviert ist (einschließlich der UI-Auswahl Keine), sendet OpenClaw DeepSeek thinking: { type: "disabled" } und entfernt erneut abgespieltes reasoning_content aus dem ausgehenden Verlauf. Dadurch bleiben Sitzungen mit deaktiviertem Thinking auf dem DeepSeek-Pfad ohne Thinking.

    Verwenden Sie deepseek/deepseek-v4-flash für den standardmäßigen schnellen Pfad. Verwenden Sie deepseek/deepseek-v4-pro, wenn Sie das stärkere V4-Modell möchten und höhere Kosten oder Latenz akzeptieren können.

    Live-Tests

    Die direkte Live-Modellsuite enthält DeepSeek V4 im modernen Modellset. Um nur die direkten DeepSeek-V4-Modellprüfungen auszuführen:

    OPENCLAW_LIVE_PROVIDERS=deepseek \
    OPENCLAW_LIVE_MODELS="deepseek/deepseek-v4-flash,deepseek/deepseek-v4-pro" \
    pnpm test:live src/agents/models.profiles.live.test.ts
    

    Diese Live-Prüfung verifiziert, dass beide V4-Modelle abschließen können und dass Thinking-/Tool- Folgeturns die von DeepSeek benötigte Replay-Nutzlast beibehalten.

    Konfigurationsbeispiel

    {
      env: { DEEPSEEK_API_KEY: "sk-..." },
      agents: {
        defaults: {
          model: { primary: "deepseek/deepseek-v4-flash" },
        },
      },
    }
    

    Verwandt