Sessions and memory

Recherche dans la mémoire

memory_search recherche les notes pertinentes dans vos fichiers de mémoire, même lorsque la formulation diffère du texte d’origine. Il fonctionne en indexant la mémoire en petits fragments et en les recherchant avec des embeddings, des mots-clés, ou les deux.

Démarrage rapide

Si vous avez configuré un abonnement GitHub Copilot, ou une clé API OpenAI, Gemini, Voyage ou Mistral, la recherche en mémoire fonctionne automatiquement. Pour définir explicitement un fournisseur :

{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai", // or "gemini", "local", "ollama", etc.
      },
    },
  },
}

Pour les configurations à plusieurs points de terminaison, provider peut aussi être une entrée personnalisée models.providers.<id>, telle que ollama-5080, lorsque ce fournisseur définit api: "ollama" ou un autre propriétaire d’adaptateur d’embedding.

Pour les embeddings locaux sans clé API, définissez provider: "local". Les checkouts source peuvent tout de même nécessiter l’approbation de compilation native : pnpm approve-builds puis pnpm rebuild node-llama-cpp.

Certains points de terminaison d’embedding compatibles OpenAI nécessitent des libellés asymétriques comme input_type: "query" pour les recherches et input_type: "document" ou "passage" pour les fragments indexés. Configurez-les avec memorySearch.queryInputType et memorySearch.documentInputType ; consultez la référence de configuration de la mémoire.

Fournisseurs pris en charge

Fournisseur ID Nécessite une clé API Notes
Bedrock bedrock Non Détecté automatiquement lorsque la chaîne d’identifiants AWS aboutit
Gemini gemini Oui Prend en charge l’indexation d’images et d’audio
GitHub Copilot github-copilot Non Détecté automatiquement, utilise l’abonnement Copilot
Local local Non Modèle GGUF, téléchargement d’environ 0,6 Go
Mistral mistral Oui Détecté automatiquement
Ollama ollama Non Local, doit être défini explicitement
OpenAI openai Oui Détecté automatiquement, rapide
Voyage voyage Oui Détecté automatiquement

Fonctionnement de la recherche

OpenClaw exécute deux chemins de récupération en parallèle et fusionne les résultats :

flowchart LR
    Q["Query"] --> E["Embedding"]
    Q --> T["Tokenize"]
    E --> VS["Vector Search"]
    T --> BM["BM25 Search"]
    VS --> M["Weighted Merge"]
    BM --> M
    M --> R["Top Results"]
  • Recherche vectorielle trouve les notes au sens similaire ("gateway host" correspond à "the machine running OpenClaw").
  • Recherche par mots-clés BM25 trouve les correspondances exactes (ID, chaînes d’erreur, clés de configuration).

Si un seul chemin est disponible (pas d’embeddings ou pas de FTS), l’autre s’exécute seul.

Lorsque les embeddings ne sont pas disponibles, OpenClaw utilise tout de même un classement lexical sur les résultats FTS au lieu de revenir uniquement à un ordre brut de correspondances exactes. Ce mode dégradé favorise les fragments avec une meilleure couverture des termes de la requête et des chemins de fichiers pertinents, ce qui maintient un rappel utile même sans sqlite-vec ni fournisseur d’embedding.

Améliorer la qualité de recherche

Deux fonctionnalités facultatives aident lorsque vous avez un long historique de notes :

Décroissance temporelle

Les anciennes notes perdent progressivement du poids dans le classement afin que les informations récentes apparaissent d’abord. Avec la demi-vie par défaut de 30 jours, une note du mois dernier obtient 50 % de son poids initial. Les fichiers pérennes comme MEMORY.md ne subissent jamais de décroissance.

MMR (diversité)

Réduit les résultats redondants. Si cinq notes mentionnent toutes la même configuration de routeur, MMR garantit que les meilleurs résultats couvrent des sujets différents au lieu de se répéter.

Activer les deux

{
  agents: {
    defaults: {
      memorySearch: {
        query: {
          hybrid: {
            mmr: { enabled: true },
            temporalDecay: { enabled: true },
          },
        },
      },
    },
  },
}

Mémoire multimodale

Avec Gemini Embedding 2, vous pouvez indexer des images et des fichiers audio avec Markdown. Les requêtes de recherche restent textuelles, mais elles correspondent au contenu visuel et audio. Consultez la référence de configuration de la mémoire pour la configuration.

Recherche dans la mémoire de session

Vous pouvez éventuellement indexer les transcriptions de session afin que memory_search puisse retrouver des conversations antérieures. Cette option s’active explicitement via memorySearch.experimental.sessionMemory. Consultez la référence de configuration pour plus de détails.

Dépannage

Aucun résultat ? Exécutez openclaw memory status pour vérifier l’index. S’il est vide, exécutez openclaw memory index --force.

Uniquement des correspondances par mots-clés ? Votre fournisseur d’embedding n’est peut-être pas configuré. Vérifiez avec openclaw memory status --deep.

Les embeddings locaux expirent ? ollama, lmstudio et local utilisent par défaut un délai d’attente plus long pour les lots inline. Si l’hôte est simplement lent, définissez agents.defaults.memorySearch.sync.embeddingBatchTimeoutSeconds et relancez openclaw memory index --force.

Texte CJK introuvable ? Reconstruisez l’index FTS avec openclaw memory index --force.

Pour aller plus loin

Associés