Sessions and memory

Moteur de mémoire intégré

Le moteur intégré est le backend de mémoire par défaut. Il stocke votre index de mémoire dans une base de données SQLite propre à chaque agent et ne nécessite aucune dépendance supplémentaire pour démarrer.

Ce qu’il fournit

  • Recherche par mots-clés via l’indexation de texte intégral FTS5 (score BM25).
  • Recherche vectorielle via les embeddings de n’importe quel fournisseur pris en charge.
  • Recherche hybride qui combine les deux pour de meilleurs résultats.
  • Prise en charge CJK via la tokenisation en trigrammes pour le chinois, le japonais et le coréen.
  • Accélération sqlite-vec pour les requêtes vectorielles dans la base de données (facultatif).

Premiers pas

Si vous avez une clé API pour OpenAI, Gemini, Voyage, Mistral ou DeepInfra, le moteur intégré la détecte automatiquement et active la recherche vectorielle. Aucune configuration n’est nécessaire.

Pour définir explicitement un fournisseur :

{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai",
      },
    },
  },
}

Sans fournisseur d’embeddings, seule la recherche par mots-clés est disponible.

Pour forcer le fournisseur local intégré d’embeddings, installez le paquet d’exécution facultatif node-llama-cpp à côté d’OpenClaw, puis faites pointer local.modelPath vers un fichier GGUF :

{
  agents: {
    defaults: {
      memorySearch: {
        provider: "local",
        fallback: "none",
        local: {
          modelPath: "~/.node-llama-cpp/models/embeddinggemma-300m-qat-Q8_0.gguf",
        },
      },
    },
  },
}

Fournisseurs d’embeddings pris en charge

Fournisseur ID Détecté automatiquement Notes
OpenAI openai Oui Par défaut : text-embedding-3-small
Gemini gemini Oui Prend en charge le multimodal (image + audio)
Voyage voyage Oui
Mistral mistral Oui
DeepInfra deepinfra Oui Par défaut : BAAI/bge-m3
Ollama ollama Non Local, à définir explicitement
Local local Oui (en premier) Runtime facultatif node-llama-cpp

La détection automatique choisit le premier fournisseur dont la clé API peut être résolue, dans l’ordre indiqué. Définissez memorySearch.provider pour remplacer ce choix.

Fonctionnement de l’indexation

OpenClaw indexe MEMORY.md et memory/*.md en fragments (~400 tokens avec un chevauchement de 80 tokens) et les stocke dans une base de données SQLite propre à chaque agent.

  • Emplacement de l’index : ~/.openclaw/memory/<agentId>.sqlite
  • Maintenance du stockage : les fichiers auxiliaires WAL de SQLite sont limités avec des checkpoints périodiques et à l’arrêt.
  • Surveillance des fichiers : les modifications des fichiers de mémoire déclenchent une réindexation avec debounce (1,5 s).
  • Réindexation automatique : lorsque le fournisseur d’embeddings, le modèle ou la configuration de fragmentation change, l’index entier est automatiquement reconstruit.
  • Réindexation à la demande : openclaw memory index --force

Quand l’utiliser

Le moteur intégré est le bon choix pour la plupart des utilisateurs :

  • Fonctionne immédiatement sans dépendances supplémentaires.
  • Gère bien la recherche par mots-clés et la recherche vectorielle.
  • Prend en charge tous les fournisseurs d’embeddings.
  • La recherche hybride combine le meilleur des deux approches de récupération.

Envisagez de passer à QMD si vous avez besoin de reranking, d’expansion de requête ou si vous voulez indexer des répertoires hors de l’espace de travail.

Envisagez Honcho si vous voulez une mémoire intersessions avec modélisation automatique de l’utilisateur.

Dépannage

Recherche mémoire désactivée ? Vérifiez openclaw memory status. Si aucun fournisseur n’est détecté, définissez-en un explicitement ou ajoutez une clé API.

Fournisseur local non détecté ? Confirmez que le chemin local existe et exécutez :

openclaw memory status --deep --agent main
openclaw memory index --force --agent main

Les commandes CLI autonomes et le Gateway utilisent le même identifiant de fournisseur local. Si le fournisseur est défini sur auto, les embeddings locaux ne sont considérés en premier que lorsque memorySearch.local.modelPath pointe vers un fichier local existant.

Résultats obsolètes ? Exécutez openclaw memory index --force pour reconstruire. Le watcher peut manquer des modifications dans de rares cas limites.

sqlite-vec ne se charge pas ? OpenClaw bascule automatiquement vers la similarité cosinus en processus. openclaw memory status --deep signale le magasin vectoriel local séparément du fournisseur d’embeddings, donc Vector store: unavailable indique un problème de chargement de sqlite-vec, tandis que Embeddings: unavailable indique un problème de fournisseur/d’authentification ou de disponibilité du modèle. Consultez les journaux pour l’erreur de chargement précise.

Configuration

Pour la configuration des fournisseurs d’embeddings, l’ajustement de la recherche hybride (poids, MMR, décroissance temporelle), l’indexation par lots, la mémoire multimodale, sqlite-vec, les chemins supplémentaires et tous les autres paramètres de configuration, consultez la référence de configuration de la mémoire.

Liens connexes