Sessions and memory
Moteur de mémoire intégré
Le moteur intégré est le backend de mémoire par défaut. Il stocke votre index de mémoire dans une base de données SQLite propre à chaque agent et ne nécessite aucune dépendance supplémentaire pour démarrer.
Ce qu’il fournit
- Recherche par mots-clés via l’indexation de texte intégral FTS5 (score BM25).
- Recherche vectorielle via les embeddings de n’importe quel fournisseur pris en charge.
- Recherche hybride qui combine les deux pour de meilleurs résultats.
- Prise en charge CJK via la tokenisation en trigrammes pour le chinois, le japonais et le coréen.
- Accélération sqlite-vec pour les requêtes vectorielles dans la base de données (facultatif).
Premiers pas
Si vous avez une clé API pour OpenAI, Gemini, Voyage, Mistral ou DeepInfra, le moteur intégré la détecte automatiquement et active la recherche vectorielle. Aucune configuration n’est nécessaire.
Pour définir explicitement un fournisseur :
{
agents: {
defaults: {
memorySearch: {
provider: "openai",
},
},
},
}
Sans fournisseur d’embeddings, seule la recherche par mots-clés est disponible.
Pour forcer le fournisseur local intégré d’embeddings, installez le paquet d’exécution facultatif
node-llama-cpp à côté d’OpenClaw, puis faites pointer local.modelPath
vers un fichier GGUF :
{
agents: {
defaults: {
memorySearch: {
provider: "local",
fallback: "none",
local: {
modelPath: "~/.node-llama-cpp/models/embeddinggemma-300m-qat-Q8_0.gguf",
},
},
},
},
}
Fournisseurs d’embeddings pris en charge
| Fournisseur | ID | Détecté automatiquement | Notes |
|---|---|---|---|
| OpenAI | openai |
Oui | Par défaut : text-embedding-3-small |
| Gemini | gemini |
Oui | Prend en charge le multimodal (image + audio) |
| Voyage | voyage |
Oui | |
| Mistral | mistral |
Oui | |
| DeepInfra | deepinfra |
Oui | Par défaut : BAAI/bge-m3 |
| Ollama | ollama |
Non | Local, à définir explicitement |
| Local | local |
Oui (en premier) | Runtime facultatif node-llama-cpp |
La détection automatique choisit le premier fournisseur dont la clé API peut être résolue, dans
l’ordre indiqué. Définissez memorySearch.provider pour remplacer ce choix.
Fonctionnement de l’indexation
OpenClaw indexe MEMORY.md et memory/*.md en fragments (~400 tokens avec un
chevauchement de 80 tokens) et les stocke dans une base de données SQLite propre à chaque agent.
- Emplacement de l’index :
~/.openclaw/memory/<agentId>.sqlite - Maintenance du stockage : les fichiers auxiliaires WAL de SQLite sont limités avec des checkpoints périodiques et à l’arrêt.
- Surveillance des fichiers : les modifications des fichiers de mémoire déclenchent une réindexation avec debounce (1,5 s).
- Réindexation automatique : lorsque le fournisseur d’embeddings, le modèle ou la configuration de fragmentation change, l’index entier est automatiquement reconstruit.
- Réindexation à la demande :
openclaw memory index --force
Quand l’utiliser
Le moteur intégré est le bon choix pour la plupart des utilisateurs :
- Fonctionne immédiatement sans dépendances supplémentaires.
- Gère bien la recherche par mots-clés et la recherche vectorielle.
- Prend en charge tous les fournisseurs d’embeddings.
- La recherche hybride combine le meilleur des deux approches de récupération.
Envisagez de passer à QMD si vous avez besoin de reranking, d’expansion de requête ou si vous voulez indexer des répertoires hors de l’espace de travail.
Envisagez Honcho si vous voulez une mémoire intersessions avec modélisation automatique de l’utilisateur.
Dépannage
Recherche mémoire désactivée ? Vérifiez openclaw memory status. Si aucun fournisseur n’est
détecté, définissez-en un explicitement ou ajoutez une clé API.
Fournisseur local non détecté ? Confirmez que le chemin local existe et exécutez :
openclaw memory status --deep --agent main
openclaw memory index --force --agent main
Les commandes CLI autonomes et le Gateway utilisent le même identifiant de fournisseur local.
Si le fournisseur est défini sur auto, les embeddings locaux ne sont considérés en premier
que lorsque memorySearch.local.modelPath pointe vers un fichier local existant.
Résultats obsolètes ? Exécutez openclaw memory index --force pour reconstruire. Le watcher
peut manquer des modifications dans de rares cas limites.
sqlite-vec ne se charge pas ? OpenClaw bascule automatiquement vers la similarité cosinus en processus.
openclaw memory status --deep signale le magasin vectoriel local
séparément du fournisseur d’embeddings, donc Vector store: unavailable indique
un problème de chargement de sqlite-vec, tandis que Embeddings: unavailable indique un problème de fournisseur/d’authentification
ou de disponibilité du modèle. Consultez les journaux pour l’erreur de chargement précise.
Configuration
Pour la configuration des fournisseurs d’embeddings, l’ajustement de la recherche hybride (poids, MMR, décroissance temporelle), l’indexation par lots, la mémoire multimodale, sqlite-vec, les chemins supplémentaires et tous les autres paramètres de configuration, consultez la référence de configuration de la mémoire.