Sessions and memory
Búsqueda de memoria
memory_search encuentra notas relevantes de tus archivos de memoria, incluso cuando la
redacción difiere del texto original. Funciona indexando la memoria en pequeños
fragmentos y buscándolos mediante embeddings, palabras clave o ambos.
Inicio rápido
Si tienes una suscripción a GitHub Copilot, o una clave de API de OpenAI, Gemini, Voyage o Mistral configurada, la búsqueda en memoria funciona automáticamente. Para establecer un proveedor explícitamente:
{
agents: {
defaults: {
memorySearch: {
provider: "openai", // or "gemini", "local", "ollama", etc.
},
},
},
}
Para configuraciones con varios endpoints, provider también puede ser una entrada personalizada
models.providers.<id>, como ollama-5080, cuando ese proveedor establece
api: "ollama" u otro propietario de adaptador de embeddings.
Para embeddings locales sin clave de API, establece provider: "local". Los checkouts de código fuente
aún pueden requerir aprobación de compilación nativa: pnpm approve-builds y luego
pnpm rebuild node-llama-cpp.
Algunos endpoints de embeddings compatibles con OpenAI requieren etiquetas asimétricas como
input_type: "query" para búsquedas y input_type: "document" o "passage"
para fragmentos indexados. Configúralas con memorySearch.queryInputType y
memorySearch.documentInputType; consulta la referencia de configuración de memoria.
Proveedores compatibles
| Proveedor | ID | Requiere clave de API | Notas |
|---|---|---|---|
| Bedrock | bedrock |
No | Se detecta automáticamente cuando se resuelve la cadena de credenciales de AWS |
| Gemini | gemini |
Sí | Admite indexación de imágenes/audio |
| GitHub Copilot | github-copilot |
No | Se detecta automáticamente, usa la suscripción a Copilot |
| Local | local |
No | Modelo GGUF, descarga de ~0,6 GB |
| Mistral | mistral |
Sí | Se detecta automáticamente |
| Ollama | ollama |
No | Local, debe establecerse explícitamente |
| OpenAI | openai |
Sí | Se detecta automáticamente, rápido |
| Voyage | voyage |
Sí | Se detecta automáticamente |
Cómo funciona la búsqueda
OpenClaw ejecuta dos rutas de recuperación en paralelo y fusiona los resultados:
flowchart LR
Q["Query"] --> E["Embedding"]
Q --> T["Tokenize"]
E --> VS["Vector Search"]
T --> BM["BM25 Search"]
VS --> M["Weighted Merge"]
BM --> M
M --> R["Top Results"]
- Búsqueda vectorial encuentra notas con significado similar ("host de Gateway" coincide con "la máquina que ejecuta OpenClaw").
- Búsqueda por palabras clave BM25 encuentra coincidencias exactas (ID, cadenas de error, claves de configuración).
Si solo hay una ruta disponible (sin embeddings o sin FTS), la otra se ejecuta sola.
Cuando los embeddings no están disponibles, OpenClaw sigue usando ordenación léxica sobre los resultados de FTS en lugar de recurrir únicamente al orden sin procesar de coincidencias exactas. Ese modo degradado potencia los fragmentos con mayor cobertura de términos de consulta y rutas de archivo relevantes, lo que mantiene útil la recuperación incluso sin sqlite-vec o un proveedor de embeddings.
Mejorar la calidad de la búsqueda
Dos funciones opcionales ayudan cuando tienes un historial grande de notas:
Decaimiento temporal
Las notas antiguas pierden gradualmente peso en la clasificación para que la información reciente aparezca primero.
Con la vida media predeterminada de 30 días, una nota del mes pasado puntúa al 50% de
su peso original. Los archivos permanentes como MEMORY.md nunca decaen.
MMR (diversidad)
Reduce los resultados redundantes. Si cinco notas mencionan la misma configuración de router, MMR garantiza que los resultados principales cubran temas distintos en lugar de repetirse.
Activar ambos
{
agents: {
defaults: {
memorySearch: {
query: {
hybrid: {
mmr: { enabled: true },
temporalDecay: { enabled: true },
},
},
},
},
},
}
Memoria multimodal
Con Gemini Embedding 2, puedes indexar archivos de imagen y audio junto con Markdown. Las consultas de búsqueda siguen siendo texto, pero coinciden con contenido visual y de audio. Consulta la referencia de configuración de memoria para la configuración.
Búsqueda en memoria de sesión
Opcionalmente, puedes indexar transcripciones de sesión para que memory_search pueda recordar
conversaciones anteriores. Esto es opcional mediante
memorySearch.experimental.sessionMemory. Consulta la
referencia de configuración para más detalles.
Solución de problemas
¿Sin resultados? Ejecuta openclaw memory status para comprobar el índice. Si está vacío, ejecuta
openclaw memory index --force.
¿Solo coincidencias de palabras clave? Es posible que tu proveedor de embeddings no esté configurado. Comprueba
openclaw memory status --deep.
¿Los embeddings locales agotan el tiempo de espera? ollama, lmstudio y local usan de forma predeterminada un tiempo de espera
de lote en línea más largo. Si el host simplemente es lento, establece
agents.defaults.memorySearch.sync.embeddingBatchTimeoutSeconds y vuelve a ejecutar
openclaw memory index --force.
¿No se encuentra texto CJK? Reconstruye el índice FTS con
openclaw memory index --force.
Lecturas adicionales
- Active Memory -- memoria de subagente para sesiones de chat interactivas
- Memoria -- diseño de archivos, backends, herramientas
- Referencia de configuración de memoria -- todas las opciones de configuración