Sessions and memory

Búsqueda de memoria

memory_search encuentra notas relevantes de tus archivos de memoria, incluso cuando la redacción difiere del texto original. Funciona indexando la memoria en pequeños fragmentos y buscándolos mediante embeddings, palabras clave o ambos.

Inicio rápido

Si tienes una suscripción a GitHub Copilot, o una clave de API de OpenAI, Gemini, Voyage o Mistral configurada, la búsqueda en memoria funciona automáticamente. Para establecer un proveedor explícitamente:

{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai", // or "gemini", "local", "ollama", etc.
      },
    },
  },
}

Para configuraciones con varios endpoints, provider también puede ser una entrada personalizada models.providers.<id>, como ollama-5080, cuando ese proveedor establece api: "ollama" u otro propietario de adaptador de embeddings.

Para embeddings locales sin clave de API, establece provider: "local". Los checkouts de código fuente aún pueden requerir aprobación de compilación nativa: pnpm approve-builds y luego pnpm rebuild node-llama-cpp.

Algunos endpoints de embeddings compatibles con OpenAI requieren etiquetas asimétricas como input_type: "query" para búsquedas y input_type: "document" o "passage" para fragmentos indexados. Configúralas con memorySearch.queryInputType y memorySearch.documentInputType; consulta la referencia de configuración de memoria.

Proveedores compatibles

Proveedor ID Requiere clave de API Notas
Bedrock bedrock No Se detecta automáticamente cuando se resuelve la cadena de credenciales de AWS
Gemini gemini Admite indexación de imágenes/audio
GitHub Copilot github-copilot No Se detecta automáticamente, usa la suscripción a Copilot
Local local No Modelo GGUF, descarga de ~0,6 GB
Mistral mistral Se detecta automáticamente
Ollama ollama No Local, debe establecerse explícitamente
OpenAI openai Se detecta automáticamente, rápido
Voyage voyage Se detecta automáticamente

Cómo funciona la búsqueda

OpenClaw ejecuta dos rutas de recuperación en paralelo y fusiona los resultados:

flowchart LR
    Q["Query"] --> E["Embedding"]
    Q --> T["Tokenize"]
    E --> VS["Vector Search"]
    T --> BM["BM25 Search"]
    VS --> M["Weighted Merge"]
    BM --> M
    M --> R["Top Results"]
  • Búsqueda vectorial encuentra notas con significado similar ("host de Gateway" coincide con "la máquina que ejecuta OpenClaw").
  • Búsqueda por palabras clave BM25 encuentra coincidencias exactas (ID, cadenas de error, claves de configuración).

Si solo hay una ruta disponible (sin embeddings o sin FTS), la otra se ejecuta sola.

Cuando los embeddings no están disponibles, OpenClaw sigue usando ordenación léxica sobre los resultados de FTS en lugar de recurrir únicamente al orden sin procesar de coincidencias exactas. Ese modo degradado potencia los fragmentos con mayor cobertura de términos de consulta y rutas de archivo relevantes, lo que mantiene útil la recuperación incluso sin sqlite-vec o un proveedor de embeddings.

Mejorar la calidad de la búsqueda

Dos funciones opcionales ayudan cuando tienes un historial grande de notas:

Decaimiento temporal

Las notas antiguas pierden gradualmente peso en la clasificación para que la información reciente aparezca primero. Con la vida media predeterminada de 30 días, una nota del mes pasado puntúa al 50% de su peso original. Los archivos permanentes como MEMORY.md nunca decaen.

MMR (diversidad)

Reduce los resultados redundantes. Si cinco notas mencionan la misma configuración de router, MMR garantiza que los resultados principales cubran temas distintos en lugar de repetirse.

Activar ambos

{
  agents: {
    defaults: {
      memorySearch: {
        query: {
          hybrid: {
            mmr: { enabled: true },
            temporalDecay: { enabled: true },
          },
        },
      },
    },
  },
}

Memoria multimodal

Con Gemini Embedding 2, puedes indexar archivos de imagen y audio junto con Markdown. Las consultas de búsqueda siguen siendo texto, pero coinciden con contenido visual y de audio. Consulta la referencia de configuración de memoria para la configuración.

Búsqueda en memoria de sesión

Opcionalmente, puedes indexar transcripciones de sesión para que memory_search pueda recordar conversaciones anteriores. Esto es opcional mediante memorySearch.experimental.sessionMemory. Consulta la referencia de configuración para más detalles.

Solución de problemas

¿Sin resultados? Ejecuta openclaw memory status para comprobar el índice. Si está vacío, ejecuta openclaw memory index --force.

¿Solo coincidencias de palabras clave? Es posible que tu proveedor de embeddings no esté configurado. Comprueba openclaw memory status --deep.

¿Los embeddings locales agotan el tiempo de espera? ollama, lmstudio y local usan de forma predeterminada un tiempo de espera de lote en línea más largo. Si el host simplemente es lento, establece agents.defaults.memorySearch.sync.embeddingBatchTimeoutSeconds y vuelve a ejecutar openclaw memory index --force.

¿No se encuentra texto CJK? Reconstruye el índice FTS con openclaw memory index --force.

Lecturas adicionales

Relacionado