Technical reference
Referencia de configuración de memoria
Esta página enumera cada opción de configuración para la búsqueda de memoria de OpenClaw. Para resúmenes conceptuales, consulta:
Cómo funciona la memoria.
Backend SQLite predeterminado.
Sidecar local-first.
Canalización de búsqueda y ajuste.
Subagente de memoria para sesiones interactivas.
Todas las opciones de búsqueda de memoria se encuentran en agents.defaults.memorySearch en openclaw.json, salvo que se indique lo contrario.
Selección de proveedor
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
provider |
string |
detectado automáticamente | ID del adaptador de embeddings, como bedrock, deepinfra, gemini, github-copilot, local, mistral, ollama, openai o voyage; también puede ser un models.providers.<id> configurado cuyo api apunte a uno de esos adaptadores |
model |
string |
predeterminado del proveedor | Nombre del modelo de embeddings |
fallback |
string |
"none" |
ID del adaptador de respaldo cuando falla el principal |
enabled |
boolean |
true |
Habilita o deshabilita la búsqueda de memoria |
Orden de detección automática
Cuando provider no está definido, OpenClaw selecciona el primero disponible:
local
Seleccionado si memorySearch.local.modelPath está configurado y el archivo existe.
github-copilot
Seleccionado si se puede resolver un token de GitHub Copilot (variable de entorno o perfil de autenticación).
openai
Seleccionado si se puede resolver una clave de OpenAI.
gemini
Seleccionado si se puede resolver una clave de Gemini.
voyage
Seleccionado si se puede resolver una clave de Voyage.
mistral
Seleccionado si se puede resolver una clave de Mistral.
deepinfra
Seleccionado si se puede resolver una clave de DeepInfra.
bedrock
Seleccionado si la cadena de credenciales del AWS SDK se resuelve (rol de instancia, claves de acceso, perfil, SSO, identidad web o configuración compartida).
ollama es compatible, pero no se detecta automáticamente (defínelo explícitamente).
ID de proveedores personalizados
memorySearch.provider puede apuntar a una entrada personalizada models.providers.<id>. OpenClaw resuelve el propietario api de ese proveedor para el adaptador de embeddings mientras conserva el id del proveedor personalizado para el manejo de endpoint, autenticación y prefijo de modelo. Esto permite que las configuraciones multi-GPU o multi-host dediquen los embeddings de memoria a un endpoint local específico:
{
models: {
providers: {
"ollama-5080": {
api: "ollama",
baseUrl: "http://gpu-box.local:11435",
apiKey: "ollama-local",
models: [{ id: "qwen3-embedding:0.6b" }],
},
},
},
agents: {
defaults: {
memorySearch: {
provider: "ollama-5080",
model: "qwen3-embedding:0.6b",
},
},
},
}
Resolución de claves de API
Los embeddings remotos requieren una clave de API. Bedrock usa en su lugar la cadena de credenciales predeterminada del AWS SDK (roles de instancia, SSO, claves de acceso).
| Proveedor | Variable de entorno | Clave de configuración |
|---|---|---|
| Bedrock | Cadena de credenciales de AWS | No se necesita clave de API |
| DeepInfra | DEEPINFRA_API_KEY |
models.providers.deepinfra.apiKey |
| Gemini | GEMINI_API_KEY |
models.providers.google.apiKey |
| GitHub Copilot | COPILOT_GITHUB_TOKEN, GH_TOKEN, GITHUB_TOKEN |
Perfil de autenticación mediante inicio de sesión de dispositivo |
| Mistral | MISTRAL_API_KEY |
models.providers.mistral.apiKey |
| Ollama | OLLAMA_API_KEY (marcador de posición) |
-- |
| OpenAI | OPENAI_API_KEY |
models.providers.openai.apiKey |
| Voyage | VOYAGE_API_KEY |
models.providers.voyage.apiKey |
Configuración de endpoint remoto
Para endpoints personalizados compatibles con OpenAI o para sobrescribir los valores predeterminados del proveedor:
remote.baseUrlstringURL base de API personalizada.
remote.apiKeystringSobrescribe la clave de API.
remote.headersobjectEncabezados HTTP adicionales (combinados con los valores predeterminados del proveedor).
{
agents: {
defaults: {
memorySearch: {
provider: "openai",
model: "text-embedding-3-small",
remote: {
baseUrl: "https://api.example.com/v1/",
apiKey: "YOUR_KEY",
},
},
},
},
}
Configuración específica del proveedor
Gemini
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
model |
string |
gemini-embedding-001 |
También admite gemini-embedding-2-preview |
outputDimensionality |
number |
3072 |
Para Embedding 2: 768, 1536 o 3072 |
Tipos de entrada compatibles con OpenAI
Los endpoints de embeddings compatibles con OpenAI pueden optar por usar campos de solicitud input_type específicos del proveedor. Esto resulta útil para modelos de embeddings asimétricos que requieren etiquetas diferentes para embeddings de consulta y documento.
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
inputType |
string |
sin definir | input_type compartido para embeddings de consulta y documento |
queryInputType |
string |
sin definir | input_type en tiempo de consulta; sobrescribe inputType |
documentInputType |
string |
sin definir | input_type de índice/documento; sobrescribe inputType |
{
agents: {
defaults: {
memorySearch: {
provider: "openai",
remote: {
baseUrl: "https://embeddings.example/v1",
apiKey: "env:EMBEDDINGS_API_KEY",
},
model: "asymmetric-embedder",
queryInputType: "query",
documentInputType: "passage",
},
},
},
}
Cambiar estos valores afecta la identidad de la caché de embeddings para la indexación por lotes del proveedor y debe ir seguido de una reindexación de memoria cuando el modelo upstream trate las etiquetas de forma diferente.
Bedrock
Configuración de embeddings de Bedrock
Bedrock usa la cadena de credenciales predeterminada del AWS SDK; no se necesitan claves de API. Si OpenClaw se ejecuta en EC2 con un rol de instancia habilitado para Bedrock, solo define el proveedor y el modelo:
{
agents: {
defaults: {
memorySearch: {
provider: "bedrock",
model: "amazon.titan-embed-text-v2:0",
},
},
},
}
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
model |
string |
amazon.titan-embed-text-v2:0 |
Cualquier ID de modelo de embeddings de Bedrock |
outputDimensionality |
number |
predeterminado del modelo | Para Titan V2: 256, 512 o 1024 |
Modelos compatibles (con detección de familia y dimensiones predeterminadas):
| ID de modelo | Proveedor | Dims predeterminadas | Dims configurables |
|---|---|---|---|
amazon.titan-embed-text-v2:0 |
Amazon | 1024 | 256, 512, 1024 |
amazon.titan-embed-text-v1 |
Amazon | 1536 | -- |
amazon.titan-embed-g1-text-02 |
Amazon | 1536 | -- |
amazon.titan-embed-image-v1 |
Amazon | 1024 | -- |
amazon.nova-2-multimodal-embeddings-v1:0 |
Amazon | 1024 | 256, 384, 1024, 3072 |
cohere.embed-english-v3 |
Cohere | 1024 | -- |
cohere.embed-multilingual-v3 |
Cohere | 1024 | -- |
cohere.embed-v4:0 |
Cohere | 1536 | 256-1536 |
twelvelabs.marengo-embed-3-0-v1:0 |
TwelveLabs | 512 | -- |
twelvelabs.marengo-embed-2-7-v1:0 |
TwelveLabs | 1024 | -- |
Las variantes con sufijo de capacidad de procesamiento (por ejemplo, amazon.titan-embed-text-v1:2:8k) heredan la configuración del modelo base.
Autenticación: la autenticación de Bedrock usa el orden estándar de resolución de credenciales del AWS SDK:
- Variables de entorno (
AWS_ACCESS_KEY_ID+AWS_SECRET_ACCESS_KEY) - Caché de tokens SSO
- Credenciales de token de identidad web
- Credenciales compartidas y archivos de configuración
- Credenciales de metadatos de ECS o EC2
La región se resuelve desde AWS_REGION, AWS_DEFAULT_REGION, el baseUrl del proveedor amazon-bedrock, o toma us-east-1 de forma predeterminada.
Permisos de IAM: el rol o usuario de IAM necesita:
{
"Effect": "Allow",
"Action": "bedrock:InvokeModel",
"Resource": "*"
}
Para privilegios mínimos, limita InvokeModel al modelo específico:
arn:aws:bedrock:*::foundation-model/amazon.titan-embed-text-v2:0
Local (GGUF + node-llama-cpp)
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
local.modelPath |
string |
descargado automáticamente | Ruta al archivo de modelo GGUF |
local.modelCacheDir |
string |
predeterminado de node-llama-cpp | Directorio de caché para modelos descargados |
local.contextSize |
number | "auto" |
4096 |
Tamaño de la ventana de contexto para el contexto de embeddings. 4096 cubre fragmentos típicos (128–512 tokens) y limita la VRAM no asociada a pesos. Redúzcalo a 1024–2048 en hosts con recursos limitados. "auto" usa el máximo entrenado del modelo; no se recomienda para modelos de 8B+ (Qwen3-Embedding-8B: 40 960 tokens → ~32 GB de VRAM frente a ~8.8 GB con 4096). |
Modelo predeterminado: embeddinggemma-300m-qat-Q8_0.gguf (~0.6 GB, descargado automáticamente). Los checkouts de origen aún requieren aprobación de compilación nativa: pnpm approve-builds y luego pnpm rebuild node-llama-cpp.
Use la CLI independiente para verificar la misma ruta de proveedor que usa el Gateway:
openclaw memory status --deep --agent main
openclaw memory index --force --agent main
Si provider es auto, local se selecciona solo cuando local.modelPath apunta a un archivo local existente. Las referencias de modelo hf: y HTTP(S) aún pueden usarse explícitamente con provider: "local", pero no hacen que auto seleccione local antes de que el modelo esté disponible en disco.
Tiempo de espera de embeddings en línea
sync.embeddingBatchTimeoutSecondsnumberSobrescriba el tiempo de espera para lotes de embeddings en línea durante la indexación de memoria.
Si no se establece, usa el valor predeterminado del proveedor: 600 segundos para proveedores locales/autohospedados como local, ollama y lmstudio, y 120 segundos para proveedores hospedados. Aumente esto cuando los lotes de embeddings locales limitados por CPU estén sanos pero sean lentos.
Configuración de búsqueda híbrida
Todo bajo memorySearch.query.hybrid:
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
enabled |
boolean |
true |
Habilitar búsqueda híbrida BM25 + vectorial |
vectorWeight |
number |
0.7 |
Peso para puntuaciones vectoriales (0-1) |
textWeight |
number |
0.3 |
Peso para puntuaciones BM25 (0-1) |
candidateMultiplier |
number |
4 |
Multiplicador del tamaño del conjunto de candidatos |
MMR (diversity)
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
mmr.enabled |
boolean |
false |
Habilitar reranking MMR |
mmr.lambda |
number |
0.7 |
0 = máxima diversidad, 1 = máxima relevancia |
Temporal decay (recency)
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
temporalDecay.enabled |
boolean |
false |
Habilitar impulso de actualidad |
temporalDecay.halfLifeDays |
number |
30 |
La puntuación se reduce a la mitad cada N días |
Los archivos perennes (MEMORY.md, archivos sin fecha en memory/) nunca se degradan.
Ejemplo completo
{
agents: {
defaults: {
memorySearch: {
query: {
hybrid: {
vectorWeight: 0.7,
textWeight: 0.3,
mmr: { enabled: true, lambda: 0.7 },
temporalDecay: { enabled: true, halfLifeDays: 30 },
},
},
},
},
},
}
Rutas de memoria adicionales
| Clave | Tipo | Descripción |
|---|---|---|
extraPaths |
string[] |
Directorios o archivos adicionales para indexar |
{
agents: {
defaults: {
memorySearch: {
extraPaths: ["../team-docs", "/srv/shared-notes"],
},
},
},
}
Las rutas pueden ser absolutas o relativas al espacio de trabajo. Los directorios se examinan recursivamente en busca de archivos .md. El manejo de symlinks depende del backend activo: el motor integrado ignora los symlinks, mientras que QMD sigue el comportamiento del escáner QMD subyacente.
Para la búsqueda de transcripciones entre agentes con alcance de agente, use agents.list[].memorySearch.qmd.extraCollections en lugar de memory.qmd.paths. Esas colecciones adicionales siguen la misma forma { path, name, pattern? }, pero se combinan por agente y pueden conservar nombres compartidos explícitos cuando la ruta apunta fuera del espacio de trabajo actual. Si la misma ruta resuelta aparece tanto en memory.qmd.paths como en memorySearch.qmd.extraCollections, QMD conserva la primera entrada y omite el duplicado.
Memoria multimodal (Gemini)
Indexe imágenes y audio junto con Markdown usando Gemini Embedding 2:
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
multimodal.enabled |
boolean |
false |
Habilitar indexación multimodal |
multimodal.modalities |
string[] |
-- | ["image"], ["audio"] o ["all"] |
multimodal.maxFileBytes |
number |
10000000 |
Tamaño máximo de archivo para indexación |
Formatos compatibles: .jpg, .jpeg, .png, .webp, .gif, .heic, .heif (imágenes); .mp3, .wav, .ogg, .opus, .m4a, .aac, .flac (audio).
Caché de incrustaciones
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
cache.enabled |
boolean |
false |
Almacena en caché incrustaciones de fragmentos en SQLite |
cache.maxEntries |
number |
50000 |
Máximo de incrustaciones en caché |
Evita volver a incrustar texto sin cambios durante la reindexación o las actualizaciones de transcripciones.
Indexación por lotes
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
remote.nonBatchConcurrency |
number |
4 |
Incrustaciones en línea paralelas |
remote.batch.enabled |
boolean |
false |
Habilita la API de incrustaciones por lotes |
remote.batch.concurrency |
number |
2 |
Trabajos por lotes paralelos |
remote.batch.wait |
boolean |
true |
Espera a que finalice el lote |
remote.batch.pollIntervalMs |
number |
-- | Intervalo de sondeo |
remote.batch.timeoutMinutes |
number |
-- | Tiempo de espera del lote |
Disponible para openai, gemini y voyage. Los lotes de OpenAI suelen ser los más rápidos y económicos para grandes rellenos históricos.
remote.nonBatchConcurrency controla las llamadas de incrustación en línea usadas por proveedores locales/autohospedados y proveedores alojados cuando las API por lotes del proveedor no están activas. Ollama usa 1 de forma predeterminada para la indexación sin lotes a fin de evitar saturar hosts locales más pequeños; establece un valor más alto en máquinas más grandes.
Esto es independiente de sync.embeddingBatchTimeoutSeconds, que controla el tiempo de espera para las llamadas de incrustación en línea.
Búsqueda de memoria de sesión (experimental)
Indexa transcripciones de sesión y las expone mediante memory_search:
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
experimental.sessionMemory |
boolean |
false |
Habilita la indexación de sesiones |
sources |
string[] |
["memory"] |
Agrega "sessions" para incluir transcripciones |
sync.sessions.deltaBytes |
number |
100000 |
Umbral de bytes para reindexar |
sync.sessions.deltaMessages |
number |
50 |
Umbral de mensajes para reindexar |
Aceleración vectorial de SQLite (sqlite-vec)
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
store.vector.enabled |
boolean |
true |
Usa sqlite-vec para consultas vectoriales |
store.vector.extensionPath |
string |
incluido | Sobrescribe la ruta de sqlite-vec |
Cuando sqlite-vec no está disponible, OpenClaw recurre automáticamente a la similitud del coseno en proceso.
Almacenamiento de índices
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
store.path |
string |
~/.openclaw/memory/{agentId}.sqlite |
Ubicación del índice (admite el token {agentId}) |
store.fts.tokenizer |
string |
unicode61 |
Tokenizador FTS5 (unicode61 o trigram) |
Configuración del backend QMD
Establece memory.backend = "qmd" para habilitarlo. Todos los ajustes de QMD residen en memory.qmd:
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
command |
string |
qmd |
Ruta del ejecutable QMD; establece una ruta absoluta cuando el PATH del servicio difiera del de tu shell |
searchMode |
string |
search |
Comando de búsqueda: search, vsearch, query |
includeDefaultMemory |
boolean |
true |
Indexa automáticamente MEMORY.md + memory/**/*.md |
paths[] |
array |
-- | Rutas adicionales: { name, path, pattern? } |
sessions.enabled |
boolean |
false |
Indexa transcripciones de sesión |
sessions.retentionDays |
number |
-- | Retención de transcripciones |
sessions.exportDir |
string |
-- | Directorio de exportación |
searchMode: "search" es solo léxico/BM25. OpenClaw no ejecuta sondeos de preparación vectorial semántica ni mantenimiento de incrustaciones de QMD para ese modo, incluso durante memory status --deep; vsearch y query siguen requiriendo preparación vectorial de QMD e incrustaciones.
OpenClaw prefiere la colección de QMD actual y las formas de consulta MCP actuales, pero mantiene funcionando versiones anteriores de QMD probando indicadores de patrones de colección compatibles y nombres de herramientas MCP más antiguos cuando es necesario. Cuando QMD anuncia compatibilidad con varios filtros de colección, las colecciones de la misma fuente se buscan con un proceso QMD; las compilaciones anteriores de QMD conservan la ruta de compatibilidad por colección. Misma fuente significa que las colecciones de memoria duradera se agrupan juntas, mientras que las colecciones de transcripciones de sesión permanecen como un grupo separado para que la diversificación de fuentes siga teniendo ambas entradas.
Calendario de actualización
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
update.interval |
string |
5m |
Intervalo de actualización |
update.debounceMs |
number |
15000 |
Debounce de cambios de archivos |
update.onBoot |
boolean |
true |
Actualiza cuando se abre el gestor QMD de larga duración; también controla la actualización de inicio opcional |
update.startup |
string |
off |
Actualización opcional al iniciar el gateway: off, idle o immediate |
update.startupDelayMs |
number |
120000 |
Retraso antes de que se ejecute la actualización startup: "idle" |
update.waitForBootSync |
boolean |
false |
Bloquea la apertura del gestor hasta que se complete su actualización inicial |
update.embedInterval |
string |
-- | Cadencia de incrustación separada |
update.commandTimeoutMs |
number |
-- | Tiempo de espera para comandos QMD |
update.updateTimeoutMs |
number |
-- | Tiempo de espera para operaciones de actualización de QMD |
update.embedTimeoutMs |
number |
-- | Tiempo de espera para operaciones de incrustación de QMD |
Límites
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
limits.maxResults |
number |
6 |
Resultados máximos de búsqueda |
limits.maxSnippetChars |
number |
-- | Limita la longitud del fragmento |
limits.maxInjectedChars |
number |
-- | Limita el total de caracteres inyectados |
limits.timeoutMs |
number |
4000 |
Tiempo de espera de búsqueda |
Alcance
Controla qué sesiones pueden recibir resultados de búsqueda de QMD. El mismo esquema que session.sendPolicy:
{
memory: {
qmd: {
scope: {
default: "deny",
rules: [{ action: "allow", match: { chatType: "direct" } }],
},
},
},
}
El valor predeterminado incluido permite sesiones directas y de canal, mientras sigue denegando grupos.
El valor predeterminado es solo DM. match.keyPrefix coincide con la clave de sesión normalizada; match.rawKeyPrefix coincide con la clave sin procesar, incluido agent:<id>:.
Citas
memory.citations se aplica a todos los backends:
| Valor | Comportamiento |
|---|---|
auto (predeterminado) |
Incluye el pie Source: <path#line> en los fragmentos |
on |
Incluye siempre el pie |
off |
Omite el pie (la ruta aún se pasa internamente al agente) |
Las actualizaciones de arranque de QMD usan una ruta de subproceso de una sola ejecución durante el inicio del gateway. El gestor QMD de larga duración sigue siendo dueño del observador de archivos regular y de los temporizadores de intervalo cuando se abre la búsqueda de memoria para uso interactivo.
Ejemplo completo de QMD
{
memory: {
backend: "qmd",
citations: "auto",
qmd: {
includeDefaultMemory: true,
update: { interval: "5m", debounceMs: 15000 },
limits: { maxResults: 6, timeoutMs: 4000 },
scope: {
default: "deny",
rules: [{ action: "allow", match: { chatType: "direct" } }],
},
paths: [{ name: "docs", path: "~/notes", pattern: "**/*.md" }],
},
},
}
Dreaming
Dreaming se configura en plugins.entries.memory-core.config.dreaming, no en agents.defaults.memorySearch.
Dreaming se ejecuta como un barrido programado y usa fases internas ligera/profunda/REM como detalle de implementación.
Para el comportamiento conceptual y los comandos de barra diagonal, consulta Dreaming.
Configuración de usuario
| Clave | Tipo | Predeterminado | Descripción |
|---|---|---|---|
enabled |
boolean |
false |
Activa o desactiva Dreaming por completo |
frequency |
string |
0 3 * * * |
Cadencia cron opcional para el barrido completo de Dreaming |
model |
string |
modelo predeterminado | Anulación opcional del modelo del subagente Dream Diary |
Ejemplo
{
plugins: {
entries: {
"memory-core": {
subagent: {
allowModelOverride: true,
allowedModels: ["anthropic/claude-sonnet-4-6"],
},
config: {
dreaming: {
enabled: true,
frequency: "0 3 * * *",
model: "anthropic/claude-sonnet-4-6",
},
},
},
},
},
}