Sessions and memory
Mecanismo de memória integrado
O mecanismo integrado é o backend de memória padrão. Ele armazena seu índice de memória em um banco de dados SQLite por agente e não precisa de dependências extras para começar.
O que ele oferece
- Busca por palavra-chave via indexação de texto completo FTS5 (pontuação BM25).
- Busca vetorial via embeddings de qualquer provedor compatível.
- Busca híbrida que combina ambas para melhores resultados.
- Suporte a CJK via tokenização por trigramas para chinês, japonês e coreano.
- Aceleração sqlite-vec para consultas vetoriais dentro do banco de dados (opcional).
Primeiros passos
Se você tiver uma chave de API para OpenAI, Gemini, Voyage, Mistral ou DeepInfra, o mecanismo integrado a detecta automaticamente e habilita a busca vetorial. Nenhuma configuração é necessária.
Para definir um provedor explicitamente:
{
agents: {
defaults: {
memorySearch: {
provider: "openai",
},
},
},
}
Sem um provedor de embeddings, apenas a busca por palavra-chave fica disponível.
Para forçar o provedor local integrado de embeddings, instale o pacote de runtime opcional
node-llama-cpp junto ao OpenClaw e então aponte local.modelPath
para um arquivo GGUF:
{
agents: {
defaults: {
memorySearch: {
provider: "local",
fallback: "none",
local: {
modelPath: "~/.node-llama-cpp/models/embeddinggemma-300m-qat-Q8_0.gguf",
},
},
},
},
}
Provedores de embeddings compatíveis
| Provedor | ID | Detectado automaticamente | Observações |
|---|---|---|---|
| OpenAI | openai |
Sim | Padrão: text-embedding-3-small |
| Gemini | gemini |
Sim | Compatível com multimodal (imagem + áudio) |
| Voyage | voyage |
Sim | |
| Mistral | mistral |
Sim | |
| DeepInfra | deepinfra |
Sim | Padrão: BAAI/bge-m3 |
| Ollama | ollama |
Não | Local, defina explicitamente |
| Local | local |
Sim (primeiro) | Runtime opcional node-llama-cpp |
A detecção automática escolhe o primeiro provedor cuja chave de API pode ser resolvida, na
ordem mostrada. Defina memorySearch.provider para sobrescrever.
Como a indexação funciona
O OpenClaw indexa MEMORY.md e memory/*.md em chunks (~400 tokens com
sobreposição de 80 tokens) e os armazena em um banco de dados SQLite por agente.
- Local do índice:
~/.openclaw/memory/<agentId>.sqlite - Manutenção do armazenamento: os arquivos auxiliares WAL do SQLite são limitados com checkpoints periódicos e no encerramento.
- Monitoramento de arquivos: alterações nos arquivos de memória disparam uma reindexação com debounce (1,5 s).
- Reindexação automática: quando o provedor de embeddings, o modelo ou a configuração de divisão em chunks muda, o índice inteiro é reconstruído automaticamente.
- Reindexação sob demanda:
openclaw memory index --force
Quando usar
O mecanismo integrado é a escolha certa para a maioria dos usuários:
- Funciona imediatamente, sem dependências extras.
- Lida bem com busca por palavra-chave e busca vetorial.
- Oferece suporte a todos os provedores de embeddings.
- A busca híbrida combina o melhor das duas abordagens de recuperação.
Considere mudar para QMD se você precisar de reranking, expansão de consulta ou quiser indexar diretórios fora do workspace.
Considere Honcho se você quiser memória entre sessões com modelagem automática de usuário.
Solução de problemas
Busca de memória desabilitada? Verifique openclaw memory status. Se nenhum provedor for
detectado, defina um explicitamente ou adicione uma chave de API.
Provedor local não detectado? Confirme se o caminho local existe e execute:
openclaw memory status --deep --agent main
openclaw memory index --force --agent main
Tanto os comandos CLI independentes quanto o Gateway usam o mesmo id de provedor local.
Se o provedor estiver definido como auto, os embeddings locais são considerados primeiro apenas
quando memorySearch.local.modelPath aponta para um arquivo local existente.
Resultados desatualizados? Execute openclaw memory index --force para reconstruir. O observador
pode não detectar alterações em casos extremos raros.
sqlite-vec não carrega? O OpenClaw recorre automaticamente à similaridade de cosseno
em processo. openclaw memory status --deep relata o armazenamento vetorial local
separadamente do provedor de embeddings, então Vector store: unavailable aponta
para o carregamento do sqlite-vec, enquanto Embeddings: unavailable aponta para autenticação/provedor
ou prontidão do modelo. Verifique os logs para o erro de carregamento específico.
Configuração
Para configuração do provedor de embeddings, ajuste de busca híbrida (pesos, MMR, decaimento temporal), indexação em lotes, memória multimodal, sqlite-vec, caminhos extras e todos os outros ajustes de configuração, consulte a referência de configuração de memória.