Sessions and memory
Pamięć Honcho
Honcho dodaje do OpenClaw natywną dla AI pamięć. Utrwala rozmowy w dedykowanej usłudze i z czasem buduje modele użytkownika oraz agenta, dając agentowi kontekst między sesjami, który wykracza poza pliki Markdown w przestrzeni roboczej.
Co zapewnia
- Pamięć między sesjami -- rozmowy są utrwalane po każdej turze, więc kontekst przenosi się między resetami sesji, Compaction i przełączaniem kanałów.
- Modelowanie użytkownika -- Honcho utrzymuje profil dla każdego użytkownika (preferencje, fakty, styl komunikacji) oraz dla agenta (osobowość, wyuczone zachowania).
- Wyszukiwanie semantyczne -- wyszukiwanie obserwacji z poprzednich rozmów, a nie tylko bieżącej sesji.
- Świadomość wielu agentów -- agenci nadrzędni automatycznie śledzą uruchomionych podagentów, a rodzice są dodawani jako obserwatorzy w sesjach podrzędnych.
Dostępne narzędzia
Honcho rejestruje narzędzia, których agent może używać podczas rozmowy:
Pobieranie danych (szybkie, bez wywołania LLM):
| Narzędzie | Co robi |
|---|---|
honcho_context |
Pełna reprezentacja użytkownika między sesjami |
honcho_search_conclusions |
Wyszukiwanie semantyczne po zapisanych wnioskach |
honcho_search_messages |
Znajdowanie wiadomości między sesjami (filtrowanie po nadawcy, dacie) |
honcho_session |
Historia i podsumowanie bieżącej sesji |
Pytania i odpowiedzi (zasilane przez LLM):
| Narzędzie | Co robi |
|---|---|
honcho_ask |
Zadawanie pytań o użytkownika. depth='quick' dla faktów, 'thorough' dla syntezy |
Pierwsze kroki
Zainstaluj Plugin i uruchom konfigurację:
openclaw plugins install @honcho-ai/openclaw-honcho
openclaw honcho setup
openclaw gateway --force
Polecenie konfiguracji pyta o poświadczenia API, zapisuje konfigurację i opcjonalnie migruje istniejące pliki pamięci przestrzeni roboczej.
Konfiguracja
Ustawienia znajdują się w plugins.entries["openclaw-honcho"].config:
{
plugins: {
entries: {
"openclaw-honcho": {
config: {
apiKey: "your-api-key", // pomiń dla self-hosted
workspaceId: "openclaw", // izolacja pamięci
baseUrl: "https://api.honcho.dev",
},
},
},
},
}
W przypadku instancji self-hosted wskaż baseUrl na lokalny serwer (na przykład
http://localhost:8000) i pomiń klucz API.
Migracja istniejącej pamięci
Jeśli masz istniejące pliki pamięci przestrzeni roboczej (USER.md, MEMORY.md,
IDENTITY.md, memory/, canvas/), openclaw honcho setup wykryje je i
zaproponuje migrację.
Jak to działa
Po każdej turze AI rozmowa jest utrwalana w Honcho. Obserwowane są zarówno wiadomości użytkownika, jak i agenta, co pozwala Honcho z czasem budować i udoskonalać swoje modele.
Podczas rozmowy narzędzia Honcho odpytują usługę w fazie before_prompt_build,
wstrzykując odpowiedni kontekst, zanim model zobaczy prompt. Zapewnia to
dokładne granice tur i trafne przywoływanie informacji.
Honcho vs pamięć wbudowana
| Wbudowana / QMD | Honcho | |
|---|---|---|
| Przechowywanie | Pliki Markdown w przestrzeni roboczej | Dedykowana usługa (lokalna lub hostowana) |
| Między sesjami | Przez pliki pamięci | Automatyczne, wbudowane |
| Modelowanie użytkownika | Ręczne (zapis do MEMORY.md) |
Automatyczne profile |
| Wyszukiwanie | Wektorowe + słowa kluczowe (hybrydowe) | Semantyczne po obserwacjach |
| Wiele agentów | Nieśledzone | Świadomość relacji rodzic/potomek |
| Zależności | Brak (wbudowane) lub binarka QMD | Instalacja Pluginu |
Honcho i wbudowany system pamięci mogą działać razem. Gdy skonfigurowano QMD, stają się dostępne dodatkowe narzędzia do wyszukiwania lokalnych plików Markdown obok pamięci między sesjami Honcho.
Polecenia CLI
openclaw honcho setup # Konfiguracja klucza API i migracja plików
openclaw honcho status # Sprawdzenie stanu połączenia
openclaw honcho ask <question> # Zapytanie Honcho o użytkownika
openclaw honcho search <query> [-k N] [-d D] # Wyszukiwanie semantyczne w pamięci
Dalsza lektura
- Kod źródłowy Pluginu
- Dokumentacja Honcho
- Przewodnik integracji Honcho z OpenClaw
- Memory -- przegląd pamięci OpenClaw
- Context Engines -- jak działają silniki kontekstu Pluginów