Sessions and memory

Pamięć Honcho

Honcho dodaje do OpenClaw natywną dla AI pamięć. Utrwala rozmowy w dedykowanej usłudze i z czasem buduje modele użytkownika oraz agenta, dając agentowi kontekst między sesjami, który wykracza poza pliki Markdown w przestrzeni roboczej.

Co zapewnia

  • Pamięć między sesjami -- rozmowy są utrwalane po każdej turze, więc kontekst przenosi się między resetami sesji, Compaction i przełączaniem kanałów.
  • Modelowanie użytkownika -- Honcho utrzymuje profil dla każdego użytkownika (preferencje, fakty, styl komunikacji) oraz dla agenta (osobowość, wyuczone zachowania).
  • Wyszukiwanie semantyczne -- wyszukiwanie obserwacji z poprzednich rozmów, a nie tylko bieżącej sesji.
  • Świadomość wielu agentów -- agenci nadrzędni automatycznie śledzą uruchomionych podagentów, a rodzice są dodawani jako obserwatorzy w sesjach podrzędnych.

Dostępne narzędzia

Honcho rejestruje narzędzia, których agent może używać podczas rozmowy:

Pobieranie danych (szybkie, bez wywołania LLM):

Narzędzie Co robi
honcho_context Pełna reprezentacja użytkownika między sesjami
honcho_search_conclusions Wyszukiwanie semantyczne po zapisanych wnioskach
honcho_search_messages Znajdowanie wiadomości między sesjami (filtrowanie po nadawcy, dacie)
honcho_session Historia i podsumowanie bieżącej sesji

Pytania i odpowiedzi (zasilane przez LLM):

Narzędzie Co robi
honcho_ask Zadawanie pytań o użytkownika. depth='quick' dla faktów, 'thorough' dla syntezy

Pierwsze kroki

Zainstaluj Plugin i uruchom konfigurację:

openclaw plugins install @honcho-ai/openclaw-honcho
openclaw honcho setup
openclaw gateway --force

Polecenie konfiguracji pyta o poświadczenia API, zapisuje konfigurację i opcjonalnie migruje istniejące pliki pamięci przestrzeni roboczej.

Konfiguracja

Ustawienia znajdują się w plugins.entries["openclaw-honcho"].config:

{
  plugins: {
    entries: {
      "openclaw-honcho": {
        config: {
          apiKey: "your-api-key", // pomiń dla self-hosted
          workspaceId: "openclaw", // izolacja pamięci
          baseUrl: "https://api.honcho.dev",
        },
      },
    },
  },
}

W przypadku instancji self-hosted wskaż baseUrl na lokalny serwer (na przykład http://localhost:8000) i pomiń klucz API.

Migracja istniejącej pamięci

Jeśli masz istniejące pliki pamięci przestrzeni roboczej (USER.md, MEMORY.md, IDENTITY.md, memory/, canvas/), openclaw honcho setup wykryje je i zaproponuje migrację.

Jak to działa

Po każdej turze AI rozmowa jest utrwalana w Honcho. Obserwowane są zarówno wiadomości użytkownika, jak i agenta, co pozwala Honcho z czasem budować i udoskonalać swoje modele.

Podczas rozmowy narzędzia Honcho odpytują usługę w fazie before_prompt_build, wstrzykując odpowiedni kontekst, zanim model zobaczy prompt. Zapewnia to dokładne granice tur i trafne przywoływanie informacji.

Honcho vs pamięć wbudowana

Wbudowana / QMD Honcho
Przechowywanie Pliki Markdown w przestrzeni roboczej Dedykowana usługa (lokalna lub hostowana)
Między sesjami Przez pliki pamięci Automatyczne, wbudowane
Modelowanie użytkownika Ręczne (zapis do MEMORY.md) Automatyczne profile
Wyszukiwanie Wektorowe + słowa kluczowe (hybrydowe) Semantyczne po obserwacjach
Wiele agentów Nieśledzone Świadomość relacji rodzic/potomek
Zależności Brak (wbudowane) lub binarka QMD Instalacja Pluginu

Honcho i wbudowany system pamięci mogą działać razem. Gdy skonfigurowano QMD, stają się dostępne dodatkowe narzędzia do wyszukiwania lokalnych plików Markdown obok pamięci między sesjami Honcho.

Polecenia CLI

openclaw honcho setup                        # Konfiguracja klucza API i migracja plików
openclaw honcho status                       # Sprawdzenie stanu połączenia
openclaw honcho ask <question>               # Zapytanie Honcho o użytkownika
openclaw honcho search <query> [-k N] [-d D] # Wyszukiwanie semantyczne w pamięci

Dalsza lektura

Powiązane