Plugins

Pamięć LanceDB

memory-lancedb to wbudowany Plugin pamięci, który przechowuje pamięć długoterminową w LanceDB i używa osadzeń do przywoływania. Może automatycznie przywoływać istotne wspomnienia przed turą modelu i przechwytywać ważne fakty po odpowiedzi.

Użyj go, gdy chcesz lokalnej wektorowej bazy danych dla pamięci, potrzebujesz punktu końcowego osadzeń zgodnego z OpenAI albo chcesz utrzymywać bazę pamięci poza domyślnym wbudowanym magazynem pamięci.

Szybki start

{
  plugins: {
    slots: {
      memory: "memory-lancedb",
    },
    entries: {
      "memory-lancedb": {
        enabled: true,
        config: {
          embedding: {
            provider: "openai",
            model: "text-embedding-3-small",
          },
          autoRecall: true,
          autoCapture: false,
        },
      },
    },
  },
}

Uruchom ponownie Gateway po zmianie konfiguracji pluginu:

openclaw gateway restart

Następnie sprawdź, czy Plugin został załadowany:

openclaw plugins list

Osadzenia obsługiwane przez dostawcę

memory-lancedb może używać tych samych adapterów dostawców osadzeń pamięci co memory-core. Ustaw embedding.provider i pomiń embedding.apiKey, aby użyć skonfigurowanego profilu uwierzytelniania dostawcy, zmiennej środowiskowej albo models.providers.<provider>.apiKey.

{
  plugins: {
    slots: {
      memory: "memory-lancedb",
    },
    entries: {
      "memory-lancedb": {
        enabled: true,
        config: {
          embedding: {
            provider: "openai",
            model: "text-embedding-3-small",
          },
          autoRecall: true,
        },
      },
    },
  },
}

Ta ścieżka działa z profilami uwierzytelniania dostawcy, które udostępniają dane uwierzytelniające do osadzeń. Na przykład GitHub Copilot może być używany, gdy profil/plan Copilot obsługuje osadzenia:

{
  plugins: {
    slots: {
      memory: "memory-lancedb",
    },
    entries: {
      "memory-lancedb": {
        enabled: true,
        config: {
          embedding: {
            provider: "github-copilot",
            model: "text-embedding-3-small",
          },
        },
      },
    },
  },
}

OpenAI Codex / ChatGPT OAuth (openai-codex) nie jest poświadczeniem osadzeń OpenAI Platform. Do osadzeń OpenAI użyj profilu uwierzytelniania z kluczem API OpenAI, OPENAI_API_KEY albo models.providers.openai.apiKey. Użytkownicy korzystający tylko z OAuth mogą użyć innego dostawcy obsługującego osadzenia, takiego jak GitHub Copilot lub Ollama.

Osadzenia Ollama

Do osadzeń Ollama preferuj wbudowanego dostawcę osadzeń Ollama. Używa on natywnego punktu końcowego Ollama /api/embed i stosuje te same reguły uwierzytelniania/adresu bazowego URL co dostawca Ollama opisany w Ollama.

{
  plugins: {
    slots: {
      memory: "memory-lancedb",
    },
    entries: {
      "memory-lancedb": {
        enabled: true,
        config: {
          embedding: {
            provider: "ollama",
            baseUrl: "http://127.0.0.1:11434",
            model: "mxbai-embed-large",
            dimensions: 1024,
          },
          recallMaxChars: 400,
          autoRecall: true,
          autoCapture: false,
        },
      },
    },
  },
}

Ustaw dimensions dla niestandardowych modeli osadzeń. OpenClaw zna wymiary dla text-embedding-3-small i text-embedding-3-large; modele niestandardowe potrzebują tej wartości w konfiguracji, aby LanceDB mogło utworzyć kolumnę wektorową.

W przypadku małych lokalnych modeli osadzeń obniż recallMaxChars, jeśli widzisz błędy długości kontekstu z lokalnego serwera.

Dostawcy zgodni z OpenAI

Niektórzy dostawcy osadzeń zgodni z OpenAI odrzucają parametr encoding_format, podczas gdy inni go ignorują i zawsze zwracają wektory number[]. Dlatego memory-lancedb pomija encoding_format w żądaniach osadzeń i akceptuje odpowiedzi jako tablice liczb zmiennoprzecinkowych albo zakodowane w base64 odpowiedzi float32.

Jeśli masz surowy punkt końcowy osadzeń zgodny z OpenAI, który nie ma wbudowanego adaptera dostawcy, pomiń embedding.provider (albo pozostaw jako openai) i ustaw embedding.apiKey oraz embedding.baseUrl. Zachowuje to bezpośrednią ścieżkę klienta zgodnego z OpenAI.

Ustaw embedding.dimensions dla dostawców, których wymiary modelu nie są wbudowane. Na przykład ZhiPu embedding-3 używa 2048 wymiarów:

{
  plugins: {
    entries: {
      "memory-lancedb": {
        enabled: true,
        config: {
          embedding: {
            apiKey: "${ZHIPU_API_KEY}",
            baseUrl: "https://open.bigmodel.cn/api/paas/v4",
            model: "embedding-3",
            dimensions: 2048,
          },
        },
      },
    },
  },
}

Limity przywoływania i przechwytywania

memory-lancedb ma dwa osobne limity tekstu:

Ustawienie Domyślnie Zakres Dotyczy
recallMaxChars 1000 100-10000 tekst wysyłany do API osadzeń na potrzeby przywoływania
captureMaxChars 500 100-10000 długość wiadomości asystenta kwalifikująca się do przechwycenia

recallMaxChars kontroluje automatyczne przywoływanie, narzędzie memory_recall, ścieżkę zapytań memory_forget oraz openclaw ltm search. Automatyczne przywoływanie preferuje najnowszą wiadomość użytkownika z tury i wraca do pełnego promptu tylko wtedy, gdy nie ma dostępnej wiadomości użytkownika. Dzięki temu metadane kanału i duże bloki promptu nie trafiają do żądania osadzeń.

captureMaxChars kontroluje, czy odpowiedź jest wystarczająco krótka, aby zostać rozważona do automatycznego przechwycenia. Nie ogranicza osadzeń zapytań przywoływania.

Polecenia

Gdy memory-lancedb jest aktywnym pluginem pamięci, rejestruje przestrzeń nazw CLI ltm:

openclaw ltm list
openclaw ltm search "project preferences"
openclaw ltm stats

Plugin rozszerza też openclaw memory o niewektorowe podpolecenie query, które działa bezpośrednio na tabeli LanceDB:

openclaw memory query --cols id,text,createdAt --limit 20
openclaw memory query --filter "category = 'preference'" --order-by createdAt:desc
  • --cols <columns>: rozdzielona przecinkami lista dozwolonych kolumn (domyślnie id, text, importance, category, createdAt).
  • --filter <condition>: klauzula WHERE w stylu SQL; ograniczona do 200 znaków i do znaków alfanumerycznych, operatorów porównania, cudzysłowów, nawiasów oraz małego zestawu bezpiecznych znaków interpunkcyjnych.
  • --limit <n>: dodatnia liczba całkowita; domyślnie 10.
  • --order-by <column>:<asc|desc>: sortowanie w pamięci stosowane po filtrze; kolumna sortowania jest automatycznie dołączana do projekcji.

Agenci otrzymują też narzędzia pamięci LanceDB z aktywnego pluginu pamięci:

  • memory_recall do przywoływania wspieranego przez LanceDB
  • memory_store do zapisywania ważnych faktów, preferencji, decyzji i encji
  • memory_forget do usuwania pasujących wspomnień

Przechowywanie

Domyślnie dane LanceDB znajdują się w ~/.openclaw/memory/lancedb. Nadpisz ścieżkę za pomocą dbPath:

{
  plugins: {
    entries: {
      "memory-lancedb": {
        enabled: true,
        config: {
          dbPath: "~/.openclaw/memory/lancedb",
          embedding: {
            apiKey: "${OPENAI_API_KEY}",
            model: "text-embedding-3-small",
          },
        },
      },
    },
  },
}

storageOptions przyjmuje pary klucz/wartość typu string dla backendów przechowywania LanceDB i obsługuje rozwijanie ${ENV_VAR}:

{
  plugins: {
    entries: {
      "memory-lancedb": {
        enabled: true,
        config: {
          dbPath: "s3://memory-bucket/openclaw",
          storageOptions: {
            access_key: "${AWS_ACCESS_KEY_ID}",
            secret_key: "${AWS_SECRET_ACCESS_KEY}",
            endpoint: "${AWS_ENDPOINT_URL}",
          },
          embedding: {
            apiKey: "${OPENAI_API_KEY}",
            model: "text-embedding-3-small",
          },
        },
      },
    },
  },
}

Zależności uruchomieniowe

memory-lancedb zależy od natywnego pakietu @lancedb/lancedb. Pakietowany OpenClaw traktuje ten pakiet jako część pakietu pluginu. Uruchamianie Gateway nie naprawia zależności pluginów; jeśli zależność jest brakująca, zainstaluj ponownie albo zaktualizuj pakiet pluginu i uruchom ponownie Gateway.

Jeśli starsza instalacja zapisuje w logach błąd brakującego dist/package.json albo brakującego @lancedb/lancedb podczas ładowania pluginu, zaktualizuj OpenClaw i uruchom ponownie Gateway.

Jeśli Plugin zapisuje w logach, że LanceDB jest niedostępne na darwin-x64, użyj domyślnego backendu pamięci na tej maszynie, przenieś Gateway na obsługiwaną platformę albo wyłącz memory-lancedb.

Rozwiązywanie problemów

Długość wejścia przekracza długość kontekstu

Zwykle oznacza to, że model osadzeń odrzucił zapytanie przywoływania:

memory-lancedb: recall failed: Error: 400 the input length exceeds the context length

Ustaw niższe recallMaxChars, a następnie uruchom ponownie Gateway:

{
  plugins: {
    entries: {
      "memory-lancedb": {
        config: {
          recallMaxChars: 400,
        },
      },
    },
  },
}

W przypadku Ollama sprawdź też, czy serwer osadzeń jest osiągalny z hosta Gateway:

curl http://127.0.0.1:11434/v1/embeddings \
  -H "Content-Type: application/json" \
  -d '{"model":"mxbai-embed-large","input":"hello"}'

Nieobsługiwany model osadzeń

Bez dimensions znane są tylko wbudowane wymiary osadzeń OpenAI. W przypadku lokalnych lub niestandardowych modeli osadzeń ustaw embedding.dimensions na rozmiar wektora zgłaszany przez ten model.

Plugin ładuje się, ale nie pojawiają się wspomnienia

Sprawdź, czy plugins.slots.memory wskazuje na memory-lancedb, a następnie uruchom:

openclaw ltm stats
openclaw ltm search "recent preference"

Jeśli autoCapture jest wyłączone, Plugin będzie przywoływać istniejące wspomnienia, ale nie będzie automatycznie zapisywać nowych. Użyj narzędzia memory_store albo włącz autoCapture, jeśli chcesz automatycznego przechwytywania.

Powiązane