Tools
Tarefa de LLM
llm-task é uma ferramenta opcional de Plugin que executa uma tarefa de LLM somente JSON e
retorna saída estruturada (opcionalmente validada contra JSON Schema).
Isso é ideal para mecanismos de workflow como Lobster: você pode adicionar uma única etapa de LLM sem escrever código personalizado do OpenClaw para cada workflow.
Habilitar o Plugin
- Habilite o Plugin:
{
"plugins": {
"entries": {
"llm-task": { "enabled": true }
}
}
}
- Permita a ferramenta opcional:
{
"tools": {
"alsoAllow": ["llm-task"]
}
}
Use tools.allow somente quando quiser o modo de allowlist restritiva.
Configuração (opcional)
{
"plugins": {
"entries": {
"llm-task": {
"enabled": true,
"config": {
"defaultProvider": "openai-codex",
"defaultModel": "gpt-5.5",
"defaultAuthProfileId": "main",
"allowedModels": ["openai/gpt-5.4"],
"maxTokens": 800,
"timeoutMs": 30000
}
}
}
}
}
allowedModels é uma allowlist de strings provider/model. Se definida, qualquer solicitação
fora da lista será rejeitada.
Parâmetros da ferramenta
prompt(string, obrigatório)input(any, opcional)schema(object, JSON Schema opcional)provider(string, opcional)model(string, opcional)thinking(string, opcional)authProfileId(string, opcional)temperature(number, opcional)maxTokens(number, opcional)timeoutMs(number, opcional)
thinking aceita os presets padrão de raciocínio do OpenClaw, como low ou medium.
Saída
Retorna details.json contendo o JSON analisado (e valida contra
schema quando fornecido).
Exemplo: etapa de workflow do Lobster
Limitação importante
O exemplo abaixo pressupõe que a CLI standalone do Lobster está em execução em um ambiente em que openclaw.invoke já tem a URL do gateway e o contexto de autenticação corretos.
Para o executor Lobster embutido incluído no OpenClaw, esse padrão de CLI aninhada não é confiável atualmente:
openclaw.invoke --tool llm-task --action json --args-json '{ ... }'
Até que o Lobster embutido tenha uma ponte compatível para esse fluxo, prefira uma destas opções:
- chamadas diretas da ferramenta
llm-taskfora do Lobster, ou - etapas do Lobster que não dependam de chamadas aninhadas de
openclaw.invoke.
Exemplo da CLI standalone do Lobster:
openclaw.invoke --tool llm-task --action json --args-json '{
"prompt": "Given the input email, return intent and draft.",
"thinking": "low",
"input": {
"subject": "Hello",
"body": "Can you help?"
},
"schema": {
"type": "object",
"properties": {
"intent": { "type": "string" },
"draft": { "type": "string" }
},
"required": ["intent", "draft"],
"additionalProperties": false
}
}'
Observações de segurança
- A ferramenta é somente JSON e instrui o modelo a gerar somente JSON (sem blocos de código, sem comentários).
- Nenhuma ferramenta é exposta ao modelo nesta execução.
- Trate a saída como não confiável, a menos que você a valide com
schema. - Coloque aprovações antes de qualquer etapa com efeitos colaterais (enviar, publicar, executar).