Security

Contribuindo para o modelo de ameaças

Obrigado por ajudar a tornar o OpenClaw mais seguro. Este modelo de ameaças é um documento vivo e aceitamos contribuições de qualquer pessoa - você não precisa ser especialista em segurança.

Formas de contribuir

Adicionar uma ameaça

Identificou um vetor de ataque ou risco que ainda não cobrimos? Abra uma issue em openclaw/trust e descreva em suas próprias palavras. Você não precisa conhecer nenhum framework nem preencher todos os campos - basta descrever o cenário.

Útil incluir (mas não obrigatório):

  • O cenário de ataque e como ele poderia ser explorado
  • Quais partes do OpenClaw são afetadas (CLI, Gateway, canais, ClawHub, servidores MCP etc.)
  • Quão grave você acha que é (baixo / médio / alto / crítico)
  • Links para pesquisas relacionadas, CVEs ou exemplos do mundo real

Cuidaremos do mapeamento ATLAS, dos IDs de ameaça e da avaliação de risco durante a revisão. Se você quiser incluir esses detalhes, ótimo - mas isso não é esperado.

Isto é para adicionar ao modelo de ameaças, não para relatar vulnerabilidades ativas. Se você encontrou uma vulnerabilidade explorável, consulte nossa página Trust para instruções de divulgação responsável.

Sugerir uma mitigação

Tem uma ideia de como tratar uma ameaça existente? Abra uma issue ou PR referenciando a ameaça. Mitigações úteis são específicas e acionáveis - por exemplo, "limitação de taxa por remetente de 10 mensagens/minuto no Gateway" é melhor do que "implementar limitação de taxa".

Propor uma cadeia de ataque

Cadeias de ataque mostram como várias ameaças se combinam em um cenário de ataque realista. Se você enxergar uma combinação perigosa, descreva as etapas e como um atacante as encadearia. Uma narrativa curta de como o ataque acontece na prática é mais valiosa do que um modelo formal.

Corrigir ou melhorar conteúdo existente

Erros de digitação, esclarecimentos, informações desatualizadas, exemplos melhores - PRs são bem-vindos, sem necessidade de issue.

O que usamos

Framework MITRE ATLAS

Este modelo de ameaças é construído sobre o MITRE ATLAS (Adversarial Threat Landscape for AI Systems), um framework projetado especificamente para ameaças de IA/ML, como injeção de prompt, uso indevido de ferramentas e exploração de agentes. Você não precisa conhecer ATLAS para contribuir - mapeamos as submissões para o framework durante a revisão.

IDs de ameaça

Cada ameaça recebe um ID como T-EXEC-003. As categorias são:

Código Categoria
RECON Reconhecimento - coleta de informações
ACCESS Acesso inicial - obtenção de entrada
EXEC Execução - execução de ações maliciosas
PERSIST Persistência - manutenção do acesso
EVADE Evasão de defesa - evitar detecção
DISC Descoberta - aprender sobre o ambiente
EXFIL Exfiltração - roubo de dados
IMPACT Impacto - dano ou interrupção

Os IDs são atribuídos pelos mantenedores durante a revisão. Você não precisa escolher um.

Níveis de risco

Nível Significado
Crítico Comprometimento total do sistema, ou alta probabilidade + impacto crítico
Alto Dano significativo provável, ou probabilidade média + impacto crítico
Médio Risco moderado, ou baixa probabilidade + alto impacto
Baixo Improvável e impacto limitado

Se você não tiver certeza sobre o nível de risco, apenas descreva o impacto e nós o avaliaremos.

Processo de revisão

  1. Triagem - Revisamos novas submissões em até 48 horas
  2. Avaliação - Verificamos a viabilidade, atribuímos o mapeamento ATLAS e o ID de ameaça, validamos o nível de risco
  3. Documentação - Garantimos que tudo esteja formatado e completo
  4. Mesclagem - Adicionado ao modelo de ameaças e à visualização

Recursos

Contato

  • Vulnerabilidades de segurança: Consulte nossa página Trust para instruções de relato
  • Perguntas sobre o modelo de ameaças: Abra uma issue em openclaw/trust
  • Chat geral: canal #security no Discord

Reconhecimento

Contribuidores do modelo de ameaças são reconhecidos nos agradecimentos do modelo de ameaças, nas notas de lançamento e no hall da fama de segurança do OpenClaw por contribuições significativas.

Relacionado