Providers
Mistral
OpenClaw inclui um Plugin Mistral integrado que registra quatro contratos: conclusões de chat, compreensão de mídia (transcrição em lote Voxtral), STT em tempo real para Chamada de voz (Voxtral Realtime) e embeddings de memória (mistral-embed).
| Propriedade | Valor |
|---|---|
| ID do provedor | mistral |
| Plugin | integrado, enabledByDefault: true |
| Variável env de autenticação | MISTRAL_API_KEY |
| Sinalizador de onboarding | --auth-choice mistral-api-key |
| Sinalizador direto da CLI | --mistral-api-key <key> |
| API | compatível com OpenAI (openai-completions) |
| URL base | https://api.mistral.ai/v1 |
| Modelo padrão | mistral/mistral-large-latest |
| Modelo de embedding | mistral-embed |
| Voxtral em lote | voxtral-mini-latest (transcrição de áudio) |
| Voxtral em tempo real | voxtral-mini-transcribe-realtime-2602 |
Primeiros passos
Obtenha sua chave de API
Crie uma chave de API no Console da Mistral.
Execute o onboarding
openclaw onboard --auth-choice mistral-api-key
Ou passe a chave diretamente:
openclaw onboard --mistral-api-key "$MISTRAL_API_KEY"
Defina um modelo padrão
{
env: { MISTRAL_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "mistral/mistral-large-latest" } } },
}
Verifique se o modelo está disponível
openclaw models list --provider mistral
Catálogo de LLM integrado
Atualmente, o OpenClaw inclui este catálogo Mistral integrado:
| Referência do modelo | Entrada | Contexto | Saída máxima | Observações |
|---|---|---|---|---|
mistral/mistral-large-latest |
texto, imagem | 262,144 | 16,384 | Modelo padrão |
mistral/mistral-medium-2508 |
texto, imagem | 262,144 | 8,192 | Mistral Medium 3.1 |
mistral/mistral-small-latest |
texto, imagem | 128,000 | 16,384 | Mistral Small 4; raciocínio ajustável via API reasoning_effort |
mistral/pixtral-large-latest |
texto, imagem | 128,000 | 32,768 | Pixtral |
mistral/codestral-latest |
texto | 256,000 | 4,096 | Codificação |
mistral/devstral-medium-latest |
texto | 262,144 | 32,768 | Devstral 2 |
mistral/magistral-small |
texto | 128,000 | 40,000 | Com raciocínio habilitado |
Transcrição de áudio (Voxtral)
Use Voxtral para transcrição de áudio em lote por meio do pipeline de compreensão de mídia.
{
tools: {
media: {
audio: {
enabled: true,
models: [{ provider: "mistral", model: "voxtral-mini-latest" }],
},
},
},
}
STT de streaming para Chamada de voz
O Plugin mistral integrado registra Voxtral Realtime como um provedor de STT de
streaming para Chamada de voz.
| Configuração | Caminho de configuração | Padrão |
|---|---|---|
| Chave de API | plugins.entries.voice-call.config.streaming.providers.mistral.apiKey |
Usa MISTRAL_API_KEY como fallback |
| Modelo | ...mistral.model |
voxtral-mini-transcribe-realtime-2602 |
| Codificação | ...mistral.encoding |
pcm_mulaw |
| Taxa de amostragem | ...mistral.sampleRate |
8000 |
| Atraso alvo | ...mistral.targetStreamingDelayMs |
800 |
{
plugins: {
entries: {
"voice-call": {
config: {
streaming: {
enabled: true,
provider: "mistral",
providers: {
mistral: {
apiKey: "${MISTRAL_API_KEY}",
targetStreamingDelayMs: 800,
},
},
},
},
},
},
},
}
Configuração avançada
Raciocínio ajustável (mistral-small-latest)
mistral/mistral-small-latest mapeia para Mistral Small 4 e oferece suporte a raciocínio ajustável na API Chat Completions via reasoning_effort (none minimiza pensamento extra na saída; high expõe rastros completos de pensamento antes da resposta final).
O OpenClaw mapeia o nível de thinking da sessão para a API da Mistral:
| Nível de thinking do OpenClaw | reasoning_effort da Mistral |
|---|---|
| off / minimal | none |
| low / medium / high / xhigh / adaptive / max | high |
Embeddings de memória
A Mistral pode fornecer embeddings de memória via /v1/embeddings (modelo padrão: mistral-embed).
{
memorySearch: { provider: "mistral" },
}
Autenticação e URL base
- A autenticação da Mistral usa
MISTRAL_API_KEY(cabeçalho Bearer). - A URL base do provedor usa
https://api.mistral.ai/v1por padrão e aceita o formato de solicitação padrão de conclusões de chat compatível com OpenAI. - O modelo padrão de onboarding é
mistral/mistral-large-latest. - Substitua a URL base em
models.providers.mistral.baseUrlsomente quando a Mistral publicar explicitamente um endpoint regional de que você precise.