Providers
GitHub Copilot
GitHub Copilot é o assistente de codificação com IA do GitHub. Ele fornece acesso aos modelos do Copilot para sua conta e plano do GitHub. O OpenClaw pode usar o Copilot como provedor de modelos de duas maneiras diferentes.
Duas formas de usar o Copilot no OpenClaw
Provedor integrado (github-copilot)
Use o fluxo nativo de login do dispositivo para obter um token do GitHub e, em seguida, trocá-lo por tokens da API do Copilot quando o OpenClaw for executado. Este é o caminho padrão e mais simples porque não exige o VS Code.
Execute o comando de login
openclaw models auth login-github-copilot
Você será solicitado a visitar uma URL e inserir um código de uso único. Mantenha o terminal aberto até a conclusão.
Defina um modelo padrão
openclaw models set github-copilot/claude-opus-4.7
Ou na configuração:
{
agents: {
defaults: { model: { primary: "github-copilot/claude-opus-4.7" } },
},
}
Plugin Copilot Proxy (copilot-proxy)
Use a extensão Copilot Proxy do VS Code como uma ponte local. O OpenClaw se comunica com
o endpoint /v1 do proxy e usa a lista de modelos que você configura lá.
Flags opcionais
| Flag | Descrição |
|---|---|
--yes |
Pula o prompt de confirmação |
--set-default |
Também aplica o modelo padrão recomendado pelo provedor |
# Pular confirmação
openclaw models auth login-github-copilot --yes
# Fazer login e definir o modelo padrão em uma etapa
openclaw models auth login --provider github-copilot --method device --set-default
Integração não interativa
Se você já tem um token de acesso OAuth do GitHub para o Copilot, importe-o durante
a configuração sem interface interativa com openclaw onboard --non-interactive:
openclaw onboard --non-interactive --accept-risk \
--auth-choice github-copilot \
--github-copilot-token "$COPILOT_GITHUB_TOKEN" \
--skip-channels --skip-health
Você também pode omitir --auth-choice; passar --github-copilot-token infere a
opção de autenticação do provedor GitHub Copilot. Se a flag for omitida, a integração
recorre a COPILOT_GITHUB_TOKEN, GH_TOKEN e depois GITHUB_TOKEN. Use
--secret-input-mode ref com COPILOT_GITHUB_TOKEN definido para armazenar um
tokenRef baseado em variável de ambiente em vez de texto simples em auth-profiles.json.
TTY interativo obrigatório
O fluxo de login do dispositivo exige um TTY interativo. Execute-o diretamente em um terminal, não em um script não interativo ou pipeline de CI.
A disponibilidade de modelos depende do seu plano
A disponibilidade de modelos do Copilot depende do seu plano do GitHub. Se um modelo for
rejeitado, tente outro ID (por exemplo, github-copilot/gpt-4.1).
Seleção de transporte
IDs de modelo Claude usam automaticamente o transporte Anthropic Messages. Modelos GPT, o-series e Gemini mantêm o transporte OpenAI Responses. O OpenClaw seleciona o transporte correto com base na referência do modelo.
Compatibilidade de solicitações
O OpenClaw envia cabeçalhos de solicitação no estilo IDE do Copilot em transportes do Copilot, incluindo turnos integrados de Compaction, resultado de ferramenta e acompanhamento de imagem. Ele não habilita continuação de Responses no nível do provedor para o Copilot, a menos que esse comportamento tenha sido verificado com a API do Copilot.
Ordem de resolução de variáveis de ambiente
O OpenClaw resolve a autenticação do Copilot a partir de variáveis de ambiente na seguinte ordem de prioridade:
| Prioridade | Variável | Observações |
|---|---|---|
| 1 | COPILOT_GITHUB_TOKEN |
Prioridade mais alta, específica do Copilot |
| 2 | GH_TOKEN |
Token da CLI do GitHub (fallback) |
| 3 | GITHUB_TOKEN |
Token padrão do GitHub (mais baixa) |
Quando várias variáveis estão definidas, o OpenClaw usa a de maior prioridade.
O fluxo de login do dispositivo (openclaw models auth login-github-copilot) armazena
seu token no repositório de perfis de autenticação e tem precedência sobre todas as variáveis
de ambiente.
Armazenamento de token
O login armazena um token do GitHub no repositório de perfis de autenticação e o troca por um token da API do Copilot quando o OpenClaw é executado. Você não precisa gerenciar o token manualmente.
Embeddings de busca de memória
O GitHub Copilot também pode atuar como provedor de embeddings para busca de memória. Se você tem uma assinatura do Copilot e fez login, o OpenClaw pode usá-lo para embeddings sem uma chave de API separada.
Detecção automática
Quando memorySearch.provider é "auto" (o padrão), o GitHub Copilot é tentado
na prioridade 15 -- depois de embeddings locais, mas antes do OpenAI e outros
provedores pagos. Se um token do GitHub estiver disponível, o OpenClaw descobre os
modelos de embedding disponíveis na API do Copilot e escolhe automaticamente o melhor.
Configuração explícita
{
agents: {
defaults: {
memorySearch: {
provider: "github-copilot",
// Opcional: substitua o modelo descoberto automaticamente
model: "text-embedding-3-small",
},
},
},
}
Como funciona
- O OpenClaw resolve seu token do GitHub (a partir de variáveis de ambiente ou perfil de autenticação).
- Troca-o por um token de API do Copilot de curta duração.
- Consulta o endpoint
/modelsdo Copilot para descobrir modelos de embedding disponíveis. - Escolhe o melhor modelo (prefere
text-embedding-3-small). - Envia solicitações de embedding para o endpoint
/embeddingsdo Copilot.
A disponibilidade de modelos depende do seu plano do GitHub. Se nenhum modelo de embedding estiver disponível, o OpenClaw pula o Copilot e tenta o próximo provedor.