Com as extensões do GitHub Models, você pode chamar modelos de IA específicos do Copilot Chat e da GitHub CLI. Essas extensões se integram diretamente ao fluxo de trabalho de desenvolvimento, permitindo que você faça solicitações aos modelos sem a alternância de contexto.
Como usar modelos de IA no Copilot Chat
Se você tiver uma assinatura do Copilot, poderá trabalhar com os modelos de IA no Copilot Chat de duas maneiras diferentes:
- Usando a Copilot Extension GitHub Models. Com essa extensão, você pode solicitar recomendações de modelo com base em determinados critérios e conversar com modelos específicos. Confira “Como usar a Copilot Extension GitHub Models”.
- Usando o suporte a vários modelos no Copilot Chat. Com o Copilot Chat de vários modelos, você pode escolher um modelo específico a ser usado para uma conversa e, em seguida, fazer uma solicitação ao Copilot Chat como de costume. Consulte "Como fazer perguntas ao GitHub Copilot no GitHub" e "Fazendo perguntas ao GitHub Copilot em seu IDE".
Como usar a Copilot Extension GitHub Models
Note
As Copilot Extension GitHub Models está em versão prévia pública e sujeita a alterações.
-
Instale a Copilot Extension GitHub Models.
- Se você tiver uma assinatura do Copilot Individual, poderá instalar a extensão na sua conta pessoal.
- Se você tiver acesso ao Copilot por meio de uma assinatura do Copilot Business ou do Copilot Enterprise:
- O proprietário de uma organização ou empresa precisa habilitar a política do Copilot Extensions para sua organização ou empresa.
- Um proprietário da organização precisa instalar a extensão para sua organização.
-
Abra qualquer implementação do Copilot Chat que dê suporte às GitHub Copilot Extensions. Para obter uma lista de implementações do Copilot Chat, confira “Usando extensões para integrar ferramentas externas ao Copilot Chat”.
-
Na janela de chat, digite
@models YOUR-PROMPT
e envie sua solicitação. Há vários casos de uso para a Copilot Extension GitHub Models, incluindo:- Recomendar um modelo específico com base no contexto e nos critérios que você informar. Por exemplo, você pode fazer uma solicitação a um modelo OpenAI de baixo custo que dê suporte à chamada de função.
- Executar solicitações usando um modelo específico. Isso é especialmente útil quando você deseja usar um modelo que não está disponível no momento no Copilot Chat de vários modelos.
- Listar os modelos atualmente disponíveis por meio do GitHub Models
Como usar modelos de IA na linha de comando
Note
A extensão GitHub Models para GitHub CLI está em versão prévia pública e sujeita a alterações.
Use a extensão GitHub Models para GitHub CLI para fazer solicitações aos modelos de IA na linha de comando e até mesmo direcionar a saída de um comando como o contexto.
Pré-requisitos
Para usar a extensão da CLI GitHub Models, você deverá ter o GitHub CLI instalado. Para obter instruções de instalação para GitHub CLI, veja o repositório GitHub CLI.
Como instalar a extensão
-
Se você ainda não se autenticou na GitHub CLI, execute o comando a seguir em seu terminal.
Shell gh auth login
gh auth login
-
Para instalar a extensão GitHub Models, execute o comando a seguir.
Shell gh extension install https://github.com/github/gh-models
gh extension install https://github.com/github/gh-models
Usar a extensão
Para ver uma lista de todos os comandos disponíveis, execute gh models
.
Há algumas maneiras básicas de usar a extensão:
- Para fazer várias perguntas a um modelo usando uma experiência de chat, execute
gh models run
. Escolha seu modelo nos modelos listados e, em seguida, envie suas solicitações. - Para fazer uma só pergunta a um modelo, execute
gh models run MODEL-NAME "QUESTION"
no terminal. Por exemplo, para perguntar ao modelogpt-4o
por que o céu é azul, executegh models run gpt-4o "why is the sky blue?"
. - Para fornecer a saída de um comando como contexto ao chamar um modelo, você pode unir um comando separado e a chamada ao modelo com o caractere de barra vertical (
|
). Por exemplo, para resumir o arquivo README no diretório atual usando o modelogpt-4o
, executecat README.md | gh models run gpt-4o "summarize this text"
.