Con las extensiones GitHub Models, puedes llamar a modelos de IA específicos desde Copilot Chat y GitHub CLI. Estas extensiones se integran directamente en el flujo de trabajo de desarrollo, lo que permite solicitar modelos sin cambio de contexto.
Uso de modelos de IA en Copilot Chat
Si tienes una suscripción de Copilot, puedes trabajar con modelos de IA en Copilot Chat de dos maneras diferentes:
- Uso de la GitHub Models Copilot Extension. Con esta extensión, puedes solicitar recomendaciones de modelos basadas en determinados criterios y chatear con modelos específicos. Consulta "Uso de la GitHub Models Copilot Extension."
- Uso de la compatibilidad con varios modelos de Copilot Chat. Con Copilot Chat de varios modelos, puedes elegir un modelo específico que se usará para una conversación y, a continuación, solicitar Copilot Chat como de costumbre. Consulte “Preguntas a GitHub Copilot en GitHub” y “Preguntas sobre GitHub Copilot en el IDE”.
Uso de la GitHub Models Copilot Extension
Note
La GitHub Models Copilot Extension está en versión preliminar pública y está sujeta a cambios.
-
Instala la GitHub Models Copilot Extension.
- Si tienes una suscripción de Copilot Individual, puedes instalar la extensión en tu cuenta personal.
- Si tiene acceso a Copilot mediante una suscripción de Copilot Business o Copilot Enterprise:
- Un propietario de la organización o propietario de la empresa debe habilitar la directiva Copilot Extensions para la organización o la empresa.
- Un propietario de organización debe instalar la extensión para tu organización.
-
Abre cualquier implementación de Copilot Chat que admita GitHub Copilot Extensions. Para obtener una lista de implementaciones de Copilot Chat, consulta "Uso de extensiones para integrar herramientas externas con Copilot Chat".
-
En la ventana de chat, escribe
@models YOUR-PROMPT
y, a continuación, envía tu solicitud. Hay varios casos de uso para la GitHub Models Copilot Extension, entre los que se incluyen:- Recomendación de un modelo determinado en función del contexto y los criterios que proporciones. Por ejemplo, puede solicitar un modelo de OpenAI de bajo costo que admita llamadas a funciones.
- Ejecución de solicitudes mediante un modelo determinado. Esto resulta especialmente útil cuando deseas usar un modelo que no está disponible actualmente en Copilot Chat de varios modelos.
- Enumeración de modelos disponibles actualmente a través de GitHub Models
Uso de modelos de IA desde la línea de comandos
Note
La extensión GitHub Models para la GitHub CLI está en versión preliminar pública y está sujeta a cambios.
Puedes usar la extensión GitHub Models para que la GitHub CLI solicite modelos de IA desde la línea de comandos e incluso canalice la salida de un comando como contexto.
Requisitos previos
Para usar la extensión de la CLI de GitHub Models, debe tener instalada la GitHub CLI. A fin de obtener instrucciones de instalación para GitHub CLI, vea el repositorio de GitHub CLI.
Instalar la extensión
-
Si todavía no se ha autenticado en la GitHub CLI, ejecute el siguiente comando en su terminal.
Shell gh auth login
gh auth login
-
Para instalar la extensión GitHub Models, ejecute el siguiente comando.
Shell gh extension install https://github.com/github/gh-models
gh extension install https://github.com/github/gh-models
Uso de la extensión
Para ver una lista de todos los comandos disponibles, ejecute gh models
.
Hay algunas maneras clave de usar la extensión:
- Para formular varias preguntas a un modelo mediante una experiencia de chat, ejecuta
gh models run
. Selecciona el modelo entre los modelos enumerados y, a continuación, envía tus solicitudes. - Para formular una sola pregunta a un modelo, ejecuta
gh models run MODEL-NAME "QUESTION"
en el terminal. Por ejemplo, para preguntar al modelogpt-4o
por qué el cielo es azul, puedes ejecutargh models run gpt-4o "why is the sky blue?"
. - Para proporcionar la salida de un comando como contexto al llamar a un modelo, puedes unir un comando independiente y la llamada al modelo con el carácter de barra vertical (
|
). Por ejemplo, para resumir el archivo README en el directorio actual mediante el modelogpt-4o
, puedes ejecutarcat README.md | gh models run gpt-4o "summarize this text"
.