Skip to main content

에이전트에 대한 Copilot의 LLM 사용

에이전트에 Copilot의 LLM을 사용하는 방법을 알아봅니다.

Note

GitHub Copilot Extensions은(는) 공개 미리 보기 버전이며 변경될 수 있습니다.

Copilot의 LLM(언어 학습 모델) 정보

Copilot의 LLM(언어 학습 모델)은 코드, 설명서 및 기타 텍스트를 포함하여 다양한 범위의 데이터 원본에서 학습되는 강력한 대규모 언어 모델입니다. Copilot의 LLM은 GitHub Copilot의 기능을 뒷받침하며 코드 생성, 설명서 생성 및 코드 완성을 포함하여 모든 Copilot의 기능을 구동하는 데 사용됩니다.

Copilot의 LLM을 사용하여 에이전트에 전원을 공급하는 옵션이 있습니다. 이 옵션은 에이전트가 사용자 메시지에 대한 완성을 생성할 수 있기를 원하지만 사용자 고유의 LLM을 관리하지 않으려는 경우에 유용합니다.

Note

타사 에이전트는 Copilot의 LLM을 사용하기 위한 엄격한 속도 제한을 가합니다. 타사 에이전트가 많은 수의 완료를 생성해야 하는 경우 사용자 고유의 LLM 또는 OpenAI와 같은 API를 사용하는 것이 좋습니다.

에이전트에 Copilot의 LLM 사용

POST 요청으로 https://api.githubcopilot.com/chat/completions에 Copilot의 LLM 배포를 호출할 수 있습니다. 요청 및 응답은 OpenAI API와 동일한 형식이어야 합니다.

인증하려면 에이전트에 전송된 동일한 X-Github-Token 헤더를 사용합니다. 자세한 내용은 GitHub와 통신하도록 Copilot 에이전트 구성을(를) 참조하세요.

다음은 Blackbeard 확장에서 Copilot의 LLM 배포를 사용하여 사용자 메시지에 대한 완성을 생성하는 방법의 예입니다.

  // Use Copilot's LLM to generate a response to the user's
  //  messages, with our extra system messages attached.
  const copilotLLMResponse = await fetch(
    "https://api.githubcopilot.com/chat/completions",
    {
      method: "POST",
      headers: {
        authorization: `Bearer ${tokenForUser}`,
        "content-type": "application/json",
      },
      body: JSON.stringify({
        messages,
        stream: true,
      }),
    }
  );

전체 컨텍스트에서 이 예제를 보려면 Blackbeard 확장을 참조하세요.