Skip to main content

在 Copilot Chat 中使用 Gemini 2.0 Flash

了解如何在 GitHub Copilot Chat 中为你的组织或企业启用 Gemini 2.0 Flash。

Note

Gemini 2.0 Flash 处于 公共预览版,可能会更改。 “GitHub 预发行许可条款”适用于你对本产品的使用。

关于 GitHub Copilot 中的 Gemini 2.0 Flash

Gemini 2.0 Flash 是一个大语言模型 (LLM),你可以将其用作 Copilot Chat 所使用的默认模型的替代模型。 Gemini 2.0 Flash 是一种响应式 LLM,可让你更快、更轻松地生成应用,因此你可以专注于为用户提供出色的体验。 有关 Gemini 2.0 Flash 功能的信息,请参阅 面向开发者的 Google 博客Google Cloud 文档。 有关 Google 数据处理策略的详细信息,请参阅 Google 网站上的生成式 AI 和数据管理

Gemini 2.0 Flash 当前可用于:

  • Visual Studio Code 中的 Copilot Chat
  • GitHub 中 Copilot Chat 中的沉浸式模式

GitHub Copilot 使用 Google Cloud Platform (GCP) 上托管的 Gemini 2.0 Flash。 使用 Gemini 2.0 Flash 时,提示和元数据将发送到 GCP,我们做出以下数据承诺Gemini 不会使用提示或其响应作为数据来训练其模型。

使用 Gemini 2.0 Flash 时,输入提示和输出完成将继续通过 GitHub Copilot 的内容筛选器运行,这些筛选器会进行公共代码匹配(如果适应),同时筛选有害、冒犯性或偏离主题的内容。

配置访问权限

必须先启用对 Gemini 2.0 Flash 的访问,然后才能使用模型。

针对组织和企业使用的设置

作为企业或组织所有者,你可以为通过企业或组织获得 Copilot Enterprise 或 Copilot Business 席位分配的每个人启用或禁用 Gemini 2.0 Flash。 请参阅“管理组织中的 Copilot 策略”和“管理企业中 Copilot 的策略和功能”。

正在使用 Gemini 2.0 Flash

有关如何更改 Copilot Chat 使用的模型的详细信息,请参阅 正在更改 Copilot Chat 的 AI 模型