Copilot Chat の既定では、OpenAI の GPT-4o 大規模言語モデルが使われています。 これは、要約やナレッジベースのチャットなどのテキスト生成タスクに優れたパフォーマンスを発揮する、非常に熟練したモデルです。 このモデルは、推論、複雑な数学問題の解決、コーディングも可能です。
ただし、このモデルを使用する必要はありません。 他のモデルにはそれぞれ独自の強みがあり、そこから選ぶことができます。 お気に入りのモデルを使ったり、特定のテーマについて調べる場合は特定のモデルを使ったりすることができます。
Copilot を使うと、チャット中にモデルを変更し、プロンプトに対する応答の生成に代替モデルを使用できます。
Note
- Copilot Chat での複数モデルのサポートは パブリック プレビュー 段階であり、変更される可能性があります。
- 代替 AI モデルは、Copilot Chat のイマーシブ ビューでのみ使用できます。 これは、https://github.com/copilot に表示される Copilot Chat の全ページ バージョンです。 Copilot Chat パネルには、常に既定のモデルが使われます。
Copilot Chat の AI モデル
現在、以下のモデルは、Copilot Chat のイマーシブ モードで使用できます。
- GPT-4o: 既定の Copilot Chat モデルです。 テキストと画像処理の両方に優れ、迅速に信頼性の高い応答を提供するように設計された、汎用性の高いマルチモーダル モデルです。 また、英語以外の言語でも優れたパフォーマンスを発揮します。 モデルの機能の詳細と、モデル カードを確認してください。 GPT-4o は Azure 上でホストされています。
- Claude Sonnet 3.7: このモデルは、その先行モデルと同様に、初期設計からバグ修正、メンテナンス、最適化に至るまで、ソフトウェア開発ライフサイクル全体で優れた機能を発揮します。 また、思考機能も備えており、思考バージョンのモデルを選ぶことで有効にすることができます。これは、エージェントのシナリオで特に役立ちます。 モデルの機能について詳細を確認するか、モデル カードをお読みください。 GitHub Copilot は、アマゾン ウェブ サービスでホストされる Claude Sonnet を使用します。
- Claude Sonnet 3.5: このモデルは、初期設計からバグ修正、メンテナンス、最適化に至るまで、ソフトウェア開発ライフサイクル全体のコーディング タスクに優れています。 モデルの機能について詳細を確認するか、モデル カードをお読みください。 GitHub Copilot は、アマゾン ウェブ サービスでホストされる Claude Sonnet を使用します。
- Gemini 2.0 Flash: このモデルには、ソフトウェア開発を支援するのに適した強力なコーディング、数学、推論の機能があります。 Gemini 2.0 Flash の機能については、Google for Developers ブログと Google Cloud ドキュメントを参照してください。 Google のデータ処理ポリシーの詳細については、Google Web サイトの「生成 AI とデータ ガバナンス」を参照してください。
- o1: このモデルは、高度な推論と複雑な問題の解決、特に数学と科学に特化しています。 GPT-4o モデルよりも応答速度が下がります。 このモデルでは 1 日あたり 10 件の要求を行うことができます。 モデルの機能の詳細と、モデル カードを確認してください。 o1 は Azure でホストされます。
- o3-mini: このモデルは、o1 および o1-mini に続く次世代の推論モデルです。 o3-mini モデルは、o1-mini と同等の応答時間でコーディング ベンチマークで o1 を上回り、ほぼ同じ待機時間で品質の向上を実現しています。 コード生成と小規模なコンテキスト操作に最適です。 このモデルでは 12 時間あたり 50 件の要求を行うことができます。 モデルの機能の詳細と、モデル カードを確認してください。 o3-mini は Azure 上でホストされています。
これらのモデルの詳細については、次を参照してください。
- OpenAI の GPT-4o、o1、o3-mini モデル: OpenAI Platform ドキュメントの「Models」(モデル)。
- Anthropic の Claude Sonnet モデル: 「Copilot Chat で Claude Sonnet を使う」。
- Google の Gemini 2.0 Flash モデル: 「Copilot Chat で Gemini 2.0 Flash を使う」。
Copilot Chat の AI モデルの制限
- GitHub Web サイト上の表に掲載されているスキルを使う場合は、GPT-4o、Claude Sonnet、Gemini 2.0 Flash モデルのみがサポートされています。
- モデルの試験的なプレリリース バージョンは、重複データ検出フィルターを含むすべてのフィルターと正しく対話しない場合があります。
AI モデルの変更
これらの手順は、GitHub Web サイトの Copilot 用です。 別のクライアントの手順については、このページの上部にある該当するタブをクリックしてください。
Copilot Business サブスクリプションを使用して Copilot Chat にアクセスする場合、organization は別のモデルに切り替える権限をメンバーに付与する必要があります。 「organization 内での Copilot のポリシーの管理」を参照してください。
Note
Copilot Extensions を使用した場合、選択するモデルをオーバーライドする場合があります。
-
GitHub の任意のページの右上で、 アイコンの横にある をクリックし、ドロップダウン メニューの [Immersive] をクリックします。
-
イマーシブ ビューの上部にある [CURRENT-MODEL ] ドロップダウン メニューを選び、選んだ AI モデルをクリックします。
Copilot Chat で使われるモデルを変更しても、Copilot のコード補完に使われるモデルには影響しません。 「Copilot コード補完の AI モデルを変更する」を参照してください。
Note
- Copilot Chat での複数モデルのサポートは パブリック プレビュー 段階であり、変更される可能性があります。
Copilot Chat の AI モデル
以下のモデルは、現在、マルチモデルの Copilot Chat でのみ使用できます。
- GPT-4o: 既定の Copilot Chat モデルです。 テキストと画像処理の両方に優れ、迅速に信頼性の高い応答を提供するように設計された、汎用性の高いマルチモーダル モデルです。 また、英語以外の言語でも優れたパフォーマンスを発揮します。 モデルの機能の詳細と、モデル カードを確認してください。 GPT-4o は Azure 上でホストされています。
- Claude Sonnet 3.7: このモデルは、その先行モデルと同様に、初期設計からバグ修正、メンテナンス、最適化に至るまで、ソフトウェア開発ライフサイクル全体で優れた機能を発揮します。 また、思考機能も備えており、思考バージョンのモデルを選ぶことで有効にすることができます。これは、エージェントのシナリオで特に役立ちます。 モデルの機能について詳細を確認するか、モデル カードをお読みください。 GitHub Copilot は、アマゾン ウェブ サービスでホストされる Claude Sonnet を使用します。
- Claude Sonnet 3.5: このモデルは、初期設計からバグ修正、メンテナンス、最適化に至るまで、ソフトウェア開発ライフサイクル全体のコーディング タスクに優れています。 モデルの機能について詳細を確認するか、モデル カードをお読みください。 GitHub Copilot は、アマゾン ウェブ サービスでホストされる Claude Sonnet を使用します。
- Gemini 2.0 Flash: このモデルには、ソフトウェア開発を支援するのに適した強力なコーディング、数学、推論の機能があります。 Gemini 2.0 Flash の機能については、Google for Developers ブログと Google Cloud ドキュメントを参照してください。 Google のデータ処理ポリシーの詳細については、Google Web サイトの「生成 AI とデータ ガバナンス」を参照してください。
- o1: このモデルは、高度な推論と複雑な問題の解決、特に数学と科学に特化しています。 GPT-4o モデルよりも応答速度が下がります。 このモデルでは 1 日あたり 10 件の要求を行うことができます。 モデルの機能の詳細と、モデル カードを確認してください。 o1 は Azure でホストされます。
- o3-mini: このモデルは、o1 および o1-mini に続く次世代の推論モデルです。 o3-mini モデルは、o1-mini と同等の応答時間でコーディング ベンチマークで o1 を上回り、ほぼ同じ待機時間で品質の向上を実現しています。 コード生成と小規模なコンテキスト操作に最適です。 このモデルでは 12 時間あたり 50 件の要求を行うことができます。 モデルの機能の詳細と、モデル カードを確認してください。 o3-mini は Azure 上でホストされています。
これらのモデルの詳細については、次を参照してください。
- OpenAI の GPT-4o、o1、o3-mini モデル: OpenAI Platform ドキュメントの「Models」(モデル)。
- Anthropic の Claude Sonnet モデル: 「Copilot Chat で Claude Sonnet を使う」。
- Google の Gemini 2.0 Flash モデル: 「Copilot Chat で Gemini 2.0 Flash を使う」。
AI モデルの変更
これらの手順は、VS Code 用です。 別のクライアントの手順については、このページの上部にある該当するタブをクリックしてください。
Copilot Business サブスクリプションを使用して Copilot Chat にアクセスする場合、organization は別のモデルに切り替える権限をメンバーに付与する必要があります。 「organization 内での Copilot のポリシーの管理」を参照してください。
Note
- Copilot Extensions を使用した場合、選択するモデルをオーバーライドする場合があります。
- モデルの試験的なプレリリース バージョンは、重複データ検出フィルターを含むすべてのフィルターと正しく対話しない場合があります。
- チャット ビューを開くには、アクティビティ バーのチャット アイコンをクリックするか、Control+Command+i (Mac) / Ctrl+Alt+i (Windows/Linux) を押します。
- チャット ビューの右下で [CURRENT-MODEL] ドロップダウン メニューを選択し、任意の AI モデルをクリックします。
Note
Copilot Chat での複数モデルのサポートは パブリック プレビュー 段階であり、変更される可能性があります。
Copilot Chat の AI モデル
以下のモデルは、現在、マルチモデルの Copilot Chat でのみ使用できます。
- GPT-4o: 既定の Copilot Chat モデルです。 テキストと画像処理の両方に優れ、迅速に信頼性の高い応答を提供するように設計された、汎用性の高いマルチモーダル モデルです。 また、英語以外の言語でも優れたパフォーマンスを発揮します。 モデルの機能の詳細と、モデル カードを確認してください。 GPT-4o は Azure 上でホストされています。
- Claude Sonnet 3.7: このモデルは、その先行モデルと同様に、初期設計からバグ修正、メンテナンス、最適化に至るまで、ソフトウェア開発ライフサイクル全体で優れた機能を発揮します。 また、思考機能も備えており、思考バージョンのモデルを選ぶことで有効にすることができます。これは、エージェントのシナリオで特に役立ちます。 モデルの機能について詳細を確認するか、モデル カードをお読みください。 GitHub Copilot は、アマゾン ウェブ サービスでホストされる Claude Sonnet を使用します。
- Claude Sonnet 3.5: このモデルは、初期設計からバグ修正、メンテナンス、最適化に至るまで、ソフトウェア開発ライフサイクル全体のコーディング タスクに優れています。 モデルの機能について詳細を確認するか、モデル カードをお読みください。 GitHub Copilot は、アマゾン ウェブ サービスでホストされる Claude Sonnet を使用します。
- o1: このモデルは、高度な推論と複雑な問題の解決、特に数学と科学に特化しています。 GPT-4o モデルよりも応答速度が下がります。 このモデルでは 1 日あたり 10 件の要求を行うことができます。 モデルの機能の詳細と、モデル カードを確認してください。 o1 は Azure でホストされます。
- o3-mini: このモデルは、o1 および o1-mini に続く次世代の推論モデルです。 o3-mini モデルは、o1-mini と同等の応答時間でコーディング ベンチマークで o1 を上回り、ほぼ同じ待機時間で品質の向上を実現しています。 コード生成と小規模なコンテキスト操作に最適です。 このモデルでは 12 時間あたり 50 件の要求を行うことができます。 モデルの機能の詳細と、モデル カードを確認してください。 o3-mini は Azure 上でホストされています。
これらのモデルの詳細については、次を参照してください。
- OpenAI の GPT-4o、o1、o3-mini モデル: OpenAI Platform ドキュメントの「Models」(モデル)。
- Anthropic の Claude Sonnet モデル: 「Copilot Chat で Claude Sonnet を使う」。
Copilot Chat の AI モデルを変更する
これらの手順は、Visual Studio 用です。 別のクライアントの手順については、このページの上部にある該当するタブをクリックしてください。
複数モデルの Copilot Chat を使うには、Visual Studio 2022 バージョン 17.12 以降を使う必要があります。 Visual Studio のダウンロード ページを参照してください。
Copilot Business サブスクリプションを使用して Copilot Chat にアクセスする場合、organization は別のモデルに切り替える権限をメンバーに付与する必要があります。 「organization 内での Copilot のポリシーの管理」を参照してください。
Note
- Copilot Extensions を使用した場合、選択するモデルをオーバーライドする場合があります。
- モデルの試験的なプレリリース バージョンは、重複データ検出フィルターを含むすべてのフィルターと正しく対話しない場合があります。
- Visual Studio メニュー バーで、[表示] をクリックしてから [GitHub Copilot Chat] をクリックします。
- チャット ビューの右下で [CURRENT-MODEL] ドロップダウン メニューを選んで、任意の AI モデルをクリックします。
Copilot Chat で使われるモデルを変更しても、Copilot のコード補完に使われるモデルには影響しません。 「Copilot コード補完の AI モデルを変更する」を参照してください。
Copilot Chat の AI モデル
以下のモデルは、現在、マルチモデルの Copilot Chat でのみ使用できます。
- GPT-4o: 既定の Copilot Chat モデルです。 テキストと画像処理の両方に優れ、迅速に信頼性の高い応答を提供するように設計された、汎用性の高いマルチモーダル モデルです。 また、英語以外の言語でも優れたパフォーマンスを発揮します。 モデルの機能の詳細と、モデル カードを確認してください。 GPT-4o は Azure 上でホストされています。
- Claude Sonnet 3.5: このモデルは、初期設計からバグ修正、メンテナンス、最適化に至るまで、ソフトウェア開発ライフサイクル全体のコーディング タスクに優れています。 モデルの機能について詳細を確認するか、モデル カードをお読みください。 GitHub Copilot は、アマゾン ウェブ サービスでホストされる Claude Sonnet を使用します。
- Gemini 2.0 Flash: このモデルには、ソフトウェア開発を支援するのに適した強力なコーディング、数学、推論の機能があります。 Gemini 2.0 Flash の機能については、Google for Developers ブログと Google Cloud ドキュメントを参照してください。 Google のデータ処理ポリシーの詳細については、Google Web サイトの「生成 AI とデータ ガバナンス」を参照してください。
- o1: このモデルは、高度な推論と複雑な問題の解決、特に数学と科学に特化しています。 GPT-4o モデルよりも応答速度が下がります。 このモデルでは 1 日あたり 10 件の要求を行うことができます。 モデルの機能の詳細と、モデル カードを確認してください。 o1 は Azure でホストされます。
- o3-mini: このモデルは、o1 および o1-mini に続く次世代の推論モデルです。 o3-mini モデルは、o1-mini と同等の応答時間でコーディング ベンチマークで o1 を上回り、ほぼ同じ待機時間で品質の向上を実現しています。 コード生成と小規模なコンテキスト操作に最適です。 このモデルでは 12 時間あたり 50 件の要求を行うことができます。 モデルの機能の詳細と、モデル カードを確認してください。 o3-mini は Azure 上でホストされています。
これらのモデルの詳細については、次を参照してください。
- OpenAI の GPT-4o、o1、o3-mini モデル: OpenAI Platform ドキュメントの「Models」(モデル)。
- Anthropic の Claude Sonnet モデル: 「Copilot Chat で Claude Sonnet を使う」。
- Google の Gemini 2.0 Flash モデル: 「Copilot Chat で Gemini 2.0 Flash を使う」。
Copilot Chat の AI モデルを変更する
これらの手順は JetBrains IDE 向けです。 別のクライアントの手順については、このページの上部にある該当するタブをクリックしてください。
Copilot Business サブスクリプションを使用して Copilot Chat にアクセスする場合、organization は別のモデルに切り替える権限をメンバーに付与する必要があります。 「organization 内での Copilot のポリシーの管理」を参照してください。
Note
- Copilot Extensions を使用した場合、選択するモデルをオーバーライドする場合があります。
- モデルの試験的なプレリリース バージョンは、重複データ検出フィルターを含むすべてのフィルターと正しく対話しない場合があります。
- ステータス バーの [] アイコンをクリックします。
- ポップアップ メニューで、[Open GitHub Copilot Chat] をクリックします。
- チャット ビューの右下で、 ドロップダウン メニューから任意の AI モデルを選びます。
Copilot Chat の AI モデル
以下のモデルは、現在、マルチモデルの Copilot Chat でのみ使用できます。
- GPT-4o: 既定の Copilot Chat モデルです。 テキストと画像処理の両方に優れ、迅速に信頼性の高い応答を提供するように設計された、汎用性の高いマルチモーダル モデルです。 また、英語以外の言語でも優れたパフォーマンスを発揮します。 モデルの機能の詳細と、モデル カードを確認してください。 GPT-4o は Azure 上でホストされています。
- Claude Sonnet 3.5: このモデルは、初期設計からバグ修正、メンテナンス、最適化に至るまで、ソフトウェア開発ライフサイクル全体のコーディング タスクに優れています。 モデルの機能について詳細を確認するか、モデル カードをお読みください。 GitHub Copilot は、アマゾン ウェブ サービスでホストされる Claude Sonnet を使用します。
- Gemini 2.0 Flash: このモデルには、ソフトウェア開発を支援するのに適した強力なコーディング、数学、推論の機能があります。 Gemini 2.0 Flash の機能については、Google for Developers ブログと Google Cloud ドキュメントを参照してください。 Google のデータ処理ポリシーの詳細については、Google Web サイトの「生成 AI とデータ ガバナンス」を参照してください。
- o1: このモデルは、高度な推論と複雑な問題の解決、特に数学と科学に特化しています。 GPT-4o モデルよりも応答速度が下がります。 このモデルでは 1 日あたり 10 件の要求を行うことができます。 モデルの機能の詳細と、モデル カードを確認してください。 o1 は Azure でホストされます。
- o3-mini: このモデルは、o1 および o1-mini に続く次世代の推論モデルです。 o3-mini モデルは、o1-mini と同等の応答時間でコーディング ベンチマークで o1 を上回り、ほぼ同じ待機時間で品質の向上を実現しています。 コード生成と小規模なコンテキスト操作に最適です。 このモデルでは 12 時間あたり 50 件の要求を行うことができます。 モデルの機能の詳細と、モデル カードを確認してください。 o3-mini は Azure 上でホストされています。
これらのモデルの詳細については、次を参照してください。
- OpenAI の GPT-4o、o1、o3-mini モデル: OpenAI Platform ドキュメントの「Models」(モデル)。
- Anthropic の Claude Sonnet モデル: 「Copilot Chat で Claude Sonnet を使う」。
- Google の Gemini 2.0 Flash モデル: 「Copilot Chat で Gemini 2.0 Flash を使う」。
Copilot Chat の AI モデルを変更する
これらの手順は Eclipse IDE 用です。 別のクライアントの手順については、このページの上部にある該当するタブをクリックしてください。
Copilot Business サブスクリプションを使用して Copilot Chat にアクセスする場合、organization は別のモデルに切り替える権限をメンバーに付与する必要があります。 「organization 内での Copilot のポリシーの管理」を参照してください。
Note
- Copilot Extensions を使用した場合、選択するモデルをオーバーライドする場合があります。
- モデルの試験的なプレリリース バージョンは、重複データ検出フィルターを含むすべてのフィルターと正しく対話しない場合があります。
- ステータス バーの [] アイコンをクリックします。
- ポップアップ メニューで [Open Chat] をクリックします。
- チャット パネルの右下で、現在選択されている AI モデルをクリックし、ポップアップ メニューから代替モデルを選びます。
Note
Copilot Chat での複数モデルのサポートは パブリック プレビュー 段階であり、変更される可能性があります。
Copilot Chat の AI モデル
以下のモデルは、現在、マルチモデルの Copilot Chat でのみ使用できます。
- GPT-4o: 既定の Copilot Chat モデルです。 テキストと画像処理の両方に優れ、迅速に信頼性の高い応答を提供するように設計された、汎用性の高いマルチモーダル モデルです。 また、英語以外の言語でも優れたパフォーマンスを発揮します。 モデルの機能の詳細と、モデル カードを確認してください。 GPT-4o は Azure 上でホストされています。
- Claude Sonnet 3.5: このモデルは、初期設計からバグ修正、メンテナンス、最適化に至るまで、ソフトウェア開発ライフサイクル全体のコーディング タスクに優れています。 モデルの機能について詳細を確認するか、モデル カードをお読みください。 GitHub Copilot は、アマゾン ウェブ サービスでホストされる Claude Sonnet を使用します。
- o1: このモデルは、高度な推論と複雑な問題の解決、特に数学と科学に特化しています。 GPT-4o モデルよりも応答速度が下がります。 このモデルでは 1 日あたり 10 件の要求を行うことができます。 モデルの機能の詳細と、モデル カードを確認してください。 o1 は Azure でホストされます。
- o3-mini: このモデルは、o1 および o1-mini に続く次世代の推論モデルです。 o3-mini モデルは、o1-mini と同等の応答時間でコーディング ベンチマークで o1 を上回り、ほぼ同じ待機時間で品質の向上を実現しています。 コード生成と小規模なコンテキスト操作に最適です。 このモデルでは 12 時間あたり 50 件の要求を行うことができます。 モデルの機能の詳細と、モデル カードを確認してください。 o3-mini は Azure 上でホストされています。
- Gemini 2.0 Flash: このモデルには、ソフトウェア開発を支援するのに適した強力なコーディング、数学、推論の機能があります。 Gemini 2.0 Flash の機能については、Google for Developers ブログと Google Cloud ドキュメントを参照してください。 Google のデータ処理ポリシーの詳細については、Google Web サイトの「生成 AI とデータ ガバナンス」を参照してください。
これらのモデルの詳細については、次を参照してください。
- OpenAI の GPT-4o、o1、o3-mini モデル: OpenAI Platform ドキュメントの「Models」(モデル)。
- Anthropic の Claude Sonnet モデル: 「Copilot Chat で Claude Sonnet を使う」。
- Google の Gemini 2.0 Flash モデル: 「Copilot Chat で Gemini 2.0 Flash を使う」。
Copilot Chat の AI モデルを変更する
これらの手順は Xcode 用です。 別のクライアントの手順については、このページの上部にある該当するタブをクリックしてください。
マルチモデル Copilot Chat を使うには、Xcode 拡張機能用に GitHub Copilot をインストールする必要があります。 「環境への GitHub Copilot 拡張機能のインストール」を参照してください。
Copilot Business サブスクリプションを使用して Copilot Chat にアクセスする場合、organization は別のモデルに切り替える権限をメンバーに付与する必要があります。 「organization 内での Copilot のポリシーの管理」を参照してください。
Note
- Copilot Extensions を使用した場合、選択するモデルをオーバーライドする場合があります。
- モデルの試験的なプレリリース バージョンは、重複データ検出フィルターを含むすべてのフィルターと正しく対話しない場合があります。
- チャット ビューを開くには、メニュー バーの [ Copilot] をクリックし、[Open Chat] をクリックします。
- チャット ビューの右下で [CURRENT-MODEL] ドロップダウン メニューを選んで、任意の AI モデルをクリックします。