Standardmäßig verwendet Copilot Chat das große GPT 4o-Sprachmodell (LLM, Large Language Model) von OpenAI. Dies ist ein sehr fundiertes Modell, das für Textgenerierungsaufgaben gut funktioniert, z. B. Zusammenfassungen und wissensbasierten Chat. Das Modell ist auch in der Lage, logisch zu denken, komplexe mathematische Probleme zu lösen und zu programmieren.
Du bist jedoch nicht auf die Verwendung dieses Modells beschränkt. Du kannst aus einer Auswahl anderer Modelle wählen, die jeweils ihre eigenen Stärken haben. Möglicherweise hast du ein bevorzugtes Modell, das du verwenden möchtest, oder du bevorzugst, ein bestimmtes Modell für die Suche nach einem bestimmten Thema zu verwenden.
Copilot ermöglicht es dir, das Modell während eines Chats zu ändern und das alternative Modell zum Generieren von Antworten auf deine Prompts zu verwenden.
Note
- Die Unterstützung für mehrere Modelle in Copilot Chat befindet sich in public preview. Änderungen sind vorbehalten.
- Du kannst nur ein alternatives KI-Modell in der immersiven Ansicht von Copilot Chat verwenden. Dies ist die ganzseitige Version von Copilot Chat, die unter https://github.com/copilot angezeigt wird. Das Panel Copilot Chat verwendet immer das Standardmodell.
KI-Modelle für Copilot Chat
Die folgenden Modelle sind aktuell für Copilot Chat mit mehreren Modellen verfügbar:
- GPT-4o: Dies ist das Standardmodell von Copilot Chat. Dabei handelt sich um ein vielseitiges, multimodales Modell, das sich sowohl bei der Text- als auch bei der Bildverarbeitung auszeichnet und schnelle, zuverlässige Antworten bietet. Auch in anderen Sprachen als Englisch zeigt es hervorragende Leistungen. Hier findest du weitere Informationen zu den Funktionen des Modells und kannst die Modellkarte ansehen. GPT-4o wird in Azure gehostet.
- Claude 3.5 Sonnet: Dieses Modell ist am besten für das Programmieren im gesamten Lebenszyklus der Softwareentwicklung geeignet – von ersten Entwürfen über Bugfixes und Wartung bis hin zu Optimierungen. Hier findest du weitere Informationen zu den Funktionen des Modells und kannst die Modellkarte lesen. GitHub Copilot verwendet Claude 3.5 Sonnet, gehostet in Amazon Web Services.
- Gemini 2.0 Flash: Dieses Modell verfügt über starke Programmierungs-, Mathematik- und Argumentationsfähigkeiten, die es für die Unterstützung bei der Softwareentwicklung gut geeignet machen. Informationen zu den Funktionen von Gemini 2.0 Flash findest du im Google for Developers-Blog und in der Google Cloud-Dokumentation. Details zur Datenverarbeitungsrichtlinie von Google findest du unter Generative KI und Data Governance auf der Google-Website.
- o1: Der Schwerpunkt dieses Modells liegt auf komplexen Begründungen und der Lösung komplexer Probleme, insbesondere in der Mathematik und der Wissenschaft. Es reagiert langsamer als das GPT 4o-Modell. An dieses Modell können Sie 10 Anfragen pro Tag stellen. Hier findest du weitere Informationen zu den Funktionen des Modells und kannst die Modellkarte ansehen. o1 wird in Azure gehostet.
- o3-mini: Dieses Modell ist das Begründungsmodell der nächsten Generation, das auf die Modelle o1 und o1-mini folgt. Das o3-mini-Modell übertrifft o1 bei Programmierungsbenchmarks in Bezug auf die Antwortzeiten, die mit denen von o1-mini vergleichbar sind, und bietet eine bessere Qualität bei nahezu gleicher Latenzzeit. Es eignet sich am besten zur Codegenerierung und für Vorgänge mit geringem Kontext. An dieses Modell kannst du alle 12 Stunden 50 Anforderungen stellen. Hier findest du weitere Informationen zu den Funktionen des Modells und kannst die Modellkarte ansehen. o3-mini wird in Azure gehostet.
Weitere Informationen zu diesen Modellen findest du unter:
- OpenAI-Modelle GPT 4o, o1 und o3-mini: Modelle in der OpenAI Platform-Dokumentation
- Das Claude 3.5 Sonnet-Modell von Anthropic: Verwenden von Claude 3.5 Sonnet in GitHub Copilot.
- Das Gemini 2.0 Flash-Modell von Google: Verwenden von Gemini 2.0 Flash in GitHub Copilot.
Einschränkungen von KI-Modellen für Copilot Chat
- Wenn du die in der Tabelle oben aufgeführten Fähigkeiten oder Wissensdatenbanken verwenden möchtest, werden auf der GitHub-Website nur die Modelle GPT-4o, Claude 3.5 Sonnet und Gemini 2.0 Flash unterstützt.
- Experimentelle Vorabversionen der Modelle interagieren möglicherweise nicht ordnungsgemäß mit allen Filtern, einschließlich des Filter für die Duplikaterkennung.
Ändern Ihres KI-Modells
Diese Anweisungen gelten für Copilot auf der GitHub-Website. Klicke für Visual Studio oder VS Code oben auf der Seite auf die entsprechende Registerkarte.
Wenn du auf Copilot Chat mit einem Copilot Business- oder Copilot Enterprise-Abonnement zugreifst, muss deine Organisation oder dein Unternehmen den Mitgliedern ermöglichen, zu einem anderen Modell zu wechseln. Weitere Informationen findest du unter Verwalten von Richtlinien für Copilot in Ihrer Organisation oder Verwalten von Richtlinien und Features für Copilot in Ihrem Unternehmen.
Note
Wenn Sie Copilot Extensions verwenden, können sie das von Ihnen ausgewählte Modell außer Kraft setzen.
-
Klicke oben rechts auf einer beliebigen Seite auf GitHub auf den Abwärtspfeil neben dem Symbol , und klicke im Dropdownmenü auf Immersive.
-
Wähle oben links in der Vollbildansicht das Einblendmenü CURRENT-MODEL aus, und klicke dann auf das KI-Modell deiner Wahl.
Note
Die Unterstützung für mehrere Modelle in Copilot Chat befindet sich in public preview. Änderungen sind vorbehalten.
KI-Modelle für Copilot Chat
Die folgenden Modelle sind aktuell für Copilot Chat mit mehreren Modellen verfügbar:
- GPT-4o: Dies ist das Standardmodell von Copilot Chat. Dabei handelt sich um ein vielseitiges, multimodales Modell, das sich sowohl bei der Text- als auch bei der Bildverarbeitung auszeichnet und schnelle, zuverlässige Antworten bietet. Auch in anderen Sprachen als Englisch zeigt es hervorragende Leistungen. Hier findest du weitere Informationen zu den Funktionen des Modells und kannst die Modellkarte ansehen. GPT-4o wird in Azure gehostet.
- Claude 3.5 Sonnet: Dieses Modell ist am besten für das Programmieren im gesamten Lebenszyklus der Softwareentwicklung geeignet – von ersten Entwürfen über Bugfixes und Wartung bis hin zu Optimierungen. Hier findest du weitere Informationen zu den Funktionen des Modells und kannst die Modellkarte lesen. GitHub Copilot verwendet Claude 3.5 Sonnet, gehostet in Amazon Web Services.
- Gemini 2.0 Flash: Dieses Modell verfügt über starke Programmierungs-, Mathematik- und Argumentationsfähigkeiten, die es für die Unterstützung bei der Softwareentwicklung gut geeignet machen. Informationen zu den Funktionen von Gemini 2.0 Flash findest du im Google for Developers-Blog und in der Google Cloud-Dokumentation. Details zur Datenverarbeitungsrichtlinie von Google findest du unter Generative KI und Data Governance auf der Google-Website.
- o1: Der Schwerpunkt dieses Modells liegt auf komplexen Begründungen und der Lösung komplexer Probleme, insbesondere in der Mathematik und der Wissenschaft. Es reagiert langsamer als das GPT 4o-Modell. An dieses Modell können Sie 10 Anfragen pro Tag stellen. Hier findest du weitere Informationen zu den Funktionen des Modells und kannst die Modellkarte ansehen. o1 wird in Azure gehostet.
- o3-mini: Dieses Modell ist das Begründungsmodell der nächsten Generation, das auf die Modelle o1 und o1-mini folgt. Das o3-mini-Modell übertrifft o1 bei Programmierungsbenchmarks in Bezug auf die Antwortzeiten, die mit denen von o1-mini vergleichbar sind, und bietet eine bessere Qualität bei nahezu gleicher Latenzzeit. Es eignet sich am besten zur Codegenerierung und für Vorgänge mit geringem Kontext. An dieses Modell kannst du alle 12 Stunden 50 Anforderungen stellen. Hier findest du weitere Informationen zu den Funktionen des Modells und kannst die Modellkarte ansehen. o3-mini wird in Azure gehostet.
Weitere Informationen zu diesen Modellen findest du unter:
- OpenAI-Modelle GPT 4o, o1 und o3-mini: Modelle in der OpenAI Platform-Dokumentation
- Das Claude 3.5 Sonnet-Modell von Anthropic: Verwenden von Claude 3.5 Sonnet in GitHub Copilot.
- Das Gemini 2.0 Flash-Modell von Google: Verwenden von Gemini 2.0 Flash in GitHub Copilot.
Ändern Ihres KI-Modells
Diese Anweisungen gelten für VS Code. Klicke für Visual Studio oder für Copilot auf der GitHub-Website oben auf der Seite auf die entsprechende Registerkarte.
Wenn du auf Copilot Chat mit einem Copilot Business- oder Copilot Enterprise-Abonnement zugreifst, muss deine Organisation oder dein Unternehmen den Mitgliedern ermöglichen, zu einem anderen Modell zu wechseln. Weitere Informationen findest du unter Verwalten von Richtlinien für Copilot in Ihrer Organisation oder Verwalten von Richtlinien und Features für Copilot in Ihrem Unternehmen.
Note
- Wenn Sie Copilot Extensions verwenden, können sie das von Ihnen ausgewählte Modell außer Kraft setzen.
- Experimentelle Vorabversionen der Modelle interagieren möglicherweise nicht ordnungsgemäß mit allen Filtern, einschließlich des Filter für die Duplikaterkennung.
- Zum Öffnen der Chat-Ansicht klicken Sie auf das Chat-Symbol in der Aktivitätsleiste oder drücken Control+Command+i (Mac) / Strg+Alt+i (Windows/Linux).
- Wählen Sie unten rechts in der Chatansicht das Einblendmenü AKTUELLES MODELL aus und klicken Sie dann auf das KI-Modell Ihrer Wahl.
Note
Die Unterstützung für mehrere Modelle in Copilot Chat befindet sich in public preview. Änderungen sind vorbehalten.
KI-Modelle für Copilot Chat
Die folgenden Modelle sind aktuell für Copilot Chat mit mehreren Modellen verfügbar:
- GPT-4o: Dies ist das Standardmodell von Copilot Chat. Dabei handelt sich um ein vielseitiges, multimodales Modell, das sich sowohl bei der Text- als auch bei der Bildverarbeitung auszeichnet und schnelle, zuverlässige Antworten bietet. Auch in anderen Sprachen als Englisch zeigt es hervorragende Leistungen. Hier findest du weitere Informationen zu den Funktionen des Modells und kannst die Modellkarte ansehen. GPT-4o wird in Azure gehostet.
- Claude 3.5 Sonnet: Dieses Modell ist am besten für das Programmieren im gesamten Lebenszyklus der Softwareentwicklung geeignet – von ersten Entwürfen über Bugfixes und Wartung bis hin zu Optimierungen. Hier findest du weitere Informationen zu den Funktionen des Modells und kannst die Modellkarte lesen. GitHub Copilot verwendet Claude 3.5 Sonnet, gehostet in Amazon Web Services.
- o1: Der Schwerpunkt dieses Modells liegt auf komplexen Begründungen und der Lösung komplexer Probleme, insbesondere in der Mathematik und der Wissenschaft. Es reagiert langsamer als das GPT 4o-Modell. An dieses Modell können Sie 10 Anfragen pro Tag stellen. Hier findest du weitere Informationen zu den Funktionen des Modells und kannst die Modellkarte ansehen. o1 wird in Azure gehostet.
- o1-mini: Hierbei handelt es sich um die schnellere Version des o1-Modells. Es schafft einen Kompromiss zwischen komplexen Begründungen und dem Bedarf nach schnelleren Antworten. Es eignet sich am besten zur Codegenerierung und für Vorgänge mit geringem Kontext. An dieses Modell können Sie 50 Anfragen pro Tag stellen. Hier findest du weitere Informationen zu den Funktionen des Modells und kannst die Modellkarte ansehen. o1-mini wird in Azure gehostet.
Weitere Informationen zu den o1-Modellen findest du in der OpenAI Plattformdokumentation unter Modelle.
Weitere Informationen zum Claude 3.5 Sonnet-Modell von Anthropic findest du unter Verwenden von Claude 3.5 Sonnet in GitHub Copilot.
Ändern Ihres KI-Modells
Diese Anweisungen gelten für Visual Studio. Klicke für VS Code oder für Copilot auf der GitHub-Website oben auf dieser Seite auf die entsprechende Registerkarte.
Um Copilot Chat mit mehreren Modellen zu verwenden, musst du Visual Studio 2022 Version 17.12 oder höher verwenden. Weitere Informationen findest du auf der Downloadseite von Visual Studio.
Wenn du auf Copilot Chat mit einem Copilot Business- oder Copilot Enterprise-Abonnement zugreifst, muss deine Organisation oder dein Unternehmen den Mitgliedern ermöglichen, zu einem anderen Modell zu wechseln. Weitere Informationen findest du unter Verwalten von Richtlinien für Copilot in Ihrer Organisation oder Verwalten von Richtlinien und Features für Copilot in Ihrem Unternehmen.
Note
- Wenn Sie Copilot Extensions verwenden, können sie das von Ihnen ausgewählte Modell außer Kraft setzen.
- Experimentelle Vorabversionen der Modelle interagieren möglicherweise nicht ordnungsgemäß mit allen Filtern, einschließlich des Filter für die Duplikaterkennung.
- Klicke in der Menüleiste , klicke dann auf Anzeigen und dann auf GitHub Copilot Chat.
- Wähle unten rechts in der Chatansicht das Dropdownmenü CURRENT-MODEL aus, und klicke dann auf das KI-Modell deiner Wahl.