GitHub Copilot-Daten

Abgeschlossen

In dieser Lerneinheit wird erläutert, wie GitHub Copilot Daten für verschiedene Umgebungen, Features und Konfigurationen verarbeitet.

Datenverarbeitung für GitHub Copilot-Codevorschläge

GitHub Copilot im Code-Editor behält keine Prompts wie Code oder andere Kontexte bei, die für die Bereitstellung von Vorschlägen zum Trainieren der grundlegenden Modelle verwendet werden. Die Prompts werden verworfen, sobald ein Vorschlag zurückgegeben wird.

GitHub Copilot Individual-Abonnenten können die Freigabe ihrer Prompts für GitHub deaktivieren, die andernfalls verwendet werden, um das GitHub-Basismodell zu optimieren.

Datenverarbeitung für GitHub Copilot Chat

GitHub Copilot Chat fungiert als interaktive Plattform, sodass Entwickler Gesprächsinteraktionen mit dem KI-Assistenten durchführen können, um Codierungsunterstützung zu erhalten. Hier sehen Sie die Schritte, die ausgeführt werden und sich von anderen Features wie Codevervollständigung unterscheiden können:

  • Formatierung: Copilot formatiert die generierte Antwort sorgfältig für eine optimale Darstellung innerhalb der Chatschnittstelle. Das Tool hebt Codeausschnitte hervor, um die Lesbarkeit zu verbessern, und kann Optionen für die direkte Integration in Ihren Code enthalten. Copilot zeigt die formatierte Antwort im Copilot Chat-Fenster innerhalb der IDE, sodass Sie die bereitgestellten Informationen problemlos überprüfen und mit ihnen interagieren können.
  • Kundenbindung: Sie können sich aktiv mit der Antwort befassen, indem Sie Nachverfolgungsfragen stellen, Klarstellungen anfordern oder zusätzliche Eingaben bereitstellen. Die Chatschnittstelle verwaltet aufgezeichnete Unterhaltungen, um kontextbezogenes Verständnis in nachfolgenden Interaktionen zu erleichtern.
  • Datenaufbewahrung: Bei Copilot Chat, der außerhalb des Code-Editors verwendet wird, speichert GitHub in der Regel Prompts, Vorschläge und unterstützenden Kontext 28 Tage lang. Bestimmte Aufbewahrungsrichtlinien für Copilot Chat innerhalb des Code-Editors können variieren.

Dasselbe gilt für CLI, Mobile und GitHub Copilot Chat auf GitHub.com.

Von GitHub Copilot Chat unterstützte Prompt-Typen

GitHub Copilot Chat verarbeitet eine breite Palette an codebezogenen Prompts und demonstriert seine Vielseitigkeit als Programmierungsassistent für Unterhaltungen. Hier finden Sie einige allgemeine Eingabetypen:

  • Direkte Fragen: Sie können spezifische Fragen zu Codierungskonzepten, Bibliotheken oder zur Problembehandlung stellen. Beispiel: „Wie implementiere ich einen Schnellsortierungsalgorithmus in Python?“ oder „Warum wird meine React-Komponente nicht gerendert?“
  • Codebezogene Anforderungen: Sie können eine Codegenerierung, -änderung oder -erklärung anfordern. Beispiele sind „Schreibe eine Funktion zum Berechnen der Fakultät.“, „Behebe diesen Fehler in meinem Code.“ oder „Erkläre diesen Codeschnipsel.“.
  • Freitextfragen: Sie können Codierungskonzepte erkunden oder allgemeine Anleitungen suchen, indem Sie Freitextfragen „Was sind die bewährten Methoden zum Schreiben eines sauberen Codes?“ oder „Wie kann ich die Leistung meiner Python-Anwendung verbessern?“ stellen.
  • Kontextbezogene Prompts: Sie können Codeschnipsel bereitstellen oder bestimmte Codierungsszenarien beschreiben, um maßgeschneiderte Unterstützung zu erhalten. Beispiele: „Hier ist ein Teil meines Codes, kannst du Verbesserungen vorschlagen?“ oder „Ich erstelle eine Webanwendung, kannst du mir beim Authentifizierungsflow helfen?“

Die Fähigkeit von Copilot Chat, verschiedene Eingabetypen zu verarbeiten, steigert seine Nützlichkeit als umfassender Codierungsbegleiter.

Eingeschränkte Kontextfenster

Abbildung: GitHub Copilot-Kontextfenster

GitHub Copilot Chat ist zwar hervorragend in der Lage, Prompts zu verstehen und darauf zu reagieren, aber es ist wichtig, die Einschränkungen von Kontextfenstern zu kennen. Dies bezieht sich auf die Menge des umgebenden Codes und Texts, die das Modell gleichzeitig verarbeiten kann, um Vorschläge zu generieren. Das Kontextfenster von GitHub Copilot reicht in der Regel von ca. 200 bis 500 Codezeilen bzw. bis zu ein paar tausend Token. Diese Einschränkung kann je nach spezifischer Implementierung und Version von Copilot variieren, die verwendet werden.

Copilot Chat arbeitet derzeit mit einem Kontextfenster von 4.000 Token und bietet einen breiteren Bereich für das Verstehen von und das Reagieren auf Benutzerabfragen im Vergleich zur Copilot-Standardversion.

Trotz dieser Fortschritte sollten Sie beim Erstellen von Prompts die Einschränkungen des Kontextfensters berücksichtigen. Das Aufteilen komplexer Probleme in kleinere, fokussiertere Abfragen oder das Bereitstellen relevanter Codeschnipsel kann die Fähigkeit des Modells erheblich verbessern, genaue und hilfreiche Antworten bereitzustellen.