Résumé
Dans ce module, nous avons dévoilé les complexités de l’optimisation de GitHub Copilot à travers des prompts efficaces. Exploiter le potentiel maximal de l’outil réside dans l’art et la science de l’ingénierie des invites. Vous êtes à présent détenteur de compétences et d’insights affinés pour élever votre expérience de codage et votre sortie. A l’issue de ce module, vous avez appris :
Principes d’ingénierie d’invite, meilleures pratiques, et comment GitHub Copilot apprend à partir de vos invites pour fournir des réponses adaptées au contexte. Flux sous-jacent de la manière dont GitHub Copilot traite les invites de l'utilisateur pour générer des réponses ou des suggestions de code. Flux de données pour les suggestions de code et les conversations dans GitHub Copilot. LLMs (Large Language Models) et leur rôle dans GitHub Copilot et les invites. Comment rédiger des invites efficaces qui optimisent les performances de GitHub Copilot, en garantissant la précision et la pertinence de chaque suggestion de code. La relation complexe entre les invites et les réponses de Copilot. Comment Copilot traite les données provenant des invites dans différentes situations, y compris la transmission sécurisée et le filtrage du contenu.
Références
- À l’intérieur de GitHub : Utilisation des grands modèles de langage (LLM) derrière GitHub Copilot – Le blog GitHub
- Comment utiliser GitHub Copilot : Invites, conseils et cas d’usage – Le blog GitHub
- Comment GitHub Copilot gère les données
Fournir des commentaires
Envoyez des commentaires concernant le contenu ou suggérez des modifications pour ce module Microsoft Learn. GitHub gère le contenu et un membre de l’équipe trie les requêtes. Merci d’avoir pris le temps d’améliorer notre contenu.