Resumé
I dette modul afslørede vi de snørklede optimeringer af GitHub Copilot gennem effektiv prompting. Udnyttelse af værktøjets maksimale potentiale ligger i kunst og videnskab i prompt engineering. Nu er du udstyret med raffinerede færdigheder og indsigt for at forbedre din kodeoplevelse og dit output. Når du har fuldført dette modul, har du lært:
Spørg tekniske principper, bedste praksisser, og hvordan GitHub Copilot lærer af dine prompter for at give kontekstorienterede svar. Det underliggende flow for, hvordan GitHub Copilot behandler brugerprompter for at generere svar eller kodeforslag. Dataflowet til kodeforslag og chat i GitHub Copilot. LLMs (store sprogmodeller) og deres rolle i GitHub Copilot og prompting. Sådan udformer du effektive prompts, der optimerer GitHub Copilots ydeevne, hvilket sikrer præcision og relevans i alle kodeforslag. Den komplicerede relation mellem prompts og Copilots svar. Sådan håndterer Copilot data fra prompts i forskellige situationer, herunder sikker transmission og indholdsfiltrering.
Referencer
- i GitHub: Arbejde med de store sprogmodeller (LLMs) bag GitHub Copilot – GitHub-bloggen
- Sådan bruger du GitHub Copilot: Prompts, tips og use cases – GitHub-bloggen
- Sådan håndterer GitHub-copilot data
Giv feedback
Brug denne problemformular til at give indholdsfeedback eller foreslå ændringer til dette Microsoft Learn-modul. GitHub vedligeholder dette indhold, og et teammedlem vil prioritere anmodningen. Tak, fordi du tog dig tid til at forbedre vores indhold!