Resumé

Fuldført

I dette modul afslørede vi de snørklede optimeringer af GitHub Copilot gennem effektiv prompting. Udnyttelse af værktøjets maksimale potentiale ligger i kunst og videnskab i prompt engineering. Nu er du udstyret med raffinerede færdigheder og indsigt for at forbedre din kodeoplevelse og dit output. Når du har fuldført dette modul, har du lært:

Spørg tekniske principper, bedste praksisser, og hvordan GitHub Copilot lærer af dine prompter for at give kontekstorienterede svar. Det underliggende flow for, hvordan GitHub Copilot behandler brugerprompter for at generere svar eller kodeforslag. Dataflowet til kodeforslag og chat i GitHub Copilot. LLMs (store sprogmodeller) og deres rolle i GitHub Copilot og prompting. Sådan udformer du effektive prompts, der optimerer GitHub Copilots ydeevne, hvilket sikrer præcision og relevans i alle kodeforslag. Den komplicerede relation mellem prompts og Copilots svar. Sådan håndterer Copilot data fra prompts i forskellige situationer, herunder sikker transmission og indholdsfiltrering.

Referencer

Giv feedback

Brug denne problemformular til at give indholdsfeedback eller foreslå ændringer til dette Microsoft Learn-modul. GitHub vedligeholder dette indhold, og et teammedlem vil prioritere anmodningen. Tak, fordi du tog dig tid til at forbedre vores indhold!