Samenvatting
In deze module hebben we de complexiteit van het optimaliseren van GitHub Copilot onthuld via effectieve prompts. Het benutten van het maximale potentieel van de tool ligt in de kunst en wetenschap van prompt engineering. Nu bent u uitgerust met verfijnde vaardigheden en inzichten om uw coderingservaring en -uitvoer te verhogen. Nadat deze module is voltooid, hebt u het volgende geleerd:
"‘Prompt engineering’-principes, de beste werkwijzen en hoe GitHub Copilot leert van uw prompts om contextbewuste antwoorden te bieden." De onderliggende stroom van hoe GitHub Copilot gebruikersprompts verwerkt om antwoorden of codesuggesties te genereren. De gegevensstroom voor codesuggesties en chat in GitHub Copilot. LLMs (Large Language Models) en hun rol in GitHub Copilot en vragen. Hoe u effectieve prompts maakt die de prestaties van GitHub Copilot optimaliseren, waardoor nauwkeurigheid en relevantie in elke codesuggestie worden gegarandeerd. De ingewikkelde relatie tussen prompts en Copilot's antwoorden. Hoe Copilot gegevens verwerkt van prompts in verschillende situaties, waaronder veilig verzenden en filteren van inhoud.
Verwijzingen
- Binnen GitHub: Werken met de grote taalmodellen (LLM's) achter GitHub Copilot - De GitHub-blog
- GitHub Copilot gebruiken: prompts, tips en use cases - Het GitHub-blog
- Hoe GitHub Copilot gegevens verwerkt
Feedback geven
Gebruik dit probleemformulier om feedback te geven over inhoud of voorgestelde wijzigingen voor deze Microsoft Learn-module. GitHub onderhoudt deze inhoud en een teamlid sorteert de aanvraag. Bedankt voor het nemen van de tijd om onze inhoud te verbeteren!