Indførelsen
GitHub Copilot, drevet af OpenAI, ændrer spillet inden for softwareudvikling ved at fremskynde udviklingsarbejdsgange fra indledende kodeoprettelse til produktionsklare implementeringer. GitHub Copilot kan forstå de komplicerede detaljer i dit projekt ved at oplære data, der indeholder både naturligt sprog og milliarder af kildekodelinjer fra offentligt tilgængelige kilder, herunder kode i offentlige GitHub-lagre. Dette giver GitHub Copilot mulighed for at give dig mere kontekstbevidste forslag, der hjælper dig med hurtigt at levere kodeændringer og automatisere rutinemæssige udviklingsopgaver.
Men for at få mest muligt ud af GitHub Copilot og maksimere din udviklingshastighed, skal du kende til hurtig teknik. Prompt engineering er, hvordan du fortæller GitHub Copilot, hvad du har brug for med præcision og effektivitet. Kvaliteten af den kode, den giver tilbage, og hvor hurtigt du kan iterere mod den perfekte løsning, afhænger af, hvor klare og strategiske dine prompter er.
I dette modul får du mere at vide om:
- Hurtige tekniske principper, bedste praksis, og hvordan GitHub Copilot lærer af dine prompter for at give kontekstafhængige svar, der fremskynder udviklingscyklusser.
- Avancerede promptstrategier, herunder rolleprompting og administration af chathistorik for at få bedre resultater med færre iterationer.
- Det underliggende flow for, hvordan GitHub Copilot behandler brugerprompter for at generere svar eller kodeforslag effektivt.
- Dataflowet til kodeforslag og chat i GitHub Copilot.
- LLMs (store sprogmodeller) og deres rolle i GitHub Copilot og prompting.
- Sådan udarbejder du effektive prompter, der optimerer GitHub Copilots ydeevne, sikrer præcision og relevans i hvert kodeforslag, samtidig med at revisionscyklusser minimeres.
- Det indviklede forhold mellem prompter og Copilots svar for at strømline din udviklingsarbejdsgang.
- Sådan håndterer Copilot data fra prompts i forskellige situationer, herunder sikker transmission og indholdsfiltrering.