Piezīmes
Lai piekļūtu šai lapai, ir nepieciešama autorizācija. Varat mēģināt pierakstīties vai mainīt direktorijus.
Lai piekļūtu šai lapai, ir nepieciešama autorizācija. Varat mēģināt mainīt direktorijus.
Piezīmes
Priekšskatījuma līdzekļi nav paredzēti komerciālai lietošanai, un to funkcionalitāte var būt ierobežota. Šie līdzekļi ir pieejami pirms oficiālā laidiena, lai klienti varētu priekšlaikus piekļūt līdzeklim un sniegt atsauksmes.
Visaptverošu lietojumprogrammu Power Platform testēšanas plānu izveide var būt laikietilpīga, jo īpaši sarežģītiem scenārijiem. Mākslīgā intelekta autorēšanas rīki, piemēram, GitHub Copilot var ievērojami paātrināt šo procesu, ģenerējot testa veidnes, iesakot testa gadījumus un automatizējot boilerplate koda izveidi.
Šajā rokasgrāmatā ir paskaidrots, kā izmantot GitHub Copilot avota Power Platform kontroles risinājumus, lai efektīvi izveidotu testēšanas programmas testēšanas plānus.
Priekšnoteikumi
Pirms sākat, pārliecinieties, vai jums ir:
- Visual Studio Instalēts kods
- GitHub Copilot abonēšana
- GitHub Copilot Tērzēšanas paplašinājums VS kodam
- Power Platform Instalēta CLI
- Avota kontrolēts Power Platform risinājums
Testa autorēšanas vides iestatīšana
Lai maksimāli palielinātu mākslīgā intelekta testa autorēšanas efektivitāti, apvienojiet šos rīkus strukturētā darbplūsmā:
- Avota failu iegūšana
- Vides vai risinājuma klonēšana Power Platform no avota kontroles
- Eksportējiet un izsaiņojiet savu risinājumu no Power Platform failiem, izmantojot pac risinājuma eksportēšanu un pac risinājumu izsaiņošanu
- Inicializējiet git repozitoriju versiju kontrolei (ja tas vēl nav izdarīts)
- Īpašas testa mapes izveide risinājumu repozitorijā
- Atveriet risinājumu mapi kodā Visual Studio
Izmantošana GitHub Copilot testa izveidei
GitHub Copilot var palīdzēt ģenerēt dažādus testa komponentus, pamatojoties uz avota kontrolēto risinājumu. Lūk, kā efektīvi izmantot tās iespējas:
Dokumentācijas parauga izmantošana kā konteksts
Testa programmas paraugu katalogs nodrošina bagātīgu atsauces materiālu GitHub Copilot avotu. Jūs varat palīdzēt Copilot ģenerēt augstākas kvalitātes testus:
- Faila samples.md iekļaušana darbvietā
- Atsauce uz konkrētiem paraugiem uzvednēs
- Saites uz paraugu GitHub krātuvēm nodrošināšana
Piemēram, jūs varētu:
- Atveriet gan lietojumprogrammas kodu, gan samples.md failu VS Code
- Lūdziet Copilot izveidot testus "līdzīgi ButtonClicker paraugam" vai "izmantojot parauga Dataverse modeļus"
- Atsaucieties uz konkrētām iespējām no paraugiem, kas atbilst jūsu testēšanas vajadzībām
Šī pieeja palīdz Copilot izprast Power Platform testa dzinēju modeļus un ģenerēt precīzākus testus.
Darbs ar GitHub Copilot aģenta režīmu
Visual Studio Code's GitHub Copilot Chat piedāvā aģenta režīmu , kas var palīdzēt ģenerēt testus, pamatojoties uz jūsu risinājuma failiem. Šis režīms ļauj Copilot dziļāk piekļūt un izprast jūsu projekta kontekstu.
Lai testa ģenerēšanai izmantotu aģenta režīmu, veiciet tālāk norādītās darbības.
- Programmā VS Code atveriet GitHub Copilot tērzēšanu (Ctrl+Shift+I)
- Atlasiet aģents no Copilot režīma atlasītāja
- Izveidojiet detalizētu uzvedni par testu, kuru vēlaties izveidot
Testa ģenerēšanas uzvedņu piemēri
Testa ģenerēšanai mēģiniet izmantot šādas uzvednes:
Mērķis:
Ģenerējiet visaptverošu testa komplektu audekla programmai, izmantojot testēšanas programmu Power Apps , kas modelēta pēc ButtonClicker parauga.
Uzvedne:
Ģenerējiet testu ./SolutionPackage/src/CanvasApps/src/MyApp/Src/App.fx.yaml, izmantojot paraugu https://github.com/microsoft/PowerApps-TestEngine/tree/main/samples/buttonclicker kā atsauci. Izveidojiet paredzamos gadījumus, malas gadījumus un izņēmuma gadījumus. Testam ir jāizveido testa YAML fails un Power Fx testa darbības, config.json un RunTest.ps1, pamatojoties uz paraugu, lai varētu izpildīt testu.
Mērķis:
Izveidojiet detalizētu testēšanas plānu modeļa vadītai programmai, lai nodrošinātu, ka pamatfunkcionalitāte un biznesa loģika darbojas, kā paredzēts.
Uzvedne:
Izveidojiet visaptverošu testa plānu manai modeļa vadītai programmai, kas atrodas vietnē ./SolutionPackage/src/Other/Solution.xml. Testam jāapstiprina veidlapas ielāde, ierakstu izveide un biznesa noteikumu izpilde. Ģenerējiet testa YAML, Power Fx darbības un PowerShell skriptu, lai izpildītu testu.
Mērķis:
Izveidojiet testa plānu entītijām Dataverse , lai pārbaudītu CRUD darbības, veicot Power Fx darbības.
Uzvedne:
Izveidojiet visaptverošu testa plānu maniem Dataverse klientiem. Testam jāveic izveides, atjaunināšanas, dzēšanas Power Fx darbības. Ģenerējiet testa YAML, Power Fx darbības un PowerShell skriptu, lai izpildītu testu.
Izpratne par ģenerētajiem testa komponentiem
Ģenerējot GitHub Copilot testu, tas parasti izveido šādus komponentus:
- YAML testēšanas plāns: definē testa struktūru, programmas URL un testa darbības
- Power Fx testa darbības. Satur testa loģiku, izmantojot Power Fx izteiksmes
- config.json: Testa izpildes parametru konfigurācija
- RunTest.ps1: PowerShell skripts testa izpildei
Piemērs: ģenerēta testa struktūra
MyAppTests/
├── MyAppTest.fx.yaml # Power Fx test steps
├── MyAppTest.yml # Test plan definition
├── config.json # Test configuration
└── RunTest.ps1 # Test execution script
Paraugprakse mākslīgā intelekta testēšanas autorēšanai
Apsveriet tālāk norādītās sadaļas, lai maksimāli GitHub Copilot izmantotu testa programmas testa izveidi.
Skaidra konteksta nodrošināšana uzvednēs
Precīzi norādiet, ko vēlaties pārbaudīt, un iekļaujiet atsauces uz:
- Precīzi faili, kas jāpārbauda
- Testu paraugi, kas jāizmanto kā veidnes
- Konkrēti testa scenāriji, kurus vēlaties aptvert
- Visas autentifikācijas vai vides prasības
Testprogrammas paraugu izmantošana kontekstam
Dokumentācija samples.md katalogē visus pieejamos paraugus no testa programmas repozitorija, kas var būt lieliska atsauce, veidojot uzvednes GitHub Copilot. Piemēram, testējot audekla programmu ar pogām, varat atsaukties uz pogu klikšķa paraugu:
Uzvedne:
Ģenerējiet testu manai Canvas programmai vietnē ./SolutionPackage/src/CanvasApps/src/MyApp/Src/App.fx.yaml, izmantojot ButtonClicker paraugu no https://github.com/microsoft/PowerApps-TestEngine/tree/main/samples/buttonclicker. Testam:
1. Pārbaudiet, vai mana skaitītāja poga ekrānā palielina vērtību
2. Testa robežapstākļi (piemēram, maksimālā vērtība)
3. Iekļaujiet OnTestCaseStart un OnTestCaseComplete dzīves cikla āķus
4. Ģenerējiet config.json ar atbilstošiem vides mainīgajiem lielumiem
Šī pieeja palīdz Copilot izprast testa struktūru un ģenerē precīzākus, kontekstuāli atbilstošus testus, pamatojoties uz pārbaudītiem piemēriem.
Izmantojot avota kontrolētus risinājumus kā kontekstu
Copilot darbojas vislabāk, ja tas var analizēt jūsu risinājuma struktūru. Izmantojiet avota kontroli risinājumiem Power Platform , lai nodrošinātu šo kontekstu. Šis konteksts ļauj Copilot:
- Izpratne par lietotnes struktūru
- Vadīklu nosaukumu un rekvizītu identificēšana
- Ģenerējiet precīzākas testa darbības
- Atsauce uz pareizajiem failu ceļiem
Ģenerēto testu pārskatīšana un precizēšana
Lai gan mākslīgā intelekta ģenerētie testi ir lielisks sākumpunkts, vienmēr:
- Pārbaudiet, vai kontroles atsauces atbilst jūsu lietojumprogrammai
- Apgalvojumu pievienošana biznesam kritiskajai funkcionalitātei
- Pārliecinieties, ka malas gadījumi tiek pareizi apstrādāti
- Autentifikācijas konfigurācijas validēšana
Apvienojiet ar manuālām zināšanām
Sarežģītiem testēšanas scenārijiem izmantojiet GitHub Copilot :
- Testa sistēmas un struktūras ģenerēšana
- Standarta validācijas modeļu izveide
- Iesakiet apsvērtus malas gadījumus
Pēc tam papildiniet savas domēnas zināšanas:
- Konkrētas uzņēmējdarbības validācijas noteikumi
- Vides apsvērumi
- Specializēti testa dati
Izplatītākie testa ģenerēšanas modeļi
Šajā sadaļā ir daži izplatīti testu ģenerēšanas modeļi:
Audekla programmu testēšana
Audekla programmām izmantojiet uzvednes, kas atsaucas uz failu App.fx.yaml avota kontrolētajā risinājumā:
Uzvedne:
Ģenerējiet testu manai Canvas programmai vietnē ./SolutionPackage/src/CanvasApps/src/MyExpenseApp/Src/App.fx.yaml, kas apstiprina izdevumu iesniegšanas procesu. Testam ir jāaizpilda izdevumu lauki, jāiesniedz veidlapa un jāpārbauda, vai tiek parādīts apstiprinājuma ziņojums.
Modeļa vadītu programmu testēšana
Modeļa vadītām programmām koncentrējieties uz entītiju navigāciju, veidlapu mijiedarbību un biznesa kārtulām:
Uzvedne:
Izveidojiet testu manai modeļa vadītai programmai, kas pārbauda konta entītijas veidlapu. Testam ir jāizveido jauns konta ieraksts, jāpārbauda obligātie lauki un jāpārbauda, vai kredītlimita aprēķināšanas biznesa kārtulas darbojas pareizi.
Paplašinājumu testēšana Dataverse
Testiem Dataverse uzsveriet datu operācijas un biznesa loģikas validāciju:
Uzvedne:
Ģenerējiet Dataverse testu, kas apstiprina pielāgotos spraudņus manā risinājumā. Testam jāizveido testa ieraksti, jāaktivizē spraudņa izpilde un jāpārbauda, vai notikušas paredzamās datu transformācijas.
Paraugam specifiskas testa uzvednes
Lai iegūtu visprecīzāko testa ģenerēšanu, atsaucieties uz konkrētiem paraugiem no testēšanas programmas paraugu kataloga , kas atbilst jūsu testēšanas vajadzībām. Tālāk ir norādītas pielāgotas uzvednes bieži sastopamiem testēšanas scenārijiem.
ButtonClicker paraugu uzvednes
ButtonClicker paraugā ir parādīta skaitītāja funkcionalitātes pamatpārbaude. Izmantojiet tālāk norādītās uzvednes.
Uzvedne:
Ģenerējiet testu manai skaitītāja programmai ar līdzīgu struktūru ButtonClicker paraugam. Manā lietotnē ir pogas ar nosaukumu "IncrementBtn" un "ResetBtn" ar "CounterLabel", kas parāda pašreizējo skaitu. Izveidojiet testu, kas pārbauda, vai abas pogas darbojas pareizi un vai maksimālais skaits ir 10.
Uzvedne:
Izveidojiet testu manai pogas mijiedarbības programmai, izmantojot paraugu ButtonClicker kā atsauci. Manā lietotnē ir "SubmitButton", kas jāiespējo tikai tad, kad ir aizpildīti lauki "NameInput" un "EmailInput". Ģenerējiet testa plānu ar Power Fx darbībām, lai apstiprinātu šo darbību.
Galerijas testēšanas uzvednes
BasicGallery un NestedGallery paraugi parāda, kā pārbaudīt galerijas mijiedarbību.
Uzvedne:
Ģenerējiet testu manai galerijas programmai, kurā ir galerija "Produkti" ar produktu vienumiem, kas satur vadīklas "TitleLabel", "PriceLabel" un "SelectButton". Izmantojiet BasicGallery parauga struktūru, lai pārbaudītu, vai varu atlasīt vienumus un vai pareizā informācija parādās "DetailPanel".
Datu operāciju uzvednes
Paraugā Dataverse parādīta datu operāciju testēšana:
Uzvedne:
Izveidojiet testu manai CRM programmai, izmantojot parauga modeli Dataverse . Pārbaudiet, vai varu izveidot jaunu kontaktpersonas ierakstu, atjaunināt to un pēc tam pārbaudīt, vai izmaiņas paliek. Iekļaujiet gan lietotāja interfeisa testus, gan tiešās Dataverse darbības.
AI testēšanas uzvednes
Lai pārbaudītu mākslīgā intelekta funkcionalitāti, skatiet AI uzvednes paraugu:
Uzvedne:
Ģenerējiet testu manai noskaņojuma analīzes programmai, pamatojoties uz AI uzvednes paraugu. Manai lietotnei ir tekstlodziņš "FeedbackInput", un to izmanto AI Builder , lai to klasificētu kā pozitīvu, negatīvu vai neitrālu. Izveidojiet testu, kas apstiprina dažādas ievades un rada paredzamos rezultātus pieņemamās robežvērtības robežās.
Uzlabotas metodes
Šajā sadaļā ir sniegti papildu uzvednes iespēju piemēri.
Vairāku vidi testa komplektu izveide
Varat piedāvāt Copilot ģenerēt testus, kas darbojas vairākās vidēs:
Uzvedne:
Ģenerējiet testa komplektu manai programmai, kas var darboties DEV, TEST un PROD vidēs ar atbilstošiem konfigurācijas mainīgajiem katrai videi.
Datu izsmieklu scenāriju ģenerēšana
Izolētai testēšanai ar savienotāja ņirgāšanos:
Uzvedne:
Izveidojiet testu ar izdomātām savienotāja atbildēm manai programmai, kas izmanto Office 365 Outlook savienotāju. Testam jāsimulē e-pasta ziņojumu saņemšana un jāapstiprina lietotnes apstrādes loģika.
Mākslīgā intelekta spēju pārbaude un nedeterministisko rezultātu apstrāde
Strādājot ar mākslīgā intelekta darbināmām lietojumprogrammām, testēšana rada unikālus izaicinājumus, jo mākslīgā intelekta izvade var nedaudz atšķirties starp skrējieniem, pat ar identiskām ievadēm. Šai nedeterministiskajai uzvedībai ir nepieciešamas īpašas testēšanas pieejas.
Izpratne par nedeterministisko testēšanu
Nedeterministiskā testēšana ietver rezultātu validāciju, kas var likumīgi atšķirties dažādos testa braucienos:
- AI modeļa izvades: atbildes no AI modeļiem, piemēram, GPT vai pielāgotiem AI Builder komponentiem
- Ticamības rādītāji: skaitliskie novērtējumi, kas var svārstīties pieņemamos diapazonos
- Ģenerēts saturs: AI sistēmu sagatavotais teksts vai ieteikumi
Preview.AIExecutePrompt izmantošana AI iespēju deterministiskai testēšanai
Testa programma nodrošina Preview.AIExecutePrompt , kas ļauj deterministisku AI atbilžu validāciju. Šī pieeja ļauj:
- AI uzvedņu izpilde testa scenārijos
- Strukturēto atbilžu parsēšana un validēšana
- Pārbaudiet, vai kritiskā izlaide atbilst cerībām, neraugoties uz iespējamām atšķirībām
Piemērs: reitinga novērtēšana ar AI Builder
Tālāk sniegtajā piemērā parādīta Preview.AIExecutePrompt funkcijas izmantošana, lai pārbaudītu ar MI darbināmu vērtēšanas sistēmu:
EvaluateTestQuestionPrompt(Prompt: TestQuestion): TestResult =
With({
Response: ParseJSON(
Preview.AIExecutePrompt("PromptEvaluator",
{
Context: "You are a helpful agent asking about external customer service questions.",
Question: Prompt.Question
}).Text)
},If(
IsError(AssertNotError(Prompt.ExpectedRating=Response.Rating, Prompt.Question & ", Expected " & Prompt.ExpectedRating & ", Actual " & Response.Rating)),
{PassFail: 1, Summary: Prompt.Question & ", Expected " & Prompt.ExpectedRating & ", Actual " & Response.Rating}, {PassFail: 0, Summary: "Pass " & Prompt.Question}
))
Šajā piemērā:
- Tests izpilda AI uzvedni pret "PromptEvaluator" modeli
- Tas izsniedz kontekstu un jautājumu izvērtēšanai
- Tas pārbauda, vai atgrieztais vērtējums atbilst paredzamajai vērtībai
- Tas sniedz skaidru atgriezenisko saiti par testa panākumiem vai neveiksmēm
Pilnu ieviešanu varat izpētīt AI uzvednes paraugā no PowerApps TestEngine repozitorija.
MI apzinošas testēšanas iekļaušana
Izmantojot GitHub Copilot mākslīgā intelekta darbinātu lietojumprogrammu testu ģenerēšanu:
Uzvedne:
Ģenerējiet testu manai mākslīgā intelekta darbinātai programmai, kas izmanto AI Builder veidlapu apstrādi. Iekļaujiet testa darbības, kas apstiprina AI rezultātus ar atbilstošu pielaidi nedeterministiskiem rezultātiem.
Problēmu novēršana un pilnveidošana
Ja GitHub Copilot ģenerējat testus, kas neatbilst jūsu vajadzībām:
- Precizējiet uzvedni: precīzāk norādiet, ko vēlaties pārbaudīt
- Norādiet piemērus: saite uz konkrētiem testa paraugiem, kas atbilst vēlamajam stilam.
- Sadalījiet sarežģītus testus: pieprasiet mazāku, mērķtiecīgu testa komponentu ģenerēšanu
- Iterēt: izmantojiet Copilot atbildes, lai precizētu nākamo uzvedni
Saistītie raksti
Izpētiet testa programmas funkcijas
Testēšanas programmas paraugu kataloga pārlūkošana
Uzziniet par Power Fx testa funkcijām
Izpratne par YAML testa formātu
Autentifikācijas opciju izpēte
Apmācība: lietojumprogrammu veidošana ar aģenta GitHub Copilot režīmu