Vanliga frågor och svar om funktioner för prompter och textgenerering
I de här vanliga frågorna beskriver hur AI påverkar att skapa appar via promptfunktionen för AI Builder.
Vad är prompter?
Med funktionen för prompter i AI Builder får användarna en allsidig funktion för att utveckla AI-drivna arbetsflöden, program, dataomvandling och anpassning av copilot. Det gör det möjligt att skapa arbetsflöden och program som sammanfattar dokument, skapa utkastsvar, kategorisera text och översätta språk. Denna funktion bygger på Azure OpenAI, som använder på GPT-teknik (generativ förtränad transformator). Dessa modeller har utbildats i stora mängder textdata, så att de kan skapa text som liknar humant skriftligt innehåll. Mer information om Azure OpenAI Service finns i Transparensanteckning för Azure OpenAI Service.
Vilka är de avsedda användningsfallen för promptar?
Promptar i AI Builder hjälper dig bygga intelligenta program, arbetsflöden och utöka copilot. De utnyttja funktionerna i förhandsutbildade GPT-modeller vilket eliminerar behovet av anpassad modellutbildning. Syftet kan till exempel vara att skapa ett arbetsflöde som sammanfattar inkommande klagomål från kunder. Sedan skapas ett ärende i ett incidenthanteringsverktyg baserat på kategorin för det inkommande klagomålet. I det här exemplet kan utvecklare helt enkelt instruera modellen att kategorisera och sammanfatta det inkommande problemet och skapa en ny incident.
Följande lista innehåller de mest populära användningsfallen för tjänsten:
- Summering av e-postmeddelanden, konversationer, transkription, dokument o.s.v.
- Förslag på utkastsvar på kundfrågor, klagomål, e-post osv.
- Extraktion av information från kontrakt, e-postmeddelanden, faktura, order o.s.v.
- Klassificering av innehåll i önskade kategorier, (t.ex. om ett e-postmeddelande är en order, ett klagomål eller en retur).
- Sentimentanalys av en viss text (t.ex. identifiera sentiment i en produktgranskning).
I alla dessa fall är användarna ansvariga för det slutliga resultatet i systemet. De måste granska innehållet som genererats och se om det finns eventuella felaktigheter innan det används.
Hur utvärderades promptarnas beredskap? Vilka mått används för att mäta prestanda?
Utvärderingen av den här funktionen omfattar omfattande tester över en rad säkerhetsparametrar. Detta säkerställer att funktionen överensstämmer med vår organisations ansvarsfulla AI-standarder och principer. Tjänsten förs också kontinuerligt över till potentiella säkerhetsproblem. De prestandamått vi använder omfattar i första hand innehållets effektivitet och i vilken grad vi är överens mellan människor och maskin om filtrerat eller ofiltrerat innehåll.
Vilken typ av innehållsmoderering implementeras för promptar?
GPT-modellerna har utbildats med hjälp av data från nätet vilket gör att det bra för att bygga en allmän världsmodell. Samtidigt kan den ärva innehåll som är olämpligt, skadlig eller fördomsfullt från samma källor. Modellen är utbildad att agera säkert och inte skapa skadligt innehåll, men den kan ibland generera olämpliga utdata. AI Builder-promptar använder innehållssäkerhet för Azure AI för att skapa innehållsmoderering med de allra bästa teknikerna inom AI-promptar. Detta omfattar bland annat tjänster för att analysera resultatet med text som innehåller flera funktioner och säkerhet mot promptinjektionsattacker. Utdata skannas även för att inte återgå skyddat material.
Vilka begränsningar finns för promptfunktionen? Hur kan användare minimera påverkan av promptbegränsningar när de använder systemet?
Användningen av denna teknik måste uppfylla kraven i Regler för uppförande för Azure OpenAI Service. Denna teknik får inte användas för att skapa innehåll som är associerat med oersättlig information, felaktig information, självbetjäning, explicit material eller annat innehåll som är förbjudet enligt reglerna för uppförande. Tillämpningar av denna teknik som inte stöds inkluderar rådgivning, användning för juridisk, ekonomisk, hälsorelaterad vägledning eller framtida förutsägelser, såväl som finansiella, vetenskapliga eller matematiska beräkningar och all annan ostödd användning som nämns i transparensnotering för for Azure OpenAI Service. För närvarande stöds tjänsten endast i USA och är endast tillgänglig på engelska.
AI-genererat innehåll kan innehla fel, därför bör utvecklare informera slutanvändarna om sin lösning så att det framgår att innehållsgenereringen av denna modell skapas av AI på ett transparent sätt. Tydlig kommunikation om AI-genererat innehåll hjälper dig att undvika att man förlitar sig för mycket på innehållet. Utvecklaren bör också försäkra sig om att det finns risk för granskning av människor för att se till att det AI-genererade innehållet korrekt och lämpligt innan du använder det.
Vilka driftfaktorer och inställningar gör det möjligt att på ett effektivt och ansvarigt sätt använda systemet?
Innehåll som genereras av AI-modellen är probabilistisk och därför kan modellsvaren variera för samma prompt. Svaret som genereras kan vara felaktigt eller missvisande och kan orsaka oavsiktliga resultat från flödet eller appen. Företagskunder kan till exempel få felaktig eller felaktig information, rekommendationer eller support. Utvecklare bör implementera meningsfull mänsklig tillsyn inom sina flöden och appar, samt testa deras frågor för potentiell generering av skadligt beteende eller förbjudet innehåll som anges i Microsoft regler för uppförande. Utvecklare med låg kod bör också vara informerade om användningen av AI i sina appar och flöden för att informera företagsanvändaren och ange att innehållet genereras av AI. Dessutom kanske inte genererade svar matchar lågkodsutvecklarens förväntningar på grund av längdbegränsningar, innehållsfiltrering eller modellval.
Vad kallas GPT-modellen, var finns den och hur kan jag komma åt den?
GPT-3.5 Turbo-modellen finns i Azure OpenAI Service. För att få åtkomst till den kan du använda REST API:erna för Azure OpenAI Service, Python SDK eller det webbaserade gränssnittet i Azure OpenAI Studio.
Mer information finns i Nyheter i Azure OpenAI Service
Används mina data för att träna eller förbättra de stora språkmodeller som finns tillgängliga på AI Builder?
AI Builder prompter körs på Azure-tjänsten OpenAI som drivs av Microsoft. Kunddata används inte för att träna eller förbättra någon av Azure OpenAI Service Foundation-modellerna. Microsoft delar inte dina kunddata med en tredje part om du inte har gett tillstånd att göra det. Varken kunduppmaningar (indata) med dess jordningsdata eller modellsvaren (utdata) används för att träna eller förbättra Azure OpenAI Service Foundation-modeller.
Är innehållet som lagts till i åtgärden "Skapa text med GPT med en prompt" allmänt tillgängligt?
På fliken Om för åtgärden står det Den här åtgärden ger åtkomst till dina prompter och använder GPT-modellen som körs i Azure OpenAI Service.
De prompter du lägger till för åtgärden Skapa text med GPT med en prompt i Power Automate är som standard privata. De är bara synliga och användbara i din organisation och inte tillgängliga för omvärlden. Prompten är privat och ska användas internt i företaget.
Nyligen skapade frågor är privata som standard. Detta innebär att de är synliga och användbara i Power Automate, Power Apps och Microsoft Copilot Studio endast av den person som skapade dem. Detta ger skaparen tid att testa och utvärdera dem i appar eller arbetsflöden och se till att de är korrekta innan de delas.
Om du vill att andra användare av miljön eller grupperna ska använda prompten i Power Apps eller Power Automate måste du dela den.
Mer information finns i Dela din prompt.
Vad är anpassade promptar och AI-funktioner?
Anpassade frågor
Anpassade frågor ger skaparna i uppdrag att instruera den stora språkmodellen (LLM) att agera på ett visst sätt, eller att utföra en viss uppgift. Genom att noggrant skapa en prompt kan du generera svar som passar just dina affärsbehov. LLM-modellen omvandlas då till ett flexibelt verktyg för olika uppgifter.
Exempel
Med en språkmodell kan en anpassad prompt vägleda modellen för att besvara en prompt, slutföra text, översätta språk, sammanfatta ett dokument och identifiera uppgifter, att göra och åtgärdsobjekt i text. Komplexiteten i en anpassad prompt kan vara allt från en enskild mening till något mer intrikat, beroende på uppgiften.
AI-funktioner
Fördefinierade AI-funktioner är förkonfigurerade promptar som skapats av Microsoft-teamet för att hjälpa skapare att utföra vanliga uppgifter på ett enkelt sätt. De erbjuder användningsklara AI-funktioner för olika användningsfall, vilket förenklar utvecklarupplevelsen för att infudera intelligens i lösningarna.
Exempel
En språkmodells fördefinierade prompt kan se ut så här:
Extrahera som en numrerad lista som åtgärden pekar från: [TextToExtract]
I det här fallet behöver användaren endast tillhandahålla den text [TextToExtract]
från vilken användaren vill extrahera åtgärdspunkter. Den fördefinierade prompten tar hand om resten.