Översikt över prompter

Den här artikeln innehåller frågeteknik och andra viktiga begrepp som hjälper dig att skapa kraftfulla program som kan skapa text från dina indata (prompt).

En prompt är en instruktion i naturligt språk som anger en stor språkmodell (LLM) för att utföra en uppgift. Processen är också känd som instruktionsinställning. Modellen följer uppmaningen för att bestämma strukturen och innehållet i texten som den behöver generera. Promptteknik är processen att skapa och förfina den prompt som används av modellen.

AI Builder tillhandahåller ett promptverktyg som gör det möjligt för skapare att skriva, testa, spara och använda prompter för att generera text.

Viktigt!

Förutsättningar

  • Du har en grundläggande förståelse av hur du skriver prompter.
  • Din miljö finns i listan över tillgängliga regioner.
  • Du har en Power Apps- eller Power Automate-licens.
  • En Microsoft Dataverse-databas som är installerad i miljön.
  • Du har ett AI Builder-tillägg.

Vad en prompt är och hur du använder den

Tänk på en prompt som en uppgift eller ett mål du ger till den stora språkmodellen (LLM). Med promptverktyget kan du skapa, testa och spara anpassade prompter. Du kan också använda indatavariabler för att tillhandahålla dynamiska kontextdata vid körning. Du kan dela dessa prompter med andra och använda dem i Power Automate, Power Apps eller Copilot Studio. Du kan till exempel uppmanas att välja åtgärdsobjekt i företagets e-postmeddelanden och använda dem i Power Automate ett flöde för att skapa en automatisering för e-postbearbetning.

Med promptverktyget kan skapare hitta på anpassade frågor som passar deras specifika affärsbehov med hjälp av naturligt språk. Dessa frågor kan användas i en mängd olika uppgifter eller affärsscenarier, till exempel summera innehåll, kategorisera data, extrahera entiteter, översätta språk, förfallna sentimentiteter eller utforma ett svar på ett klagomål.

Frågor kan integreras i flöden för att skapa intelligent automatiserad överlämning. Skapare kan också skapa avancerade, generativa AI-funktioner för sina program genom att beskriva dem som frågor på naturligt språk. Dessa frågor kan användas för att utöka en anpassad copilot, vilket förenklar den dagliga verksamheten och ökar effektiviteten.

Den mänskliga kontrollen

Den mänskliga tillsynen är ett viktigt steg när du arbetar med innehåll som genereras från en GPT-modell. Stora språkmodeller som GPT är utbildade i stora mängder data. AI-genererat innehåll kan innehålla fel och avvikelser. En person bör granska den innan den publiceras online, skickas till en kund eller används för att informera ett affärsbeslut. Med hjälp av den mänskliga tillsynen kan vi inte bara identifiera potentiella fel och problem, utan även se till att innehållet är relevant för det avsedda användningsfallet och ligger i linje med företagets värden.

En mänsklig granskning kan också hjälpa dig att identifiera eventuella problem med själva GPT-modellen. Om modellen exempelvis genererar innehåll som inte är relevant för det avsedda användningsfallet kan du behöva justera prompten.

Ansvarsfull AI

Vi arbetar för att skapa ansvarstagande AI med design. Vårt arbete styrs av grundläggande principer: rättvisa, tillförlitlighet och skydd, integritet och säkerhet, inkludering, transparens och ansvarighet. Vi tillämpar dessa principer i hela företaget för att utveckla och distribuera AI som har en positiv inverkan på samhället. Vi använder en omfattande metod där vi kombinerar avancerad forskning, tekniker och ansvar. Vid sidan av OpenAI:s ledande forskning om AI-anpassning, utvecklar vi ett ramverk för säker implementering av vår egen AI-teknik som syftar till att hjälpa branschen mot mer ansvarsfulla resultat.

Läs mer om transparens i Azure OpenAI Service

Se även