Vad är Azure OpenAI-tjänsten?
Azure OpenAI Service ger REST API-åtkomst till OpenAI:s kraftfulla språkmodeller, inklusive modellserien o1-preview, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo with Vision, GPT-4, GPT-3.5-Turbo och Embeddings. Dessa modeller kan enkelt anpassas till din specifika uppgift, inklusive men inte begränsat till innehållsgenerering, sammanfattning, bildtolkning, semantisk sökning och naturligt språk för kodöversättning. Användare kan komma åt tjänsten via REST-API:er, Python SDK eller i Azure AI Studio.
Funktionsöversikt
Funktion | Azure OpenAI |
---|---|
Tillgängliga modeller | o1-preview & o1-mini - (Begränsad åtkomst - Begär åtkomst) GPT-4o & GPT-4o mini GPT-4-serien (inklusive GPT-4 Turbo med vision) GPT-3.5-Turbo-serien Inbäddningsserie Läs mer på sidan Modeller . |
Finjustering | GPT-4o-mini (förhandsversion) GPT-4 (förhandsversion) GPT-3.5-Turbo (0613) babbage-002 davinci-002 . |
Pris | Finns här Mer information om GPT-4 Turbo with Vision finns i den särskilda prisinformationen. |
Stöd för virtuellt nätverk och stöd för privata länkar | Ja. |
Hanterad identitet | Ja, via Microsoft Entra-ID |
Användargränssnittsupplevelse | Azure Portal för konto- och resurshantering, Azure AI Studio för modellutforskning och finjustering |
Modell regional tillgänglighet | Modelltillgänglighet |
Innehållsfiltrering | Frågor och slutföranden utvärderas mot vår innehållsprincip med automatiserade system. Innehåll med hög allvarlighetsgrad filtreras. |
Ansvarsfull AI
På Microsoft är vi engagerade i utvecklingen av AI som drivs av principer som sätter människor först. Generativa modeller som de som är tillgängliga i Azure OpenAI har betydande potentiella fördelar, men utan noggrann design och tankeväckande åtgärder kan sådana modeller generera felaktigt eller till och med skadligt innehåll. Microsoft har gjort betydande investeringar för att skydda mot missbruk och oavsiktlig skada, bland annat genom att införliva Microsofts principer för ansvarsfull AI-användning, anta en uppförandekod för användning av tjänsten, skapa innehållsfilter för att stödja kunder och tillhandahålla ansvarsfull AI-information och vägledning som kunderna bör överväga när de använder Azure OpenAI.
Kom igång med Azure OpenAI Service
För att komma igång med Azure OpenAI Service måste du skapa en Azure OpenAI Service-resurs i din Azure-prenumeration.
Börja med resursguiden Skapa och distribuera en Azure OpenAI-tjänst.
Du kan skapa en resurs via Azure Portal, Azure CLI eller Azure PowerShell.
När du har en Azure OpenAI Service-resurs kan du distribuera en modell som GPT-4o.
När du har en distribuerad modell kan du:
- Prova Azure AI Studio-lekplatserna för att utforska modellernas funktioner.
- Du kan också bara börja göra API-anrop till tjänsten med hjälp av REST API eller SDK:er.
Du kan till exempel prova ljud och assistenter i realtid på lekplatserna eller via kod.
Kommentar
Ett registreringsformulär för begränsad åtkomst krävs för att få åtkomst till vissa Azure OpenAI-tjänstmodeller eller -funktioner. Läs mer på sidan Begränsad åtkomst i Azure OpenAI.
Jämföra Azure OpenAI och OpenAI
Azure OpenAI Service ger kunderna avancerad språk-AI med OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper och text till talmodeller med säkerhet och företagslöfte för Azure. Azure OpenAI utvecklar API:erna tillsammans med OpenAI, vilket säkerställer kompatibilitet och en smidig övergång från en till en annan.
Med Azure OpenAI får kunderna säkerhetsfunktionerna i Microsoft Azure när de kör samma modeller som OpenAI. Azure OpenAI erbjuder privata nätverk, regional tillgänglighet och ansvarsfull AI-innehållsfiltrering.
Nyckelbegrepp
Frågor och slutföranden
Slutpunkten för slutföranden är kärnkomponenten i API-tjänsten. Det här API:et ger åtkomst till modellens text-in-, text-out-gränssnitt. Användarna behöver bara ange en indataprompt som innehåller det engelska textkommandot, och modellen genererar en textavslutning.
Här är ett exempel på en enkel fråga och slutförande:
Fråga:
""" count to 5 in a for loop """
Slutförande:
for i in range(1, 6): print(i)
Token
Texttoken
Azure OpenAI bearbetar text genom att dela upp den i token. Token kan vara hela ord eller teckensegment. Till exempel delas ordet "hamburgare" upp i tokens "skinka", "bur" och "ger", medan ett kort och vanligt ord som "päron" är en enda token. Många token börjar med ett tomt utrymme, till exempel "hello" och "bye".
Det totala antalet token som bearbetas i en viss begäran beror på längden på parametrarna för indata, utdata och begäran. Mängden token som bearbetas påverkar även svarsfördröjningen och dataflödet för modellerna.
Bildtoken
Azure OpenAI:s bildbearbetningsfunktioner med GPT-4o, GPT-4o mini och GPT-4 Turbo with Vision-modeller använder bildtokenisering för att fastställa det totala antalet token som förbrukas av bildindata. Antalet förbrukade token beräknas baserat på två huvudfaktorer: bildinformationsnivån (låg eller hög) och bildens dimensioner. Så här beräknas tokenkostnader:
- Lågupplösningsläge
- Med låg detaljnivå kan API:et returnera snabbare svar för scenarier som inte kräver analys av hög bildupplösning. De token som används för bilder med låg detaljnivå är:
- GPT-4o och GPT-4 Turbo med vision: Fast hastighet på 85 token per bild, oavsett storlek.
- GPT-4o mini: Fast hastighet på 2833 token per bild, oavsett storlek.
- Exempel: 4096 x 8192 bild (låg detaljnivå): Kostnaden är en fast 85 token med GPT-4o, eftersom det är en låg detaljbild, och storleken påverkar inte kostnaden i det här läget.
- Med låg detaljnivå kan API:et returnera snabbare svar för scenarier som inte kräver analys av hög bildupplösning. De token som används för bilder med låg detaljnivå är:
- Högupplösningsläge
- Med hög detaljnivå kan API:et analysera bilder mer detaljerat. Bildtoken beräknas baserat på bildens dimensioner. Beräkningen omfattar följande steg:
- Storleksändring av bild: Bilden ändras så att den får plats inom en kvadrat på 2 048 x 2 048 bildpunkter. Om den kortaste sidan är större än 768 bildpunkter ändras bilden ytterligare så att den kortaste sidan är 768 bildpunkter lång. Proportionerna bevaras under storleksändringen.
- Panelberäkning: När bilden har storleksändrats delas den in i paneler på 512 x 512 bildpunkter. Eventuella partiella paneler avrundas upp till en fullständig panel. Antalet paneler avgör den totala tokenkostnaden.
- Tokenberäkning:
- GPT-4o och GPT-4 Turbo med vision: Varje panel på 512 x 512 bildpunkter kostar 170 token. Ytterligare 85 bastoken läggs till i totalsumman.
- GPT-4o mini: Varje panel på 512 x 512 bildpunkter kostar 5 667 token. Ytterligare 2 833 bastoken läggs till i totalsumman.
- Exempel: 2048 x 4096 bild (hög detalj):
- Bilden ändras ursprungligen till 1 024 x 2 048 bildpunkter så att den får plats inom kvadraten 2 048 x 2 048 bildpunkter.
- Bilden ändras ytterligare till 768 x 1 536 bildpunkter för att säkerställa att den kortaste sidan är högst 768 bildpunkter lång.
- Bilden är uppdelad i 2 x 3 paneler, var och en 512 x 512 bildpunkter.
- Slutlig beräkning:
- För GPT-4o och GPT-4 Turbo with Vision är den totala tokenkostnaden 6 paneler x 170 token per panel + 85 bastoken = 1 105 tokens.
- För GPT-4o mini är den totala tokenkostnaden 6 paneler x 5 667 token per panel + 2833 bastoken = 36835 tokens.
- Med hög detaljnivå kan API:et analysera bilder mer detaljerat. Bildtoken beräknas baserat på bildens dimensioner. Beräkningen omfattar följande steg:
Resurser
Azure OpenAI är ett nytt produkterbjudande i Azure. Du kan komma igång med Azure OpenAI på samma sätt som andra Azure-produkter där du skapar en resurs eller instans av tjänsten i din Azure-prenumeration. Du kan läsa mer om Azures resurshanteringsdesign.
Distributioner
När du har skapat en Azure OpenAI-resurs måste du distribuera en modell innan du kan börja göra API-anrop och generera text. Den här åtgärden kan utföras med hjälp av API:er för distribution. Med dessa API:er kan du ange den modell som du vill använda.
Promptkonstruktion
Modellerna GPT-3, GPT-3.5 och GPT-4 från OpenAI är promptbaserade. Med promptbaserade modeller interagerar användaren med modellen genom att ange en textprompt, som modellen svarar på med en textkomplettering. Detta är modellens fortsättning på indatatexten.
Även om dessa modeller är kraftfulla är deras beteende också känsligt för uppmaningen. Detta gör prompt engineering till en viktig färdighet att utveckla.
Snabb konstruktion kan vara svårt. I praktiken fungerar uppmaningen för att konfigurera modellvikterna för att slutföra den önskade uppgiften, men det är mer av en konst än en vetenskap, som ofta kräver erfarenhet och intuition för att skapa en lyckad prompt.
Modeller
Tjänsten ger användarna åtkomst till flera olika modeller. Varje modell har olika funktioner och prispunkter.
DALL-E-modellerna (vissa i förhandsversion, se modeller) genererar bilder från textanvisningarna som användaren tillhandahåller.
Whisper-modellerna kan användas för att transkribera och översätta tal till text.
Text till tal-modeller, som för närvarande är i förhandsversion, kan användas för att syntetisera text till tal.
Läs mer om varje modell på konceptsidan för våra modeller.
Nästa steg
Läs mer om de underliggande modeller som driver Azure OpenAI.