Dela via


Foundry-modeller som säljs direkt av Azure

Anmärkning

Den här artikeln refererar till Microsoft Foundry-portalen (klassisk).

🔄 Växla till dokumentationen för Microsoft Foundry (ny) om du använder den nya portalen.

Anmärkning

Den här artikeln refererar till Microsoft Foundry-portalen (ny).

Den här artikeln visar ett urval av Microsoft Foundry-modeller som säljs direkt av Azure tillsammans med deras funktioner, distributionstyper och tillgänglighetsområden, exklusive inaktuella och äldre modeller. En lista över Azure OpenAI-modeller som stöds av Foundry Agent Service finns i Modeller som stöds av Agent Service.

Modeller som säljs direkt av Azure inkluderar alla Azure OpenAI-modeller och specifika, valda modeller från de främsta leverantörerna. Dessa modeller faktureras via din Azure-prenumeration, som omfattas av Azure-serviceavtal och stöds av Microsoft. Modeller som erbjuds av partners utanför den här listan finns i Foundry-modeller från partners och gemenskapen.

Använd flikarna överst på den här sidan för att växla mellan Azure OpenAI-modeller och andra modellsamlingar från leverantörer som Cohere, DeepSeek, Meta, Mistral AI och xAI.

Beroende på vilken typ av projekt du använder i Microsoft Foundry ser du ett annat urval av modeller. Mer specifikt, om du använder ett Foundry-projekt som bygger på en Foundry-resurs, ser du de modeller som är tillgängliga för standarddistribution till en Foundry-resurs. Om du använder ett hubbbaserat projekt som hanteras av en Foundry-hubb kan du också se modeller som är tillgängliga för distribution till hanterade beräknings- och serverlösa API:er. Dessa modellval överlappar ofta eftersom många modeller stöder flera distributionsalternativ.

Foundry-modeller är tillgängliga för standarddistribution till en Foundry-resurs.

Mer information om attribut för Foundry-modeller som säljs direkt av Azure finns i Utforska foundry-modeller.

Anmärkning

Foundry-modeller som säljs direkt av Azure innehåller även utvalda modeller från de främsta modellleverantörerna, till exempel:

  • Black Forest Labs: FLUX.2-pro, FLUX.1-Kontext-pro, FLUX-1.1-pro
  • Cohere: Cohere-command-a, embed-v-4-0, Cohere-rerank-v4.0-pro, Cohere-rerank-v4.0-fast
  • DeepSeek: DeepSeek-V3.2, DeepSeek-V3.2-Speciale, DeepSeek-V3.1, DeepSeek-V3-0324, , DeepSeek-R1-0528DeepSeek-R1
  • Moonshot AI: Kimi-K2.5, Kimi-K2-Thinking
  • Meta: Llama-4-Maverick-17B-128E-Instruct-FP8, Llama-3.3-70B-Instruct
  • Microsoft: MAI-DS-R1, model-router
  • Mistral: mistral-document-ai-2505, Mistral-Large-3
  • xAI: grok-code-fast-1, grok-3, grok-3-mini, grok-4-fast-reasoning, , grok-4-fast-non-reasoning, grok-4

Om du vill veta mer om dessa modeller växlar du till Andra modellsamlingar överst i den här artikeln.

Azure OpenAI i Microsoft Foundry-modeller

Azure OpenAI drivs av en mängd olika modeller med olika funktioner och prispunkter. Modelltillgängligheten varierar beroende på region och moln. Information om tillgänglighet för Azure Government-modeller finns i Azure OpenAI i Azure Government.

Models Description
GPT-5.2-serien NYgpt-5.2-codex, gpt-5.2, gpt-5.2-chat (förhandsversion)
GPT-5.1-serien NEWgpt-5.1, gpt-5.1-chat, gpt-5.1-codex, gpt-5.1-codex-mini
Sora NY sora-2
GPT-5-serien gpt-5, gpt-5-mini, gpt-5-nano, gpt-5-chat
gpt-oss resonemangsmodeller med öppna vikter
codex-mini Finjusterad version av o4-mini.
GPT-4.1-serien gpt-4.1, gpt-4.1-mini, gpt-4.1-nano
computer-use-preview En experimentell modell tränad för att användas med ett verktyg för svars-API:ets datoranvändning.
o-seriemodeller Resonemangsmodeller med avancerad problemlösning och ökad fokusering och kapacitet.
GPT-4o, GPT-4o mini och GPT-4 Turbo Kompatibla Azure OpenAI-modeller med multimodala versioner, som kan acceptera både text och bilder som indata.
Embeddings En uppsättning modeller som kan konvertera text till numerisk vektorform för att underlätta textlikhet.
Bildgenerering En serie modeller som kan generera ursprungliga bilder från naturligt språk.
Video generation En modell som kan generera ursprungliga videoscener från textinstruktioner.
Ljud En serie modeller för tal till text, översättning och text till tal. GPT-4o-ljudmodeller stödjer antingen konversationsinteraktioner med låg latens tal in, tal ut eller ljudgenerering.

GPT-5.2

Tillgänglighet i regionen

Model Region
gpt-5.2 Se modelltabelen.
gpt-5.2-chat Se modelltabelen.
gpt-5.2-codex Östra USA 2 och Centrala Sverige (Global Standard)

Åtkomst beviljas baserat på Microsofts berättigandekriterier. Kunder som tidigare har tillämpat och fått åtkomst till en modell med begränsad åtkomst behöver inte ansöka igen eftersom deras godkända prenumerationer automatiskt beviljas åtkomst vid modellversionen.

Modell-ID Description Kontextfönster Maximalt antal utdatatoken Träningsdata (upp till)
gpt-5.2-codex (2026-01-14) - Resonemang
– API för slutförande av chattar.
- Api för svar.
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner, verktyg och parallella verktygsanrop.
- Fullständig sammanfattning av funktioner.
– Optimerad för Codex CLI- och Codex VS Code-tillägg
400,000

Indata: 272 000
Utdata: 128 000
128,000
gpt-5.2 (2025-12-11) - Resonemang
– API för slutförande av chattar.
- Api för svar.
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner, verktyg och parallella verktygsanrop.
- Fullständig sammanfattning av funktioner.
400,000

Indata: 272 000
Utdata: 128 000
128,000 Augusti 2025
gpt-5.2-chat (2025-12-11)
Preview
– API för slutförande av chattar.
- Api för svar.
– Strukturerade utdata
– Funktioner, verktyg och parallella verktygsanrop.
128,000

Indata: 111 616
Utdata: 16 384
16,384 Augusti 2025

Försiktighet

Vi rekommenderar inte att du använder förhandsgranskningsmodeller i produktion. Vi uppgraderar alla distributioner av förhandsversioner till antingen framtida förhandsversioner eller till den senaste stabila, allmänt tillgängliga versionen. Modeller som är avsedda för förhandsversion följer inte standardlivscykeln för Azure OpenAI-modellen.

GPT-5.1

Tillgänglighet i regionen

Model Region
gpt-5.1 Se modelltabelen.
gpt-5.1-chat Se modelltabelen.
gpt-5.1-codex Se modelltabelen.
gpt-5.1-codex-mini Se modelltabelen.
gpt-5.1-codex-max Se modelltabelen.

Åtkomst beviljas baserat på Microsofts berättigandekriterier. Kunder som tidigare har tillämpat och fått åtkomst till en modell med begränsad åtkomst behöver inte ansöka igen eftersom deras godkända prenumerationer automatiskt beviljas åtkomst vid modellversionen.

Modell-ID Description Kontextfönster Maximalt antal utdatatoken Träningsdata (upp till)
gpt-5.1 (2025-11-13) - Resonemang
– API för slutförande av chattar.
- Api för svar.
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner, verktyg och parallella verktygsanrop.
- Fullständig sammanfattning av funktioner.
400,000

Indata: 272 000
Utdata: 128 000
128,000 den 30 september 2024
gpt-5.1-chat (2025-11-13)
Preview
- Resonemang
– API för slutförande av chattar.
- Api för svar.
– Strukturerade utdata
– Funktioner, verktyg och parallella verktygsanrop.
128,000

Indata: 111 616
Utdata: 16 384
16,384 den 30 september 2024
gpt-5.1-codex (2025-11-13) - Endast svars-API .
- Text- och bildbearbetning
– Strukturerade utdata.
– Funktioner, verktyg och parallella verktygsanrop.
- Fullständig sammanfattning av funktioner
– Optimerad för Codex CLI- och Codex VS Code-tillägg
400,000

Indata: 272 000
Utdata: 128 000
128,000 den 30 september 2024
gpt-5.1-codex-mini (2025-11-13) - Endast svars-API .
- Text- och bildbearbetning
– Strukturerade utdata.
– Funktioner, verktyg och parallella verktygsanrop.
- Fullständig sammanfattning av funktioner
– Optimerad för Codex CLI- och Codex VS Code-tillägg
400,000

Indata: 272 000
Utdata: 128 000
128,000 den 30 september 2024
gpt-5.1-codex-max (2025-12-04) - Endast svars-API .
- Text- och bildbearbetning
– Strukturerade utdata.
– Funktioner, verktyg och parallella verktygsanrop.
- Fullständig sammanfattning av funktioner
– Optimerad för Codex CLI- och Codex VS Code-tillägg
400,000

Indata: 272 000
Utdata: 128 000
128,000 den 30 september 2024

Försiktighet

Vi rekommenderar inte att du använder förhandsgranskningsmodeller i produktion. Vi uppgraderar alla distributioner av förhandsversioner till antingen framtida förhandsversioner eller till den senaste stabila, allmänt tillgängliga versionen. Modeller som är avsedda för förhandsversion följer inte standardlivscykeln för Azure OpenAI-modellen.

Viktigt!

  • gpt-5.1 reasoning_effort standardvärdet är none. När du uppgraderar från tidigare resonemangsmodeller till gpt-5.1bör du tänka på att du kan behöva uppdatera koden för att uttryckligen skicka en reasoning_effort nivå om du vill att resonemanget ska ske.

  • gpt-5.1-chat lägger till inbyggda resonemangsfunktioner. Precis som andra resonemangsmodeller stöder den inte parametrar som temperature. Om du uppgraderar från att använda gpt-5-chat (som inte är en resonemangsmodell) till gpt-5.1-chat, se till att du tar bort alla anpassade parametrar som temperature från din kod som inte stöds av resonemangsmodeller.

  • gpt-5.1-codex-max lägger till stöd för inställningen reasoning_effort till xhigh. Det går inte att none resonera med gpt-5.1-codex-max.

GPT-5

Tillgänglighet i regionen

Model Region
gpt-5 (2025-08-07) Se modelltabelen.
gpt-5-mini (2025-08-07) Se modelltabelen.
gpt-5-nano (2025-08-07) Se modelltabelen.
gpt-5-chat (2025-08-07) Se modelltabelen.
gpt-5-chat (2025-10-03) Se modelltabelen.
gpt-5-codex (2025-09-11) Se modelltabelen.
gpt-5-pro (2025-10-06) Se modelltabelen.

Åtkomst beviljas baserat på Microsofts berättigandekriterier. Kunder som tidigare har ansökt och fått åtkomst till o3 behöver inte ansöka på nytt eftersom deras godkända prenumerationer automatiskt beviljas åtkomst vid modellens lansering.

Modell-ID Description Kontextfönster Maximalt antal utdatatoken Träningsdata (upp till)
gpt-5 (2025-08-07) - Resonemang
– API för slutförande av chattar.
- Api för svar.
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner, verktyg och parallella verktygsanrop.
- Fullständig sammanfattning av funktioner.
400,000

Indata: 272 000
Utdata: 128 000
128,000 den 30 september 2024
gpt-5-mini (2025-08-07) - Resonemang
– API för slutförande av chattar.
- Api för svar.
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner, verktyg och parallella verktygsanrop.
- Fullständig sammanfattning av funktioner.
400,000

Indata: 272 000
Utdata: 128 000
128,000 31 maj 2024
gpt-5-nano (2025-08-07) - Resonemang
– API för slutförande av chattar.
- Api för svar.
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner, verktyg och parallella verktygsanrop.
- Fullständig sammanfattning av funktioner.
400,000

Indata: 272 000
Utdata: 128 000
128,000 31 maj 2024
gpt-5-chat (2025-08-07)
Preview
– API för slutförande av chattar.
- Api för svar.
- Indata: Text/bild
- Utdata: Endast text
128,000 16,384 den 30 september 2024
gpt-5-chat (2025-10-03)
Förhandsvisning1
– API för slutförande av chattar.
- Api för svar.
- Indata: Text/bild
- Utdata: Endast text
128,000 16,384 den 30 september 2024
gpt-5-codex (2025-09-11) - Endast svars-API .
- Indata: Text/bild
- Utdata: Endast text
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner, verktyg och parallella verktygsanrop.
- Fullständig sammanfattning av funktioner
– Optimerad för Codex CLI- och Codex VS Code-tillägg
400,000

Indata: 272 000
Utdata: 128 000
128,000 -
gpt-5-pro (2025-10-06) - Resonemang
- Api för svar.
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner och verktyg
- Fullständig sammanfattning av funktioner.
400,000

Indata: 272 000
Utdata: 128 000
128,000 den 30 september 2024

Anmärkning

1gpt-5-chat version 2025-10-03 introducerar en betydande förbättring med fokus på känslomässig intelligens och mental hälsa funktioner. Den här uppgraderingen integrerar specialiserade datamängder och förfinade svarsstrategier för att förbättra modellens förmåga att:

  • Förstå och tolka känslosammanhang mer exakt, vilket möjliggör nyanserade och empatiska interaktioner.
  • Ge stödjande och ansvarsfulla svar i konversationer som rör psykisk hälsa, vilket säkerställer känslighet och efterlevnad av bästa praxis.

Dessa förbättringar syftar till att göra GPT-5-chat mer sammanhangsmedvetna, människocentrerade och tillförlitliga i scenarier där känslomässiga ton- och välbefinnandeöverväganden är kritiska.

Försiktighet

Vi rekommenderar inte att du använder förhandsgranskningsmodeller i produktion. Vi uppgraderar alla distributioner av förhandsversioner till antingen framtida förhandsversioner eller till den senaste stabila, allmänt tillgängliga versionen. Modeller som är avsedda för förhandsversion följer inte standardlivscykeln för Azure OpenAI-modellen.

gpt-oss

Tillgänglighet i regionen

Model Region
gpt-oss-120b Alla Azure OpenAI-regioner

Capabilities

Modell-ID Description Kontextfönster Maximalt antal utdatatoken Träningsdata (upp till)
gpt-oss-120b (förhandsversion) – Endast textinmatning och textutmatning
– API för chattens slutförande
-Streaming
– Funktionsanrop
– Strukturerade utdata
-Resonemang
– Tillgänglig för distribution1 och via hanterad beräkning
131,072 131,072 31 maj 2024
gpt-oss-20b (förhandsversion) – Endast textinmatning och textutmatning
– API för chattens slutförande
-Streaming
– Funktionsanrop
– Strukturerade utdata
-Resonemang
– Tillgänglig via managed computing och Foundry Local
131,072 131,072 31 maj 2024

1 Till skillnad från andra Azure OpenAI-modeller gpt-oss-120b krävs ett Foundry-projekt för att distribuera modellen.

Distribuera med hjälp av kod

az cognitiveservices account deployment create \
  --name "Foundry-project-resource" \
  --resource-group "test-rg" \
  --deployment-name "gpt-oss-120b" \
  --model-name "gpt-oss-120b" \
  --model-version "1" \
  --model-format "OpenAI-OSS" \
  --sku-capacity 10 \
  --sku-name "GlobalStandard"

GPT-4.1-serien

Tillgänglighet i regionen

Model Region
gpt-4.1 (2025-04-14) Se modelltabelen.
gpt-4.1-nano (2025-04-14) Se modelltabelen.
gpt-4.1-mini (2025-04-14) Se modelltabelen.

Capabilities

Viktigt!

Ett känt problem påverkar alla GPT 4.1-seriemodeller. Stora verktygs- eller funktionsanropsdefinitioner som överskrider 300 000 token resulterar i fel, även om gränsen på 1 miljon tokenkontexter för modellerna inte uppnåddes.

Felen kan variera beroende på API-anrop och underliggande nyttolastegenskaper.

Här är felmeddelandena för API:et för chattens slutförande:

  • Error code: 400 - {'error': {'message': "This model's maximum context length is 300000 tokens. However, your messages resulted in 350564 tokens (100 in the messages, 350464 in the functions). Please reduce the length of the messages or functions.", 'type': 'invalid_request_error', 'param': 'messages', 'code': 'context_length_exceeded'}}

  • Error code: 400 - {'error': {'message': "Invalid 'tools[0].function.description': string too long. Expected a string with maximum length 1048576, but got a string with length 2778531 instead.", 'type': 'invalid_request_error', 'param': 'tools[0].function.description', 'code': 'string_above_max_length'}}

Här är felmeddelandet för svars-API:et:

  • Error code: 500 - {'error': {'message': 'The server had an error processing your request. Sorry about that! You can retry your request, or contact us through an Azure support request at: https://go.microsoft.com/fwlink/?linkid=2213926 if you keep seeing this error. (Please include the request ID d2008353-291d-428f-adc1-defb5d9fb109 in your email.)', 'type': 'server_error', 'param': None, 'code': None}}
Modell-ID Description Kontextfönster Maximalt antal utdatatoken Träningsdata (upp till)
gpt-4.1 (2025-04-14) – Text- och bildinmatning
– Textutgång
– API för chattens slutförande
– Svars-API
-Streaming
– Funktionsanrop
– Strukturerade utdata (chattavslut)
- 1,047,576
– 128 000 (standard- och etablerade hanterade distributioner)
– 300 000 (gruppvis distributioner)
32,768 31 maj 2024
gpt-4.1-nano (2025-04-14) – Text- och bildinmatning
– Textutgång
– API för chattens slutförande
– Svars-API
-Streaming
– Funktionsanrop
– Strukturerade utdata (chattavslut)
- 1,047,576
– 128 000 (standard- och etablerade hanterade distributioner)
– 300 000 (gruppvis distributioner)
32,768 31 maj 2024
gpt-4.1-mini (2025-04-14) – Text- och bildinmatning
– Textutgång
– API för chattens slutförande
– Svars-API
-Streaming
– Funktionsanrop
– Strukturerade utdata (chattavslut)
- 1,047,576
– 128 000 (standard- och etablerade hanterade distributioner)
– 300 000 (gruppvis distributioner)
32,768 31 maj 2024

computer-use-preview

En experimentell modell som tränats för användning med datorverktyget Responses API.

Den kan användas med bibliotek från tredje part så att modellen kan styra mus- och tangentbordsindata, samtidigt som kontext hämtas från skärmbilder av den aktuella miljön.

Försiktighet

Vi rekommenderar inte att du använder förhandsgranskningsmodeller i produktion. Vi uppgraderar alla distributioner av förhandsversioner till antingen framtida förhandsversioner eller till den senaste stabila, allmänt tillgängliga versionen. Modeller som är avsedda för förhandsversion följer inte standardlivscykeln för Azure OpenAI-modellen.

Registrering krävs för att få åtkomst till computer-use-preview. Åtkomst beviljas baserat på Microsofts berättigandekriterier. Kunder som har åtkomst till andra modeller med begränsad åtkomst behöver fortfarande begära åtkomst för den här modellen.

Om du vill begära åtkomst går du till ett program förcomputer-use-preview begränsad åtkomstmodell. När åtkomst beviljas måste du skapa en distribution för modellen.

Tillgänglighet i regionen

Model Region
computer-use-preview Se modelltabelen.

Capabilities

Modell-ID Description Kontextfönster Maximalt antal utdatatoken Träningsdata (upp till)
computer-use-preview (2025-03-11) Specialiserad modell för användning med Responses-API:t i datormiljö

-Arbetsredskap
-Direktuppspelning
– Text (indata/utdata)
– Bild (indata)
8,192 1,024 Oktober 2023

o-seriemodeller

Modellerna i Azure OpenAI o-serien är utformade för att hantera resonemang och problemlösningsuppgifter med ökat fokus och ökad kapacitet. Dessa modeller ägnar mer tid åt att bearbeta och förstå användarens begäran, vilket gör dem exceptionellt starka inom områden som vetenskap, kodning och matematik, jämfört med tidigare iterationer.

Modell-ID Description Maximalt antal förfrågningar (token) Träningsdata (upp till)
codex-mini (2025-05-16) Finjusterad version av o4-mini.
- Api för svar.
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner och verktyg.
Fullständig sammanfattning av funktioner.
Input: 200 000
Utdata: 100 000
31 maj 2024
o3-pro (2025-06-10) - Api för svar.
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner och verktyg.
Fullständig sammanfattning av funktioner.
Input: 200 000
Utdata: 100 000
31 maj 2024
o4-mini (2025-04-16) - Ny resonemangsmodell som ger förbättrade resonemangsförutständanden.
– API för slutförande av chattar.
- Api för svar.
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner och verktyg.
Fullständig sammanfattning av funktioner.
Input: 200 000
Utdata: 100 000
31 maj 2024
o3 (2025-04-16) - Ny resonemangsmodell som ger förbättrade resonemangsförutständanden.
– API för slutförande av chattar.
- Api för svar.
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner, verktyg och parallella verktygsanrop.
Fullständig sammanfattning av funktioner.
Input: 200 000
Utdata: 100 000
31 maj 2024
o3-mini (2025-01-31) - Förbättrade resonemangsförmåga.
– Strukturerade utdata.
- Bearbetning endast av text.
– Funktioner och verktyg.
Input: 200 000
Utdata: 100 000
Oktober 2023
o1 (2024-12-17) - Förbättrade resonemangsförmåga.
– Strukturerade utdata.
– Text- och bildbearbetning.
– Funktioner och verktyg.
Input: 200 000
Utdata: 100 000
Oktober 2023
o1-preview (2024-09-12) Äldre förhandsversion. Indata: 128.000
Utdata: 32 768
Oktober 2023
o1-mini (2024-09-12) Ett snabbare och mer kostnadseffektivt alternativ i o1-serien, perfekt för kodning av uppgifter som kräver hastighet och lägre resursförbrukning.
– Global Standard-distribution är tillgänglig som standard.
– Standarddistributioner (regionala) är för närvarande endast tillgängliga för utvalda kunder som fick åtkomst som en del av den o1-preview begränsade åtkomstversionen.
Indata: 128.000
Utdata: 65 536
Oktober 2023

Mer information om avancerade modeller i o-serien finns i Komma igång med resonemangsmodeller.

Tillgänglighet i regionen

Model Region
codex-mini Östra USA 2 och Centrala Sverige (Global Standard).
o3-pro Östra USA 2 och Centrala Sverige (Global Standard).
o4-mini Se modelltabelen.
o3 Se modelltabelen.
o3-mini Se modelltabelen.
o1 Se modelltabelen.
o1-preview Se modelltabelen. Den här modellen är endast tillgänglig för kunder som har beviljats åtkomst som en del av den ursprungliga begränsade åtkomsten.
o1-mini Se modelltabelen.

GPT-4o och GPT-4 Turbo

GPT-4o integrerar text och bilder i en enda modell, vilket gör att den kan hantera flera datatyper samtidigt. Den här multimodala metoden förbättrar noggrannheten och svarstiden i interaktioner mellan människa och dator. GPT-4o matchar GPT-4 Turbo i engelsk text och kodningsuppgifter samtidigt som det ger överlägsen prestanda i icke-engelskspråkiga uppgifter och visionsuppgifter, vilket sätter nya riktmärken för AI-funktioner.

GPT-4- och GPT-4 Turbo-modeller

Dessa modeller kan endast användas med API:et för chattslutsättningar.

Mer information om hur Azure OpenAI hanterar modellversionsuppgraderingar finns i Modellversioner . Se Arbeta med modeller för att lära dig hur du visar och konfigurerar modellversionsinställningarna för dina GPT-4-distributioner.

Modell-ID Description Maximalt antal förfrågningar (token) Träningsdata (upp till)
gpt-4o (2024-11-20)
GPT-4o (Omni)
– Strukturerade utdata.
– Text- och bildbearbetning.
– JSON-läge.
– Parallell funktionsanrop.
- Förbättrad noggrannhet och svarstider.
- Jämförelse av paritet mellan engelsk text och kodningsuppgifter jämfört med GPT-4 Turbo med Vision.
- Överlägsen prestanda i icke-engelska språk och i visionsuppgifter.
- Förbättrad förmåga till kreativt skrivande.
Indata: 128.000
Utdata: 16 384
Oktober 2023
gpt-4o (2024-08-06)
GPT-4o (Omni)
– Strukturerade utdata.
– Text- och bildbearbetning.
– JSON-läge.
– Parallell funktionsanrop.
- Förbättrad noggrannhet och svarstider.
- Jämförelse av paritet mellan engelsk text och kodningsuppgifter jämfört med GPT-4 Turbo med Vision.
- Överlägsen prestanda i icke-engelska språk och i visionsuppgifter.
Indata: 128.000
Utdata: 16 384
Oktober 2023
gpt-4o-mini (2024-07-18)
GPT-4o mini
- Snabb, billig, kapabel modell perfekt för att ersätta GPT-3.5 Turbo-serien modeller.
– Text- och bildbearbetning.
– JSON-läge.
– Parallell funktionsanrop.
Indata: 128.000
Utdata: 16 384
Oktober 2023
gpt-4o (2024-05-13)
GPT-4o (Omni)
– Text- och bildbearbetning.
– JSON-läge.
– Parallell funktionsanrop.
- Förbättrad noggrannhet och svarstider.
- Jämförelse av paritet mellan engelsk text och kodningsuppgifter jämfört med GPT-4 Turbo med Vision.
- Överlägsen prestanda i icke-engelska språk och i visionsuppgifter.
Indata: 128.000
Utdata: 4 096
Oktober 2023
gpt-4 (turbo-2024-04-09)
GPT-4 Turbo med syn
Ny allmänt tillgänglig modell.
– Ersättning för alla tidigare GPT-4-förhandsversionsmodeller (vision-preview, 1106-Preview, 0125-Preview).
- Funktionstillgängligheten skiljer sig för närvarande beroende på indatametoden och distributionstypen.
Indata: 128.000
Utdata: 4 096
December 2023

Försiktighet

Vi rekommenderar inte att du använder förhandsversionsmodeller i produktion. Vi uppgraderar alla distributioner av förhandsversioner till antingen framtida förhandsversioner eller till den senaste stabila, allmänt tillgängliga versionen. Modeller som är avsedda för förhandsversion följer inte standardlivscykeln för Azure OpenAI-modellen.

Inbäddningar

text-embedding-3-large är den senaste och mest kompatibla inbäddningsmodellen. Du kan inte uppgradera mellan inbäddningsmodeller. Om du vill gå från att använda text-embedding-ada-002 till text-embedding-3-largemåste du generera nya inbäddningar.

  • text-embedding-3-large
  • text-embedding-3-small
  • text-embedding-ada-002

OpenAI rapporterar att testning visar att både den stora och den lilla tredje generationens inbäddningsmodeller ger bättre genomsnittlig prestanda för flerspråkshämtning med MIRACL-riktmärket . De upprätthåller fortfarande prestanda för engelska uppgifter med MTEB-benchmark.

Utvärderingsmått text-embedding-ada-002 text-embedding-3-small text-embedding-3-large
MIRACL-genomsnitt 31.4 44.0 54.9
MTEB-genomsnitt 61.0 62.3 64.6

Den tredje generationens inbäddningsmodeller har stöd för att minska storleken på inbäddningen via en ny dimensions parameter. Vanligtvis är större inbäddningar dyrare ur ett beräknings-, minnes- och lagringsperspektiv. När du kan justera antalet dimensioner får du mer kontroll över den totala kostnaden och prestandan. Parametern dimensions stöds inte i alla versioner av Python-biblioteket OpenAI 1.x. För att dra nytta av den här parametern rekommenderar vi att du uppgraderar till den senaste versionen: pip install openai --upgrade.

OpenAI:s MTEB-benchmarktestning visade att även när den tredje generationens modells dimensioner reduceras till mindre än de 1 536 dimensionerna av text-embeddings-ada-002, är prestandan fortfarande något bättre.

Modeller för bildgenerering

Bildgenereringsmodellerna genererar bilder från textanvisningarna som användaren tillhandahåller. GPT-image-1-seriens modeller är i begränsad åtkomstförhandsvisning. DALL-E 3 är allmänt tillgängligt för användning med REST-API:er. DALL-E 2 och DALL-E 3 med klient-SDK:er finns i förhandsversion.

Registrering krävs för att få åtkomst till gpt-image-1, gpt-image-1-mini eller gpt-image-1.5. Åtkomst beviljas baserat på Microsofts berättigandekriterier. Kunder som har åtkomst till andra modeller med begränsad åtkomst behöver fortfarande begära åtkomst för den här modellen.

Om du vill begära åtkomst fyller du i ett programformulär: Ansök om GPT-image-1-åtkomst; Ansök om GPT-image-1.5-åtkomst. När åtkomst beviljas måste du skapa en distribution för modellen.

Tillgänglighet i regionen

Model Region
dall-e-3 East US
Australia East
Centrala Sverige
gpt-image-1 Väst-USA 3 (Global Standard)
Östra USA 2 (global standard)
UAE Nord (Global Standard)
Centralpolen (global standard)
Sweden Central (Global Standard)
gpt-image-1-mini Väst-USA 3 (Global Standard)
Östra USA 2 (global standard)
UAE Nord (Global Standard)
Centralpolen (global standard)
Sweden Central (Global Standard)
gpt-image-1.5 Väst-USA 3 (Global Standard)
Östra USA 2 (global standard)
UAE Nord (Global Standard)
Centralpolen (global standard)
Sweden Central (Global Standard)

Modeller för videogenerering

Sora är en AI-modell från OpenAI som kan skapa realistiska och fantasifulla videoscener från textinstruktioner. Sora är i förhandsversion.

Tillgänglighet i regionen

Model Region
sora Östra USA 2 (global standard)
Sweden Central (Global Standard)
sora-2 Östra USA 2 (global standard)
Sweden Central (Global Standard)

Ljudmodeller

Ljudmodeller i Azure OpenAI är tillgängliga via API:erna realtime, completionsoch audio .

GPT-4o-ljudmodeller

GPT-4o-ljudmodellerna är en del av GPT-4o-modellfamiljen och stöder antingen låg-latens, tal-in, tal-ut konversation eller ljudgenerering.

Försiktighet

Vi rekommenderar inte att du använder förhandsgranskningsmodeller i produktion. Vi uppgraderar alla distributioner av förhandsversioner till antingen framtida förhandsversioner eller till den senaste stabila, allmänt tillgängliga versionen. Modeller som är avsedda för förhandsversion följer inte standardlivscykeln för Azure OpenAI-modellen.

Information om maximala begärandetoken och träningsdata finns i följande tabell:

Modell-ID Description Maximalt antal förfrågningar (token) Träningsdata (upp till)
gpt-4o-mini-audio-preview (2024-12-17)
GPT-4o ljud
Ljudmodell för ljud- och textgenerering. Indata: 128.000
Utdata: 16 384
September 2023
gpt-4o-audio-preview (2024-12-17)
GPT-4o ljud
Ljudmodell för ljud- och textgenerering. Indata: 128.000
Utdata: 16 384
September 2023
gpt-4o-realtime-preview (2025-06-03)
GPT-4o ljud
Ljudmodell för ljudbearbetning i realtid. Indata: 128.000
Utdata: 4 096
Oktober 2023
gpt-4o-realtime-preview (2024-12-17)
GPT-4o ljud
Ljudmodell för ljudbearbetning i realtid. Indata: 128.000
Utdata: 4 096
Oktober 2023
gpt-4o-mini-realtime-preview (2024-12-17)
GPT-4o ljud
Ljudmodell för ljudbearbetning i realtid. Indata: 128.000
Utdata: 4 096
Oktober 2023
gpt-realtime (2025-08-28) (GA)
gpt-realtime-mini (2025-10-06)
gpt-realtime-mini-2025-12-15 (2025-12-15)
gpt-audio(2025-08-28)
gpt-audio-mini(2025-10-06)
Ljudmodell för ljudbearbetning i realtid. Indata: 28 672
Utdata: 4 096
Oktober 2023

För att jämföra tillgängligheten av GPT-4o-ljudmodeller i alla regioner kan du referera till modelltabellen.

Ljud-API

Ljudmodellerna via API:et /audio kan användas för tal till text, översättning och text till tal.

Tal till text-modeller

Modell-ID Description Maxbegäran (ljudfilstorlek)
whisper Taligenkänningsmodell för generell användning. 25 MB
gpt-4o-transcribe Tal till text-modell som drivs av GPT-4o. 25 MB
gpt-4o-mini-transcribe Tal till text-modell som drivs av GPT-4o mini. 25 MB
gpt-4o-transcribe-diarize Tal till text-modell med automatisk taligenkänning. 25 MB
gpt-4o-mini-transcribe-2025-12-15 Tal till text-modell med automatisk taligenkänning. Förbättrad transkriptionsnoggrannhet och robusthet. 25 MB

Talöversättningsmodeller

Modell-ID Description Maxbegäran (ljudfilstorlek)
whisper Taligenkänningsmodell för generell användning. 25 MB

Text-till-tal-modeller (förhandsversion)

Modell-ID Description
tts Text-till-tal-modell optimerad för hastighet.
tts-hd Text-till-tal-modell optimerad för kvalitet.
gpt-4o-mini-tts Text-till-tal-modell som drivs av GPT-4o mini.

Du kan vägleda rösten att tala i en viss stil eller ton.
gpt-4o-mini-tts-2025-12-15 Text-till-tal-modell som drivs av GPT-4o mini.

Du kan vägleda rösten att tala i en viss stil eller ton.

Modellsammanfattningstabell och regionstillgänglighet

Modeller efter distributionstyp

Azure OpenAI ger kunderna val av värdstruktur som passar deras affärs- och användningsmönster. Tjänsten erbjuder två huvudsakliga typer av distribution:

  • Standard: Har ett globalt distributionsalternativ som dirigerar trafik globalt för att ge högre dataflöde.
  • Etablerad: Har också ett globalt distributionsalternativ som gör det möjligt för kunder att köpa och distribuera etablerade dataflödesenheter i azures globala infrastruktur.

Alla distributioner kan utföra exakt samma inferensoperationer, men fakturering, skalning och prestanda skiljer sig markant. Mer information om Distributionstyper för Azure OpenAI finns i guiden Distributionstyper.

Global Standard-modelltillgänglighet

Region gpt-5.2-codex, 2026-01-14 gpt-5.2, 2025-12-11 gpt-5.2-chat, 2025-12-11 gpt-5.1-codex-max, 2025-12-04 gpt-5.1, 2025-11-13 gpt-5.1-chat, 2025-11-13 gpt-5.1-codex, 2025-11-13 gpt-5.1-codex-mini, 2025-11-13 gpt-5-pro, 2025-10-06 gpt-5-codex, 2025-09-15 gpt-5, 2025-08-07 gpt-5-mini, 2025-08-07 gpt-5-nano, 2025-08-07 gpt-5-chat, 2025-08-07 gpt-5-chat, 2025-10-03 o3-pro, 2025-06-10 codex-mini, 2025-05-16 sora, 2025-05-02 model-router, 2025-08-07 model-router, 2025-05-19 model-router, 2025-11-18 o3, 2025-04-16 o4-mini, 2025-04-16 gpt-image-1, 2025-04-15 gpt-4.1, 2025-04-14 gpt-4.1-nano, 2025-04-14 gpt-4.1-mini, 2025-04-14 förhandsgranskning av datoranvändning, 2025-03-11 o3-mini, 2025-01-31 o1, 2024-12-17 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o, 2024-11-20 gpt-4o-mini, 2024-07-18 text-embedding-3-small, 1 text-embedding-3-large, 1 text-embedding-ada-002, 2 gpt-4o-realtime-preview, 2024-12-17 gpt-4o-audio-preview, 2024-12-17 gpt-4o-mini-realtime-preview, 2024-12-17 gpt-4o-mini-audio-preview, 2024-12-17 gpt-4o-transcribe, 2025-03-20 gpt-4o-mini-tts, 2025-12-15 gpt-4o-mini-tts, 2025-03-20 gpt-4o-mini-transcribe, 2025-12-15 gpt-4o-mini-transcribe, 2025-03-20 gpt-image-1-mini, 2025-10-06 gpt-audio-mini, 2025-10-06 gpt-audio-mini, 2025-12-15 gpt-image-1.5, 2025-12-16 sora-2, 2025-10-06 gpt-realtime-mini, 2025-10-06 gpt-realtime-mini, 2025-12-15 o3-deep-research, 2025-06-26 gpt-realtime, 2025-08-28 gpt-audio, 2025-08-28 gpt-4o-transcribe-diarize, 2025-10-15
Australia East - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Brasilien Södra - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Kanadacentrala - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Kanada Öst - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
centralus - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
eastus - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
eastus2 -
francecentral - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Tyskland Västra Centrala - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Norra Italien - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Japan Öst - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
koreacentral - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
northcentralus - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Norge öst - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
polencentral - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Sydafrika Nord - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
southcentralus - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
southeastasia - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Södra Indien - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
spaincentral - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
swedencentral - - - -
norra Schweiz - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
switzerlandwest - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
uaenorth - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
uksouth - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
westeurope - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
westus - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
westus3 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

Anmärkning

o3-deep-research är för närvarande endast tillgängligt med Foundry Agent Service. Mer information finns i vägledningen för djupforskningsverktyget.

Den här tabellen innehåller inte detaljerad information om regional tillgänglighet. Mer information finns i avsnittet om finjustering.

Inbäddningsmodeller

Dessa modeller kan endast användas med API-begäranden för inbäddning.

Anmärkning

text-embedding-3-large är den senaste och mest kompatibla inbäddningsmodellen. Du kan inte uppgradera mellan inbäddningsmodeller. Om du vill migrera från att använda text-embedding-ada-002 till text-embedding-3-largemåste du generera nya inbäddningar.

Modell-ID Maximalt antal förfrågningar (token) Utdatadimensioner Träningsdata (upp till)
text-embedding-ada-002 (utgåva 2) 8,192 1,536 Sep 2021
text-embedding-ada-002 (version 1) 2,046 1,536 Sep 2021
text-embedding-3-large 8,192 3,072 Sep 2021
text-embedding-3-small 8,192 1,536 Sep 2021

Anmärkning

När du skickar en matris med indata för inbäddning är det maximala antalet indataobjekt i matrisen per anrop till inbäddningsslutpunkten 2 048.

Modeller för bildgenerering

Modell-ID Maximal begäran (tecken)
gpt-image-1 4,000
gpt-image-1-mini 4,000
gpt-image-1.5 4,000
dall-e-3 4,000

Modeller för videogenerering

Modell-ID Maximalt antal tecken
sora 4,000

Finjusteringsmodeller

Anmärkning

De regioner som stöds för finjustering kan variera om du använder Azure OpenAI-modeller i ett Microsoft Foundry-projekt jämfört med utanför ett projekt.

Modell-ID Standardregioner Global Developer Maximalt antal förfrågningar (token) Träningsdata (upp till) Modality
gpt-4o-mini
(2024-07-18)
USA, norra centrala
Centrala Sverige
Indata: 128.000
Utdata: 16 384
Kontextlängd för träningsexempel: 65 536
Okt 2023 Text till text
gpt-4o
(2024-08-06)
Östra USA 2
USA, norra centrala
Centrala Sverige
Indata: 128.000
Utdata: 16 384
Kontextlängd för träningsexempel: 65 536
Okt 2023 Text och bild till text
gpt-4.1
(2025-04-14)
USA, norra centrala
Centrala Sverige
Indata: 128.000
Utdata: 16 384
Kontextlängd för träningsexempel: 65 536
Maj 2024 Text och bild till text
gpt-4.1-mini
(2025-04-14)
USA, norra centrala
Centrala Sverige
Indata: 128.000
Utdata: 16 384
Kontextlängd för träningsexempel: 65 536
Maj 2024 Text till text
gpt-4.1-nano (2025-04-14) USA, norra centrala
Centrala Sverige
Indata: 128.000
Utdata: 16 384
Kontextlängd för träningsexempel: 32 768
Maj 2024 Text till text
o4-mini
(2025-04-16)
Östra USA 2
Centrala Sverige
Indata: 128.000
Utdata: 16 384
Kontextlängd för träningsexempel: 65 536
Maj 2024 Text till text
Ministral-3B (förhandsversion)
(2411)
Stöds inte Indata: 128.000
Utdata: Okänd
Kontextlängd för träningsexempel: Okänd
Okänd Text till text
Qwen-32B (förhandsversion) Stöds inte Indata: 8 000
Utdata: 32 000
Kontextlängd för träningsexempel: 8192
Juli 2024 Text till text

Anmärkning

Global utbildning ger mer prisvärd utbildning per token, men erbjuder inte datahemvist. Den är för närvarande tillgänglig för Foundry-resurser i följande regioner:

  • Australia East
  • Syd-Brasilien
  • Canada Central
  • Canada East
  • East US
  • Östra USA 2
  • Frankrike Centrala
  • Tyskland Västcentrala
  • Italy North
  • Japan, östra (inget visionsstöd)
  • Korea Central
  • Norra centrala USA
  • Norway East
  • Poland Central (inget stöd för 4.1 nano)
  • Sydostasien
  • Sydafrika Nord
  • Södra Centrala USA
  • South India
  • Spain Central
  • Centrala Sverige
  • Switzerland West
  • Switzerland North
  • UK South
  • West Europe
  • West US
  • Västra USA 3

Assistenter (förhandsversion)

För assistenter behöver du en kombination av en modell som stöds och en region som stöds. Vissa verktyg och funktioner kräver de senaste modellerna. Följande modeller är tillgängliga i Assistants API, SDK och Foundry. Följande tabell är avsedd för standarddistribution. Information om tillgänglighet för etablerade dataflödesenheter finns i Etablerat dataflöde. De listade modellerna och regionerna kan användas med både Assistenter v1 och v2. Du kan använda Globala standardmodeller om de stöds i följande regioner.

Region gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4, 0613 gpt-4, 1106-Förhandsvisning gpt-4, 0125-Förhandsvisning gpt-4, turbo-2024-04-09 gpt-4-32k, 0613 gpt-35-turbo, 0613 gpt-35-turbo, 1106 gpt-35-turbo, 0125 gpt-35-turbo-16k, 0613
Australia East - - - - -
eastus - - - -
eastus2 - - - -
francecentral - - - - - -
Japan Öst - - - - - - - - -
Norge öst - - - - - - - - - - -
Södra Indien - - - - - - - - -
swedencentral - -
uksouth - - - - - -
westus - - - - -
westus3 - - - - - -

Modellpensionering

Den senaste informationen om modellpensioneringar finns i modellpensioneringsguiden.

Anmärkning

Foundry-modeller som säljs direkt av Azure innehåller även alla Azure OpenAI-modeller. Om du vill veta mer om dessa modeller växlar du till samlingen Azure OpenAI-modeller överst i den här artikeln.

Black Forest Labs-modeller som säljs direkt av Azure

Samlingen Black Forest Labs (BFL) av bildgenereringsmodeller innehåller FLUX.2 [pro] för bildgenerering och redigering genom både text- och bildprompter, FLUX.1 Kontext [pro] för generering och redigering i kontext och FLUX1.1 [pro] för text-till-bild-generering.

Du kan köra dessa modeller via BFL-tjänstprovider-API:et och via slutpunkterna images/generations och images/edits.

Anmärkning

Se GitHub-exemplet för bildgenerering med FLUX-modeller i Microsoft Foundry och dess tillhörande notebook-fil som visar hur du skapar högkvalitativa bilder från textfrågor.

Model Skriv & API-slutpunkt Capabilities Distributionstyp (regiontillgänglighet) Projekttyp
FLUX.2-pro Bildgenerering
- API för BFL-tjänstprovider: <resource-name>/providers/blackforestlabs/v1/flux-2-pro
- Indata: text och bild (32 000 token och upp till 8 bilderi)
- Utdata: En bild
- Verktygsanrop: Nej
- Svarsformat: Bild (PNG och JPG)
- Viktiga funktioner: Stöd för flera referenser för upp till 8 bilderii; mer grundad i verklig kunskap; större flexibilitet för utdata. förbättrad prestanda
- Ytterligare parametrar:(Endast i providerspecifikt API) Stöder alla parametrar.
– Global standard (alla regioner) Foundry, Hub-baserad
FLUX.1-Kontext-pro Bildgenerering
- Bild-API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations
och
https://<resource-name>/openai/deployments/{deployment-id}/images/edits

- API för BFL-tjänstprovider: <resource-name>/providers/blackforestlabs/v1/flux-kontext-pro?api-version=preview
- Indata: text och bild (5 000 token och 1 bild)
- Utdata: En bild
- Verktygsanrop: Nej
- Svarsformat: Bild (PNG och JPG)
- Viktiga funktioner: Teckenkonsekvens, avancerad redigering
- Ytterligare parametrar:(Endast i providerspecifikt API)seed, aspect ratio, input_image, prompt_unsampling, , safety_toleranceoutput_format
– Global standard (alla regioner) Foundry, Hub-baserad
FLUX-1.1-pro Bildgenerering
- Bild-API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations

- API för BFL-tjänstprovider: <resource-name>/providers/blackforestlabs/v1/flux-pro-1.1?api-version=preview
- Indata: text (5 000 token och 1 bild)
- Utdata: En bild
- Verktygsanrop: Nej
- Svarsformat: Bild (PNG och JPG)
- Viktiga funktioner: Snabb slutsatsdragningshastighet, stark snabb efterlevnad, konkurrenskraftig prissättning, skalbar generering
- Ytterligare parametrar:(Endast i providerspecifikt API)width, height, prompt_unsampling, seed, , safety_toleranceoutput_format
– Global standard (alla regioner) Foundry, Hub-baserad
Model Skriv & API-slutpunkt Capabilities Distributionstyp (regiontillgänglighet)
FLUX.2-pro Bildgenerering
- API för BFL-tjänstprovider: <resource-name>/providers/blackforestlabs/v1/flux-2-pro
- Indata: text och bild (32 000 token och upp till 8 bilderi)
- Utdata: En bild
- Verktygsanrop: Nej
- Svarsformat: Bild (PNG och JPG)
- Viktiga funktioner: Stöd för flera referenser för upp till 8 bilderii; mer grundad i verklig kunskap; större flexibilitet för utdata. förbättrad prestanda
- Ytterligare parametrar:(Endast i providerspecifikt API) Stöder alla parametrar.
– Global standard (alla regioner)
FLUX.1-Kontext-pro Bildgenerering
- Bild-API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations
och
https://<resource-name>/openai/deployments/{deployment-id}/images/edits

- API för BFL-tjänstprovider: <resource-name>/providers/blackforestlabs/v1/flux-kontext-pro?api-version=preview
- Indata: text och bild (5 000 token och 1 bild)
- Utdata: En bild
- Verktygsanrop: Nej
- Svarsformat: Bild (PNG och JPG)
- Viktiga funktioner: Teckenkonsekvens, avancerad redigering
- Ytterligare parametrar:(Endast i providerspecifikt API)seed, aspect ratio, input_image, prompt_unsampling, , safety_toleranceoutput_format
– Global standard (alla regioner)
FLUX-1.1-pro Bildgenerering
- Bild-API: https://<resource-name>/openai/deployments/{deployment-id}/images/generations

- API för BFL-tjänstprovider: <resource-name>/providers/blackforestlabs/v1/flux-pro-1.1?api-version=preview
- Indata: text (5 000 token och 1 bild)
- Utdata: En bild
- Verktygsanrop: Nej
- Svarsformat: Bild (PNG och JPG)
- Viktiga funktioner: Snabb slutsatsdragningshastighet, stark snabb efterlevnad, konkurrenskraftig prissättning, skalbar generering
- Ytterligare parametrar:(Endast i providerspecifikt API)width, height, prompt_unsampling, seed, , safety_toleranceoutput_format
– Global standard (alla regioner)

i,ii Stöd för flera referensbilder (upp till åtta) är tillgängligt för FLUX.2[pro] med hjälp av API:et, men inte på lekplatsen. Se följande kodexempel för FLUX.2[pro].

Kodexempel för FLUX.2[pro]

Bildgenerering

  • Indata: Text
  • Utdata: En bild
curl -X POST https://<your-resource-name>.api.cognitive.microsoft.com/providers/blackforestlabs/v1/flux-2-pro?api-version=preview \ 
  -H "Content-Type: application/json" \ 
  -H "Authorization: Bearer {API_KEY}" \ 
  -d '{ 
      "model": "FLUX.2-pro", 
      "prompt": "A photograph of a red fox in an autumn forest", 
      "width": 1024, 
      "height": 1024, 
      "seed": 42, 
      "safety_tolerance": 2, 
      "output_format": "jpeg" 
    }' 

Bildredigering

  • Indata: Upp till åtta bit-64-kodade bilder
  • Utdata: En bild
curl -X POST https://<your-resource-name>.api.cognitive.microsoft.com/providers/blackforestlabs/v1/flux-2-pro?api-version=preview \
  -H "Content-Type: application/json" \ 
  -H "Authorization: Bearer {API_KEY}" \ 
  -d '{ 
      "model": "FLUX.2-pro", 
      "prompt": "Apply a cinematic, moody lighting effect to all photos. Make them look like scenes from a sci-fi noir film", 
      "output_format": "jpeg", 
      "input_image" : "/9j/4AAQSkZJRgABAQAAAQABAAD/2wBDA.......", 
      "input_image_2" : "iVBORw0KGgoAAAANSUhEUgAABAAAAAQACAIAAADwf........" 
    }' 

Se den här modellsamlingen i Microsoft Foundry-portalen.

Cohere-modeller som säljs direkt av Azure

Cohere-serien med modeller innehåller olika modeller som är optimerade för olika användningsfall, inklusive chattavslut, omklassificering/textklassificering och inbäddningar. Sammanhållna modeller är optimerade för olika användningsfall som inkluderar resonemang, sammanfattning och frågesvar.

Model Typ Capabilities Distributionstyp (regiontillgänglighet) Projekttyp
Cohere-rerank-v4.0-pro textklassificering (ändra rangordning) - Indata: text
- Resultat: text
- Språk:en, fr, es, it, de, pt-br, ja, zh-cn, ar, vi, hi, ru, , idoch nl
- Verktygsanrop: Nej
- Svarsformat: JSON
– Global standard (alla regioner)
- Hanterad beräkning
Foundry, Hub-baserad
Cohere-rerank-v4.0-fast textklassificering (ändra rangordning) - Indata: text
- Resultat: text
- Språk:en, fr, es, it, de, pt-br, ja, zh-cn, ar, vi, hi, ru, , idoch nl
- Verktygsanrop: Nej
- Svarsformat: JSON
– Global standard (alla regioner)
- Hanterad beräkning
Foundry, Hub-baserad
Cohere-command-a chat-completion - Indata: text (131 072 tokens)
- Utdata: text (8 182 tokens)
- Språk:en, fr, es, it, de, pt-br, ja, ko, , zh-cnoch ar
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
– Global standard (alla regioner) Foundry, Hub-baserad
embed-v-4-0 embeddings - Indata: text (512 token) och bilder (2MM bildpunkter)
- Utdata: Vektor (256, 512, 1024, 1536 dim.)
- Språk:en, fr, es, it, de, pt-br, ja, ko, , zh-cnoch ar
– Global standard (alla regioner) Foundry, Hub-baserad
Model Typ Capabilities Distributionstyp (regiontillgänglighet)
Cohere-rerank-v4.0-pro textklassificering (ändra rangordning) - Indata: text
- Resultat: text
- Språk:en, fr, es, it, de, pt-br, ja, zh-cn, ar, vi, hi, ru, , idoch nl
- Verktygsanrop: Nej
- Svarsformat: JSON
– Global standard (alla regioner)
– Hanterad beräkning
Cohere-rerank-v4.0-fast textklassificering (ändra rangordning) - Indata: text
- Resultat: text
- Språk:en, fr, es, it, de, pt-br, ja, zh-cn, ar, vi, hi, ru, , idoch nl
- Verktygsanrop: Nej
- Svarsformat: JSON
– Global standard (alla regioner)
– Hanterad beräkning
Cohere-command-a chat-completion - Indata: text (131 072 tokens)
- Utdata: text (8 182 tokens)
- Språk:en, fr, es, it, de, pt-br, ja, ko, , zh-cnoch ar
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
– Global standard (alla regioner)
embed-v-4-0 embeddings - Indata: text (512 token) och bilder (2MM bildpunkter)
- Utdata: Vektor (256, 512, 1024, 1536 dim.)
- Språk:en, fr, es, it, de, pt-br, ja, ko, , zh-cnoch ar
– Global standard (alla regioner)

Se cohere-modellsamlingen i Foundry-portalen.

DeepSeek-modeller som säljs direkt av Azure

DeepSeek-serien med modeller innehåller flera resonemangsmodeller som utmärker sig för att resonera med hjälp av en stegvis utbildningsprocess, till exempel språk, vetenskapliga resonemang och kodningsuppgifter.

Model Typ Capabilities Distributionstyp (regiontillgänglighet) Projekttyp
DeepSeek-V3.2-Speciale chat-completion
(med resonemangsinnehåll)
- Indata: text (128 000 tokenar)
- Utdata: text (128 000 token)
- Språk:en och zh
- Verktygsanrop: Nej
- Svarsformat: Text, JSON
– Global standard (alla regioner) Foundry, Hub-baserad
DeepSeek-V3.2 chat-completion
(med resonemangsinnehåll)
- Indata: text (128 000 tokenar)
- Utdata: text (128 000 token)
- Språk:en och zh
- Verktygsanrop: Nej
- Svarsformat: Text, JSON
– Global standard (alla regioner) Foundry, Hub-baserad
DeepSeek-V3.1 chat-completion
(med resonemangsinnehåll)
- Indata: text (131 072 tokens)
- Utdata: text (131 072 token)
- Språk:en och zh
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
– Global standard (alla regioner) Foundry, Hub-baserad
DeepSeek-R1-0528 chat-completion
(med resonemangsinnehåll)
- Indata: text (163 840 tokens)
- Utdata: text (163 840 tokens)
- Språk:en och zh
- Verktygsanrop: Nej
- Svarsformat: Text
– Global standard (alla regioner)
– Global tillhandahållen (alla regioner)
Foundry, Hub-baserad
DeepSeek-V3-0324 chat-completion - Indata: text (131 072 tokens)
- Utdata: text (131 072 token)
- Språk:en och zh
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
– Global standard (alla regioner)
– Global tillhandahållen (alla regioner)
Foundry, Hub-baserad
DeepSeek-R1 chat-completion
(med resonemangsinnehåll)
- Indata: text (163 840 tokens)
- Utdata: text (163 840 tokens)
- Språk:en och zh
- Verktygsanrop: Nej
- Svarsformat: Text
– Global standard (alla regioner)
– Global tillhandahållen (alla regioner)
Foundry, Hub-baserad
Model Typ Capabilities Distributionstyp (regiontillgänglighet)
DeepSeek-V3.2-Speciale chat-completion
(med resonemangsinnehåll)
- Indata: text (128 000 tokenar)
- Utdata: text (128 000 token)
- Språk:en och zh
- Verktygsanrop: Nej
- Svarsformat: Text, JSON
– Global standard (alla regioner)
DeepSeek-V3.2 chat-completion
(med resonemangsinnehåll)
- Indata: text (128 000 tokenar)
- Utdata: text (128 000 token)
- Språk:en och zh
- Verktygsanrop: Nej
- Svarsformat: Text, JSON
– Global standard (alla regioner)
DeepSeek-V3.1 chat-completion
(med resonemangsinnehåll)
- Indata: text (131 072 tokens)
- Utdata: text (131 072 token)
- Språk:en och zh
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
– Global standard (alla regioner)
DeepSeek-R1-0528 chat-completion
(med resonemangsinnehåll)
- Indata: text (163 840 tokens)
- Utdata: text (163 840 tokens)
- Språk:en och zh
- Verktygsanrop: Nej
- Svarsformat: Text
– Global standard (alla regioner)
– Global tillhandahållen (alla regioner)
DeepSeek-V3-0324 chat-completion - Indata: text (131 072 tokens)
- Utdata: text (131 072 token)
- Språk:en och zh
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
– Global standard (alla regioner)
– Global tillhandahållen (alla regioner)
DeepSeek-R1 chat-completion
(med resonemangsinnehåll)
- Indata: text (163 840 tokens)
- Utdata: text (163 840 tokens)
- Språk:en och zh
- Verktygsanrop: Nej
- Svarsformat: Text
– Global standard (alla regioner)
– Global tillhandahållen (alla regioner)

Se den här modellsamlingen i Foundry-portalen.

Metamodeller som säljs direkt av Azure

Meta Llama-modeller och -verktyg är en samling förtränade och finjusterade generativa AI-modeller för text- och bildresonemang. Metamodeller varierar i skala för att inkludera:

  • Små språkmodeller (SSM) som 1B och 3B bas- och instruktionsmodeller för inferens på enheter och i edge-miljöer.
  • Medelstora stora språkmodeller (LLM: er) som 7B-, 8B- och 70B-bas- och instruktionsmodeller
  • Högpresterande modeller som Meta Llama 3.1-405B Instruera för användningsfall för syntetisk datagenerering och destillation.
Model Typ Capabilities Distributionstyp (regiontillgänglighet) Projekttyp
Llama-4-Maverick-17B-128E-Instruct-FP8 chat-completion - Indata: text och bilder (1M-token)
- Utdata: text (1M-token)
- Språk:ar, en, fr, de, hi, id, it, pt, es, tl, th, och vi
- Verktygsanrop: Nej
- Svarsformat: Text
– Global standard (alla regioner) Foundry, Hub-baserad
Llama-3.3-70B-Instruct chat-completion - Indata: text (128 000 tokenar)
- Utdata: text (8 192 tokens)
- Språk:en, de, fr, it, pt, hi, esoch th
- Verktygsanrop: Nej
- Svarsformat: Text
– Global standard (alla regioner) Foundry, Hub-baserad
Model Typ Capabilities Distributionstyp (regiontillgänglighet)
Llama-4-Maverick-17B-128E-Instruct-FP8 chat-completion - Indata: text och bilder (1M-token)
- Utdata: text (1M-token)
- Språk:ar, en, fr, de, hi, id, it, pt, es, tl, th, och vi
- Verktygsanrop: Nej
- Svarsformat: Text
– Global standard (alla regioner)
Llama-3.3-70B-Instruct chat-completion - Indata: text (128 000 tokenar)
- Utdata: text (8 192 tokens)
- Språk:en, de, fr, it, pt, hi, esoch th
- Verktygsanrop: Nej
- Svarsformat: Text
– Global standard (alla regioner)

Se den här modellsamlingen i Foundry-portalen. Du kan också hitta flera metamodeller som är tillgängliga från partner och community.

Microsoft-modeller som säljs direkt av Azure

Microsoft-modeller innehåller olika modellgrupper som Modellrouter, MAI-modeller, Phi-modeller, AI-modeller för sjukvård med mera. Se Microsoft-modellsamlingen i Foundry-portalen. Du kan också hitta flera Microsoft-modeller som är tillgängliga från partner och community.

Model Typ Capabilities Distributionstyp (regiontillgänglighet) Projekttyp
model-router1 chat-completion Mer information finns i Översikt över modellrouter.
- Indata: text, bild
- Utdata: text (maxutdatatoken varierar2)
Kontextfönster: 200 0003
- Språk:en
- Global standard (Östra USA 2, centrala Sverige)
- Data Zone Standard4 (Östra USA 2, Sverige Central)
Foundry, Hub-baserad
MAI-DS-R1 chat-completion
(med resonemangsinnehåll)
- Indata: text (163 840 tokens)
- Utdata: text (163 840 tokens)
- Språk:en och zh
- Verktygsanrop: Nej
- Svarsformat: Text
– Global standard (alla regioner) Foundry, Hub-baserad
Model Typ Capabilities Distributionstyp (regiontillgänglighet)
model-router1 chat-completion Mer information finns i Översikt över modellrouter.
- Indata: text, bild
- Utdata: text (maxutdatatoken varierar2)
Kontextfönster: 200 0003
- Språk:en
- Global standard (Östra USA 2, centrala Sverige)
- Data Zone Standard4 (Östra USA 2, Sverige Central)
MAI-DS-R1 chat-completion
(med resonemangsinnehåll)
- Indata: text (163 840 tokens)
- Utdata: text (163 840 tokens)
- Språk:en och zh
- Verktygsanrop: Nej
- Svarsformat: Text
– Global standard (alla regioner)

1Modellrouterversion2025-11-18. Tidigare versioner (2025-08-07 och 2025-05-19) är också tillgängliga.

2Maxutdatatoken varierar för underliggande modeller i modellroutern. Till exempel 32 768 (GPT-4.1 series), 100 000 (o4-mini), 128 000 (gpt-5 reasoning models) och 16 384 (gpt-5-chat).

3 Större kontextfönster är kompatibla med några av de underliggande modellerna i modellroutern. Det innebär att ett API-anrop med en större kontext endast lyckas om prompten dirigeras till en av dessa modeller. Annars misslyckas anropet.

4 Faktureringen för datazonstandardmodellens routerdistributioner börjar tidigast den 1 november 2025.

Mistral-modeller som säljs direkt av Azure

Model Typ Capabilities Distributionstyp (regiontillgänglighet) Projekttyp
Mistral-Large-3 chat-completion - Indata: text, bild
- Resultat: text
- Språk:en, fr, de, es, it, pt, nl, zh, ja, , kooch ar
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
– Global standard (USA, västra 3) Gjuteri
mistral-document-ai-2505 Bild till text - Indata: bild- eller PDF-sidor (30 sidor, max 30 MB PDF-fil)
- Resultat: text
- Språk:en
- Verktygsanrop: nej
- Svarsformat: Text, JSON, Markdown
– Global standard (alla regioner)
– Datazonstandard (USA och EU)
Gjuteri
Model Typ Capabilities Distributionstyp (regiontillgänglighet)
Mistral-Large-3 chat-completion - Indata: text, bild
- Resultat: text
- Språk:en, fr, de, es, it, pt, nl, zh, ja, , kooch ar
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
– Global standard (USA, västra 3)
mistral-document-ai-2505 Bild till text - Indata: bild- eller PDF-sidor (30 sidor, max 30 MB PDF-fil)
- Resultat: text
- Språk:en
- Verktygsanrop: nej
- Svarsformat: Text, JSON, Markdown
– Global standard (alla regioner)
– Datazonstandard (USA och EU)

Se Mistral-modellsamlingen i Foundry-portalen. Du kan också hitta flera Mistral-modeller som är tillgängliga från partner och community.

Moonshot AI-modeller som säljs direkt av Azure

Moonshot AI-modeller inkluderar Kimi K2.5 och Kimi K2 Thinking. Kimi K2.5 är en multimodal resonemangsmodell som accepterar text- och bildinmatning, medan Kimi K2 Thinking är den senaste, mest kapabla versionen av tänkande modell med öppen källkod.

Model Typ Capabilities Distributionstyp (regiontillgänglighet) Projekttyp
Kimi-K2.5 chat-completion
(med resonemangsinnehåll)
- Indata: text och bild (262 144 tokens)
- Utdata: text (262 144 token)
- Språk:en och zh
- Verktygsanrop: Ja
- Svarsformat: Text
– Global standard (alla regioner) Foundry, Hub-baserad
Kimi-K2-Thinking chat-completion
(med resonemangsinnehåll)
- Indata: text (262,144 token)
- Utdata: text (262 144 token)
- Språk:en och zh
- Verktygsanrop: Ja
- Svarsformat: Text
– Global standard (alla regioner) Foundry, Hub-baserad
Model Typ Capabilities Distributionstyp (regiontillgänglighet)
Kimi-K2.5 chat-completion
(med resonemangsinnehåll)
- Indata: text och bild (262 144 tokens)
- Utdata: text (262 144 token)
- Språk:en och zh
- Verktygsanrop: Ja
- Svarsformat: Text
– Global standard (alla regioner)
Kimi-K2-Thinking chat-completion
(med resonemangsinnehåll)
- Indata: text (262,144 token)
- Utdata: text (262 144 token)
- Språk:en och zh
- Verktygsanrop: Ja
- Svarsformat: Text
– Global standard (alla regioner)

Se den här modellsamlingen i Foundry-portalen.

xAI-modeller som säljs direkt av Azure

xAI:s Grok-modeller i Foundry Models innehåller en mängd olika resonemangs- och icke-resonemangsmodeller som är utformade för företagsanvändningsfall som dataextrahering, kodning, textsammanfattning och agentiska program. Registrering krävs för åtkomst till grok-code-fast-1 och grok-4.

Model Typ Capabilities Distributionstyp (regiontillgänglighet) Projekttyp
grok-4 chat-completion - Indata: text (262 000 token)
- Utdata: text (8 192 tokens)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
– Global standard (alla regioner) Foundry, Hub-baserad
grok-4-fast-reasoning chat-completion - Indata: text, bild (128 000 token)
- Utdata: text (128 000 token)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
– Global standard (alla regioner)
– Standard för datazon (USA)
Foundry, Hub-baserad
grok-4-fast-non-reasoning chat-completion - Indata: text, bild (128 000 token)
- Utdata: text (128 000 token)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
– Global standard (alla regioner)
– Standard för datazon (USA)
Foundry, Hub-baserad
grok-code-fast-1 chat-completion - Indata: text (256 000 token)
- Utdata: text (8 192 tokens)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
– Global standard (alla regioner) Foundry, Hub-baserad
grok-3 chat-completion - Indata: text (131 072 tokens)
- Utdata: text (131 072 token)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
– Global standard (alla regioner)
– Standard för datazon (USA)
Foundry, Hub-baserad
grok-3-mini chat-completion - Indata: text (131 072 tokens)
- Utdata: text (131 072 token)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
– Global standard (alla regioner)
– Standard för datazon (USA)
Foundry, Hub-baserad
Model Typ Capabilities Distributionstyp (regiontillgänglighet)
grok-4 chat-completion - Indata: text (262 000 token)
- Utdata: text (8 192 tokens)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
– Global standard (alla regioner)
grok-4-fast-reasoning chat-completion - Indata: text, bild (128 000 token)
- Utdata: text (128 000 token)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
– Global standard (alla regioner)
– Standard för datazon (USA)
grok-4-fast-non-reasoning chat-completion - Indata: text, bild (128 000 token)
- Utdata: text (128 000 token)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
– Global standard (alla regioner)
– Standard för datazon (USA)
grok-code-fast-1 chat-completion - Indata: text (256 000 token)
- Utdata: text (8 192 tokens)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
– Global standard (alla regioner)
grok-3 chat-completion - Indata: text (131 072 tokens)
- Utdata: text (131 072 token)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
– Global standard (alla regioner)
– Standard för datazon (USA)
grok-3-mini chat-completion - Indata: text (131 072 tokens)
- Utdata: text (131 072 token)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
– Global standard (alla regioner)
– Standard för datazon (USA)

Se xAI-modellsamlingen i Foundry-portalen.

Tillgänglighet för modellregion efter distributionstyp

Foundry Models ger dig val för den värdstruktur som passar dina affärs- och användningsmönster. Tjänsten erbjuder två huvudsakliga typer av distribution:

  • Standard: Har ett globalt distributionsalternativ som dirigerar trafik globalt för att ge högre dataflöde.
  • Tilldelade: Har också ett globalt distributionsalternativ som gör att du kan köpa och distribuera tilldelade genomflödeseenheter i Azures globala infrastruktur.

Alla distributioner utför samma slutsatsdragningsåtgärder, men fakturering, skala och prestanda skiljer sig åt. Mer information om distributionstyper finns i Distributionstyper i Foundry-modeller.

Global Standard-modelltillgänglighet

Region DeepSeek-R1-0528 DeepSeek-R1 DeepSeek-V3-0324 DeepSeek-V3.1 FLUX.1-Kontext-pro FLUX-1.1-pro grok-4 grok-4-fast-reasoning grok-4-fast-non-reasoning grok-code-fast-1 grok-3 grok-3-mini Llama-4-Maverick-17B-128E-Instruct-FP8 Llama-3.3-70B-Instruct MAI-DS-R1 mistral-document-ai-2505
Australia East
Brasilien Södra
Kanada Öst
eastus
eastus2
francecentral
Tyskland Västra Centrala
Norra Italien
Japan Öst
koreacentral
northcentralus
Norge öst
polencentral
Sydafrika Nord
southcentralus
Södra Indien
spaincentral
swedencentral
norra Schweiz
switzerlandwest
uaenorth
uksouth
westeurope
westus
westus3

Öppna och anpassade modeller

Modellkatalogen erbjuder ett större urval av modeller från ett bredare utbud av leverantörer. För dessa modeller kan du inte använda alternativet för standarddistribution i Microsoft Foundry-resurser, där modeller tillhandahålls som API:er. För att distribuera dessa modeller kan du i stället behöva vara värd för dem i din infrastruktur, skapa en AI-hubb och tillhandahålla den underliggande beräkningskvoten som värd för modellerna.

Dessutom kan dessa modeller vara öppna eller IP-skyddade. I båda fallen måste du distribuera dem i hanterade datortjänster i Foundry. Information om hur du kommer igång finns i Anvisningar: Distribuera till hanterad beräkning.