Dela via


Azure OpenAI Service-modeller

Azure OpenAI Service drivs av flera olika modeller med olika funktioner och priser. Modelltillgängligheten varierar beroende på region och moln. För azure government-modelltillgänglighet kan du läsa Azure Government OpenAI Service.

Modeller beskrivning
o1-preview och o1-mini Modeller för begränsad åtkomst, särskilt utformade för att hantera resonemang och problemlösningsuppgifter med ökad fokusering och kapacitet.
GPT-4o & GPT-4o mini & GPT-4 Turbo De senaste mest kompatibla Azure OpenAI-modellerna med multimodala versioner, som kan acceptera både text och bilder som indata.
GPT-4o-ljud En GPT-4o-modell som stöder konversationsinteraktioner med låg svarstid, "tal in, tal ut".
GPT-4 En uppsättning modeller som förbättrar GPT-3.5 och som kan förstå och generera naturligt språk och kod.
GPT-3.5 En uppsättning modeller som förbättrar GPT-3 och kan förstå och generera naturligt språk och kod.
Inbäddningar En uppsättning modeller som kan konvertera text till numerisk vektorform för att underlätta textlikhet.
DALL-E En serie modeller som kan generera ursprungliga bilder från naturligt språk.
Viska En serie modeller i förhandsversion som kan transkribera och översätta tal till text.
Text till tal (förhandsversion) En serie modeller i förhandsversionen som kan syntetisera text till tal.

o1-preview och o1-mini modeller begränsad åtkomst

Azure OpenAI o1-preview och o1-mini modeller är särskilt utformade för att hantera resonemang och problemlösningsuppgifter med ökat fokus och ökad kapacitet. Dessa modeller ägnar mer tid åt att bearbeta och förstå användarens begäran, vilket gör dem exceptionellt starka inom områden som vetenskap, kodning och matematik jämfört med tidigare iterationer.

Model ID beskrivning Maximal begäran (token) Träningsdata (upp till)
o1-preview (2024-09-12) Den mest kompatibla modellen i o1-serien, som erbjuder förbättrade resonemangsförmåga. Indata: 128 000
Utdata: 32 768
Okt 2023
o1-mini (2024-09-12) Ett snabbare och mer kostnadseffektivt alternativ i o1-serien, perfekt för kodning av uppgifter som kräver hastighet och lägre resursförbrukning. Indata: 128 000
Utdata: 65 536
Okt 2023

Tillgänglighet

Modellerna o1-preview och o1-mini är nu tillgängliga för API-åtkomst och modelldistribution. Registrering krävs och åtkomst beviljas baserat på Microsofts berättigandekriterier.

Begär åtkomst: program för modell för begränsad åtkomst

När åtkomsten har beviljats måste du skapa en distribution för varje modell.

API-stöd

Stöd för modellerna i o1-serien har lagts till i API-versionen 2024-09-01-preview.

Parametern max_tokens har föråldrats och ersatts med den nya max_completion_tokens parametern. o1-seriemodeller fungerar bara med parametern max_completion_tokens .

Förbrukning

Dessa modeller stöder för närvarande inte samma uppsättning parametrar som andra modeller som använder API:et för chattavslut. Endast en mycket begränsad delmängd stöds för närvarande, så vanliga parametrar som temperature, top_p, är inte tillgängliga och om du inkluderar dem misslyckas din begäran. o1-preview och o1-mini modeller accepterar inte heller systemmeddelanderollen som en del av meddelandematrisen.

Du kan behöva uppgradera din version av OpenAI Python-biblioteket för att dra nytta av den nya max_completion_tokens parametern.

pip install openai --upgrade

Om du inte har använt Microsoft Entra-ID för autentisering tidigare kan du läsa Konfigurera Azure OpenAI-tjänsten med Microsoft Entra-ID-autentisering.

from openai import AzureOpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)

client = AzureOpenAI(
  azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"), 
  azure_ad_token_provider=token_provider,
  api_version="2024-09-01-preview"
)

response = client.chat.completions.create(
    model="o1-preview-new", # replace with the model deployment name of your o1-preview, or o1-mini model
    messages=[
        {"role": "user", "content": "What steps should I think about when writing my first Python API?"},
    ],
    max_completion_tokens = 5000

)

print(response.model_dump_json(indent=2))

Region tillgänglighet

Tillgänglig för standard- och global standarddistribution i USA, östra, USA, östra 2, USA, norra centrala, USA, södra centrala, Sverige, centrala, USA, västra och USA, västra3 för godkända kunder.

GPT-4o-ljud

Modellen gpt-4o-realtime-preview är en del av GPT-4o-modellfamiljen och stöder konversationsinteraktioner med låg latens, "tal in, tal ut". GPT-4o-ljud är utformat för att hantera konversationsinteraktioner med låg latens i realtid, vilket gör det till en bra plats för supportagenter, assistenter, översättare och andra användningsfall som behöver mycket dynamiska fram och tillbaka med en användare.

GPT-4o-ljud finns i regionerna USA, östra 2 (eastus2) och Sverige, centrala (swedencentral). Om du vill använda GPT-4o-ljud måste du skapa eller använda en befintlig resurs i någon av de regioner som stöds.

När resursen har skapats kan du distribuera GPT-4o-ljudmodellen. Om du utför en programmatisk distribution är gpt-4o-realtime-previewmodellnamnet . Mer information om hur du använder GPT-4o-ljud finns i GPT-4o-ljuddokumentationen.

Information om maximala begärandetoken och träningsdata finns i följande tabell.

Model ID beskrivning Maximal begäran (token) Träningsdata (upp till)
gpt-4o-realtime-preview (2024-10-01-preview)
GPT-4o-ljud
Ljudmodell för ljudbearbetning i realtid Indata: 128 000
Utdata: 4 096
Okt 2023

GPT-4o och GPT-4 Turbo

GPT-4o integrerar text och bilder i en enda modell, vilket gör att den kan hantera flera datatyper samtidigt. Den här multimodala metoden förbättrar noggrannheten och svarstiden i interaktioner mellan människa och dator. GPT-4o matchar GPT-4 Turbo i engelska text- och kodningsuppgifter samtidigt som det ger överlägsen prestanda i icke-engelska språk och visionsuppgifter, vilket sätter nya riktmärken för AI-funktioner.

Hur gör jag för att komma åt minimodellerna GPT-4o och GPT-4o?

GPT-4o och GPT-4o mini är tillgängliga för standard- och global standardmodelldistribution.

Du måste skapa eller använda en befintlig resurs i en standard - eller global standardregion som stöds där modellen är tillgänglig.

När resursen har skapats kan du distribuera GPT-4o-modellerna. Om du utför en programmatisk distribution är modellnamnen:

  • gpt-4oVersion 2024-08-06
  • gpt-4o, Version 2024-05-13
  • gpt-4o-miniVersion 2024-07-18

GPT-4 Turbo

GPT-4 Turbo är en stor multimodal modell (som accepterar text- eller bildindata och genererar text) som kan lösa svåra problem med större noggrannhet än någon av OpenAI:s tidigare modeller. Liksom GPT-3.5 Turbo, och äldre GPT-4 modeller GPT-4 Turbo är optimerad för chatt och fungerar bra för traditionella slutförande uppgifter.

Den senaste GA-versionen av GPT-4 Turbo är:

  • gpt-4Version: turbo-2024-04-09

Detta är ersättningen för följande förhandsversionsmodeller:

  • gpt-4Version: 1106-Preview
  • gpt-4Version: 0125-Preview
  • gpt-4Version: vision-preview

Skillnader mellan OpenAI- och Azure OpenAI GPT-4 Turbo GA-modeller

  • OpenAI:s version av den senaste 0409 turbomodellen stöder JSON-läge och funktionsanrop för alla slutsatsdragningsbegäranden.
  • Azure OpenAI:s version av den senaste turbo-2024-04-09 stöder för närvarande inte användning av JSON-läge och funktionsanrop när du gör slutsatsdragningsbegäranden med bildindata (vision). Textbaserade indatabegäranden (begäranden utan image_url och infogade bilder) stöder JSON-läge och funktionsanrop.

Skillnader från gpt-4 vision-preview

  • Integrering av Azure AI-specifika visionsförbättringar med GPT-4 Turbo med Vision stöds inte för gpt-4 version: turbo-2024-04-09. Detta inkluderar optisk teckenigenkänning (OCR), objekt grounding, video prompts och förbättrad hantering av dina data med bilder.

GPT-4 Turbo-etablerad hanterad tillgänglighet

  • gpt-4Version: turbo-2024-04-09 är tillgängligt för både standarddistributioner och etablerade distributioner. Den etablerade versionen av den här modellen stöder för närvarande inte begäranden om bild-/syninferens. Etablerade distributioner av den här modellen accepterar endast textinmatning. Standardmodelldistributioner accepterar både begäranden om text- och bild-/visionsinferens.

Distribuera GPT-4 Turbo med Vision GA

Om du vill distribuera GA-modellen från Studio-användargränssnittet väljer du GPT-4 och väljer turbo-2024-04-09 sedan versionen på den nedrullningsbara menyn. Standardkvoten för gpt-4-turbo-2024-04-09 modellen är samma som den aktuella kvoten för GPT-4-Turbo. Se de regionala kvotgränserna.

GPT-4

GPT-4 är föregångaren till GPT-4 Turbo. Både GPT-4- och GPT-4 Turbo-modellerna har basmodellnamnet gpt-4. Du kan skilja mellan MODELLERNA GPT-4 och Turbo genom att undersöka modellversionen.

  • gpt-4Version 0314
  • gpt-4Version 0613
  • gpt-4-32kVersion 0613

Du kan se den tokenkontextlängd som stöds av varje modell i tabellen för modellsammanfattning.

GPT-4- och GPT-4 Turbo-modeller

  • Dessa modeller kan endast användas med API:et för chattslutsättning.

Se modellversioner för att lära dig hur Azure OpenAI Service hanterar modellversionsuppgraderingar och arbeta med modeller för att lära dig hur du visar och konfigurerar modellversionsinställningarna för dina GPT-4-distributioner.

Model ID beskrivning Maximal begäran (token) Träningsdata (upp till)
gpt-4o (2024-08-06)
GPT-4o (Omni)
Senaste stora GA-modellen
– Strukturerade utdata
- Text, bildbearbetning
– JSON-läge
– parallell funktionsanrop
– Förbättrad noggrannhet och svarstider
- Paritet med engelska text- och kodningsuppgifter jämfört med GPT-4 Turbo med Vision
- Överlägsen prestanda i icke-engelska språk och i visionsuppgifter
Indata: 128 000
Utdata: 16 384
Okt 2023
gpt-4o-mini (2024-07-18)
GPT-4o mini
Senaste lilla GA-modellen
- Snabb, billig, kapabel modell perfekt för att ersätta GPT-3.5 Turbo-serien modeller.
- Text, bildbearbetning
– JSON-läge
– parallell funktionsanrop
Indata: 128 000
Utdata: 16 384
Okt 2023
gpt-4o (2024-05-13)
GPT-4o (Omni)
Text, bildbearbetning
– JSON-läge
– parallell funktionsanrop
– Förbättrad noggrannhet och svarstider
- Paritet med engelska text- och kodningsuppgifter jämfört med GPT-4 Turbo med Vision
- Överlägsen prestanda i icke-engelska språk och i visionsuppgifter
Indata: 128 000
Utdata: 4 096
Okt 2023
gpt-4 (turbo-2024-04-09)
GPT-4 Turbo med vision
Ny GA-modell
– Ersättning för alla tidigare GPT-4-förhandsversionsmodeller (vision-preview, 1106-Preview, 0125-Preview).
- Funktionstillgänglighet skiljer sig för närvarande beroende på indatametod och distributionstyp.
Indata: 128 000
Utdata: 4 096
Dec. 2023
gpt-4 (0125-Preview)*
GPT-4 Turbo Förhandsversion
Förhandsversionsmodell
-Ersätter 1106-Preview
– Bättre prestanda för kodgenerering
– Minskar fall där modellen inte slutför en uppgift
– JSON-läge
– parallell funktionsanrop
– reproducerbara utdata (förhandsversion)
Indata: 128 000
Utdata: 4 096
Dec. 2023
gpt-4 (vision-preview)
GPT-4 Turbo med Vision Preview
Förhandsgranskningsmodell
– Accepterar text- och bildinmatning.
– Stöder förbättringar
– JSON-läge
– parallell funktionsanrop
– reproducerbara utdata (förhandsversion)
Indata: 128 000
Utdata: 4 096
april 2023
gpt-4 (1106-förhandsversion)
GPT-4 Turbo Förhandsversion
Förhandsversionsmodell
– JSON-läge
– parallell funktionsanrop
– reproducerbara utdata (förhandsversion)
Indata: 128 000
Utdata: 4 096
april 2023
gpt-4-32k (0613) Äldre GA-modell
– Grundläggande funktionsanrop med verktyg
32,768 Sep 2021
gpt-4 (0613) Äldre GA-modell
– Grundläggande funktionsanrop med verktyg
8,192 Sep 2021
gpt-4-32k(0314) Äldre GA-modell
- Information om pensionering
32,768 Sep 2021
gpt-4 (0314) Äldre GA-modell
- Information om pensionering
8,192 Sep 2021

Varning

Vi rekommenderar inte att du använder förhandsgranskningsmodeller i produktion. Vi uppgraderar alla distributioner av förhandsversioner till antingen framtida förhandsversioner eller till den senaste stabila GA-versionen. Modeller som är avsedda för förhandsversion följer inte standardlivscykeln för Azure OpenAI-modellen.

  • GPT-4 version 0125-preview är en uppdaterad version av GPT-4 Turbo-förhandsversionen som tidigare släpptes som version 1106-preview.
  • GPT-4 version 0125-preview slutför uppgifter som kodgenerering mer fullständigt jämfört med gpt-4-1106-preview. Beroende på uppgiften kan kunderna se att GPT-4-0125-preview genererar mer utdata jämfört med gpt-4-1106-preview. Vi rekommenderar att kunderna jämför utdata från den nya modellen. GPT-4-0125-preview hanterar även buggar i gpt-4-1106-preview med UTF-8-hantering för icke-engelska språk.
  • GPT-4-versionen turbo-2024-04-09 är den senaste ga-versionen och ersätter 0125-Preview, 1106-previewoch vision-preview.

Viktigt!

GPT-4-versionerna 1106-Preview, 0125-Previewgpt-4och vision-preview uppgraderas med en stabil version av gpt-4 i framtiden.

  • Distributioner av gpt-4 versionerna 1106-Preview, 0125-Previewoch vision-preview inställd på "Automatisk uppdatering till standard" och "Uppgradera när den har upphört att gälla" börjar uppgraderas när den stabila versionen har släppts. För varje distribution sker en modellversionsuppgradering utan avbrott i tjänsten för API-anrop. Uppgraderingar mellanlagras efter region och den fullständiga uppgraderingsprocessen förväntas ta 2 veckor.
  • Distributioner av gpt-4 versioner 1106-Preview, 0125-Previewoch vision-preview inställd på "Ingen automatisk uppgradering" uppgraderas inte och slutar att fungera när förhandsversionen uppgraderas i regionen. Mer information om tidpunkten för uppgraderingen finns i Azure OpenAI-modellavgångar och utfasningar .

GPT-3.5

GPT-3.5-modeller kan förstå och generera naturligt språk eller kod. Den mest kompatibla och kostnadseffektiva modellen i GPT-3.5-familjen är GPT-3.5 Turbo, som har optimerats för chatt och fungerar bra för traditionella slutförandeuppgifter också. GPT-3.5 Turbo är tillgängligt för användning med API:et för chattavslut. GPT-3.5 Turbo Instruct har liknande funktioner som att text-davinci-003 använda API:et Completions i stället för API:et för chattavslut. Vi rekommenderar att du använder GPT-3.5 Turbo- och GPT-3.5 Turbo Instruct över äldre GPT-3.5- och GPT-3-modeller.

Model ID beskrivning Maximal begäran (token) Träningsdata (upp till)
gpt-35-turbo (0125) NY Senaste GA-modellen
– JSON-läge
– parallell funktionsanrop
– reproducerbara utdata (förhandsversion)
– Högre noggrannhet vid svar i begärda format.
– Korrigering för ett fel som orsakade ett problem med textkodning för funktionsanrop som inte är engelska.
Indata: 16 385
Utdata: 4 096
Sep 2021
gpt-35-turbo (1106) Äldre GA-modell
– JSON-läge
– parallell funktionsanrop
– reproducerbara utdata (förhandsversion)
Indata: 16 385
Utdata: 4 096
Sep 2021
gpt-35-turbo-instruct (0914) Slutpunkt för slutförande
– Ersättning för äldre slutförandemodeller
4,097 Sep 2021
gpt-35-turbo-16k (0613) Äldre GA-modell
– Grundläggande funktionsanrop med verktyg
16,384 Sep 2021
gpt-35-turbo (0613) Äldre GA-modell
– Grundläggande funktionsanrop med verktyg
4,096 Sep 2021
gpt-35-turbo1 (0301) Äldre GA-modell
- Information om pensionering
4,096 Sep 2021

Om du vill veta mer om hur du interagerar med GPT-3.5 Turbo och API:et för chattslutsättningar kan du läsa vår detaljerade instruktioner.

1 Den här modellen accepterar begäranden > om 4 096 token. Vi rekommenderar inte att överskrida gränsen på 4 096 indatatoken eftersom den nyare versionen av modellen är begränsad till 4 096 token. Om du får problem när du överskrider 4 096 indatatoken med den här modellen stöds inte den här konfigurationen officiellt.

Inbäddningar

text-embedding-3-large är den senaste och mest kompatibla inbäddningsmodellen. Det går inte att uppgradera mellan inbäddningsmodeller. Om du vill gå från att använda text-embedding-ada-002 till text-embedding-3-large måste du generera nya inbäddningar.

  • text-embedding-3-large
  • text-embedding-3-small
  • text-embedding-ada-002

Vid testning rapporterar OpenAI att både den stora och den lilla tredje generationens inbäddningsmodeller ger bättre genomsnittlig prestanda för flerspråkshämtning med MIRACL-riktmärket samtidigt som prestandan för engelska uppgifter bibehålls med MTEB-riktmärket .

Utvärderingsmått text-embedding-ada-002 text-embedding-3-small text-embedding-3-large
MIRACL-genomsnitt 31.4 44.0 54.9
MTEB-genomsnitt 61,0 62.3 64.6

Den tredje generationens inbäddningsmodeller har stöd för att minska storleken på inbäddningen via en ny dimensions parameter. Vanligtvis är större inbäddningar dyrare ur ett beräknings-, minnes- och lagringsperspektiv. Att kunna justera antalet dimensioner ger mer kontroll över den totala kostnaden och prestandan. Parametern dimensions stöds inte i alla versioner av OpenAI 1.x Python-biblioteket, för att dra nytta av den här parametern rekommenderar vi att du uppgraderar till den senaste versionen: pip install openai --upgrade.

OpenAI:s MTEB-benchmarktestning visade att även när den tredje generationens modells dimensioner reduceras till mindre än text-embeddings-ada-002 1 536 dimensioner är prestandan fortfarande något bättre.

DALL-E

DALL-E-modellerna genererar bilder från textanvisningarna som användaren tillhandahåller. DALL-E 3 är allmänt tillgängligt för användning med REST-API:er. DALL-E 2 och DALL-E 3 med klient-SDK:er finns i förhandsversion.

Viska

Whisper-modellerna kan användas för tal till text.

Du kan också använda Whisper-modellen via Azure AI Speech batch transcription API. Ta en titt på Vad är Whisper-modellen? för att lära dig mer om när du ska använda Azure AI Speech jämfört med Azure OpenAI Service.

Text till tal (förhandsversion)

OpenAI-text till tal-modeller, som för närvarande är i förhandsversion, kan användas för att syntetisera text till tal.

Du kan också använda OpenAI-texten till talröster via Azure AI Speech. Mer information finns i OpenAI-text till talröster via Azure OpenAI Service eller via Azure AI Speech-guide .

Modellsammanfattningstabell och regionstillgänglighet

Modeller efter distributionstyp

Azure OpenAI ger kunderna val av värdstruktur som passar deras affärs- och användningsmönster. Tjänsten erbjuder två huvudsakliga typer av distribution:

  • Standard erbjuds med ett globalt distributionsalternativ som dirigerar trafik globalt för att ge högre dataflöde.
  • Etablerad erbjuds också med ett globalt distributionsalternativ som gör det möjligt för kunder att köpa och distribuera etablerade dataflödesenheter i azures globala infrastruktur.

Alla distributioner kan utföra exakt samma slutsatsdragningsåtgärder, men fakturering, skala och prestanda skiljer sig avsevärt. Mer information om Distributionstyper för Azure OpenAI finns i guiden för distributionstyper.

Global standardmodelltillgänglighet

Region o1-preview, 2024-09-12 o1-mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4o-realtime-preview, 2024-10-01 gpt-4, turbo-2024-04-09
australiaeast - - - -
Brasilien, södra - - - -
canadaeast - - - -
eastus -
eastus2
francecentral - - - -
germanywestcentral - - - -
Japan, östra - - - -
koreacentral - - - -
northcentralus -
norwayeast - - - -
polencentral - - - -
southafricanorth - - - -
USA, södra centrala -
southindia - - - -
spaincentral - - -
swedencentral
switzerlandnorth - - - -
uaenorth - - - -
uksouth - - - -
Europa, västra - - - -
westus -
westus3 -

Den här tabellen innehåller inte detaljerad information om regional tillgänglighet. Mer information finns i avsnittet om finjustering.

Standardmodeller efter slutpunkt

Chatten har slutförts

Region o1-preview, 2024-09-12 o1-mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4, 0613 gpt-4, 1106-Preview gpt-4, 0125-Preview gpt-4, vision-preview gpt-4, turbo-2024-04-09 gpt-4-32k, 0613 gpt-35-turbo, 0301 gpt-35-turbo, 0613 gpt-35-turbo, 1106 gpt-35-turbo, 0125 gpt-35-turbo-16k, 0613
australiaeast - - - - - - - - -
canadaeast - - - - - - - - -
eastus - - - - -
eastus2 - - - - - -
francecentral - - - - - - - - -
Japan, östra - - - - - - - - - - - -
northcentralus - - - - - -
norwayeast - - - - - - - - - - - - - - -
USA, södra centrala - - - - - - -
southindia - - - - - - - - - - - - - -
swedencentral - - -
switzerlandnorth - - - - - - - - - - -
uksouth - - - - - - - - -
Europa, västra - - - - - - - - - - - - - - -
westus - - - - - -
westus3 - - - - - - - -

GPT-4- och GPT-4 Turbo-modelltillgänglighet

Välj kundåtkomst

Förutom de regioner ovan som är tillgängliga för alla Azure OpenAI-kunder har vissa utvalda befintliga kunder beviljats åtkomst till versioner av GPT-4 i ytterligare regioner:

Modell Region
gpt-4 (0314)
gpt-4-32k (0314)
USA, östra
Frankrike, centrala
USA, södra centrala
Södra Storbritannien
gpt-4 (0613)
gpt-4-32k (0613)
USA, östra
USA, östra 2
Japan, östra
Södra Storbritannien

GPT-3.5-modeller

Se modellversioner för att lära dig hur Azure OpenAI Service hanterar modellversionsuppgraderingar och arbeta med modeller för att lära dig hur du visar och konfigurerar modellversionsinställningarna för dina GPT-3.5 Turbo-distributioner.

Finjusteringsmodeller

Kommentar

gpt-35-turbo – Finjustering av den här modellen är begränsad till en delmängd av regioner och är inte tillgänglig i varje region som basmodellen är tillgänglig.

De regioner som stöds för finjustering kan variera om du använder Azure OpenAI-modeller i ett AI Studio-projekt jämfört med utanför ett projekt.

Model ID Finjustera regioner Maximal begäran (token) Träningsdata (upp till)
babbage-002 USA, norra centrala
Sverige, centrala
Schweiz, västra
16,384 Sep 2021
davinci-002 USA, norra centrala
Sverige, centrala
Schweiz, västra
16,384 Sep 2021
gpt-35-turbo (0613) USA, östra 2
USA, norra centrala
Sverige, centrala
Schweiz, västra
4,096 Sep 2021
gpt-35-turbo (1106) USA, östra 2
USA, norra centrala
Sverige, centrala
Schweiz, västra
Indata: 16 385
Utdata: 4 096
Sep 2021
gpt-35-turbo (0125) USA, östra 2
USA, norra centrala
Sverige, centrala
Schweiz, västra
16,385 Sep 2021
gpt-4 (0613) 1 USA, norra centrala
Sverige, centrala
8192 Sep 2021
gpt-4o-mini1 (2024-07-18) USA, norra centrala
Sverige, centrala
Indata: 128 000
Utdata: 16 384
Kontextlängd för träningsexempel: 64 536
Okt 2023
gpt-4o1 (2024-08-06) USA, östra 2
USA, norra centrala
Sverige, centrala
Indata: 128 000
Utdata: 16 384
Kontextlängd för träningsexempel: 64 536
Okt 2023

1 GPT-4 är för närvarande i offentlig förhandsversion.

Assistenter (förhandsversion)

För assistenter behöver du en kombination av en modell som stöds och en region som stöds. Vissa verktyg och funktioner kräver de senaste modellerna. Följande modeller är tillgängliga i Assistants API, SDK och Azure AI Studio. Följande tabell är för betala per användning. Information om PTU-tillgänglighet (Provisioned Throughput Unit) finns i etablerat dataflöde. De listade modellerna och regionerna kan användas med både Assistenter v1 och v2. Du kan använda globala standardmodeller om de stöds i de regioner som anges nedan.

Region gpt-35-turbo (0613) gpt-35-turbo (1106) fine tuned gpt-3.5-turbo-0125 gpt-4 (0613) gpt-4 (1106) gpt-4 (0125) gpt-4o (2024-05-13) gpt-4o-mini (2024-07-18)
Australien, östra
East US
USA, östra 2
Centrala Frankrike
Japan, östra
Norge, östra
Sverige, centrala
Södra Storbritannien
Västra USA
USA, västra 3

Modellavgång

Den senaste informationen om modellavgångar finns i modellens pensionsguide.

Nästa steg