Dela via


Azure AI Foundry-modeller tillgängliga för serverlös API-distribution

Azure AI-modellkatalogen erbjuder ett stort urval av Azure AI Foundry Models från en mängd olika leverantörer. Du har olika alternativ för att distribuera modeller från modellkatalogen. Den här artikeln innehåller en lista över Azure AI Foundry-modeller som kan distribueras via serverlös API-distribution. För vissa av dessa modeller kan du också installera dem på din infrastruktur för distribution via hanterad datorkapacitet.

Viktigt!

Modeller som är i förhandsversion markeras som förhandsversioner på sina modellkort i modellkatalogen.

För att utföra slutsatsdragning med modellerna kräver vissa modeller som Nixtlas TimeGEN-1 - och Cohere-rerank att du använder anpassade API:er från modellprovidrar. Andra stöder slutsatsdragning med hjälp av API:et för modellinferens. Du hittar mer information om enskilda modeller genom att granska deras modellkort i modellkatalogen för Azure AI Foundry-portalen.

En animering som visar azure AI Foundry-modellkatalogavsnittet och de tillgängliga modellerna.

AI21 Labs

Jamba-familjemodellerna är AI21:s Mamba-baserade modell för stora språk i produktionsklass (LLM) som använder AI21:s hybridarkitektur Mamba-Transformer. Det är en instruktionsanpassad version av AI21:s hybridstrukturerade tillståndsrumsmodell (SSM) transformermodell Jamba. Jamba-familjemodellerna är byggda för tillförlitlig kommersiell användning med avseende på kvalitet och prestanda.

Modell Typ Förmågor
AI21-Jamba-1.5-Mini chatten har slutförts - Indata: text (262,144 token)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON, strukturerade utdata
AI21-Jamba-1.5-Large chatten har slutförts - Indata: text (262,144 token)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON, strukturerade utdata

Se den här modellsamlingen i Azure AI Foundry-portalen.

Azure OpenAI

Azure OpenAI i Foundry Models erbjuder en mängd olika modeller med olika funktioner och prispunkter. Dessa modeller omfattar:

  • Toppmoderna modeller som utformats för att hantera resonemang och problemlösningsuppgifter med ökat fokus och ökad kapacitet
  • Modeller som kan förstå och generera naturligt språk och kod
  • Modeller som kan transkribera och översätta tal till text
Modell Typ Förmågor
o3-mini chatten har slutförts - Indata: text och bild (200 000 tokens)
- Utdata: text (100 000 token)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON, strukturerade utdata
o1 chattkomplettering (med bilder) - Indata: text och bild (200 000 tokens)
- Utdata: text (100 000 token)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON, strukturerade utdata
o1-preview chatten har slutförts - Indata: text (128 000 tokenar)
- Utdata: text (32 768 token)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON, strukturerade utdata
o1-mini chatten har slutförts - Indata: text (128 000 tokenar)
- Utdata: text (65 536 tokenar)
- Verktygsanrop: Nej
- Svarsformat: Text
gpt-4o-realtime-preview realtid - Indata: styrning, text och ljud (131,072 token)
- Utdata: text och ljud (16 384 token)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
gpt-4o chat-komplettering med bild- och ljudinnehåll - Indata: text, bild och ljud (131 072 tokens)
- Utdata: text (16 384 tecken)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON, strukturerade utdata
gpt-4o-mini chat-komplettering med bild- och ljudinnehåll - Indata: text, bild och ljud (131 072 tokens)
- Utdata: text (16 384 tecken)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON, strukturerade utdata
text-inbäddning-3-stor inbäddningar - Indata: text (8 191 tecken)
- Output: Vektor (3,072 dimensioner)
text-embedding-3-small inbäddningar - Indata: text (8 191 tecken)
- Utdata: Vektor (1 536 dim.)

Se den här modellsamlingen i Azure AI Foundry-portalen.

Sammanhållning

Cohere-serien med modeller innehåller olika modeller som är optimerade för olika användningsfall, inklusive rerank, chattavslut och inbäddningsmodeller.

Cohere-kommandot och inbäddning

I följande tabell visas de cohere-modeller som du kan dra slutsatser om via API:et för modellinferens.

Modell Typ Förmågor
Cohere-command-A chatten har slutförts - Indata: text (256 000 token)
- Utdata: text (8 000 token)
- Verktygsanrop: Ja
- Svarsformat: Text
Cohere-command-r-plus-08-2024 chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
Cohere-command-r-08-2024 chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
Cohere-command-r-plus
(inaktuell)
chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
Cohere-command-r
(inaktuell)
chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
Cohere-embed-v-4 inbäddningar
image-embeddings
- Indata: bild, text
- Utdata: bild, text (128 000 tokens)
- Verktygsanrop: Ja
- Svarsformat: bild, text
Cohere-embed-v3-english inbäddningar
image-embeddings
- Ingång: text (512 tokens)
- Utdata: Vektor (1 024 dim.).
Cohere-embed-v3-multilingual inbäddningar
image-embeddings
- Ingång: text (512 tokens)
- Utdata: Vektor (1 024 dim.).

Slutsatsdragningsexempel: Cohere-kommando och inbäddning

Fler exempel på hur du använder Cohere-modeller finns i följande exempel:

Beskrivning Språk Exempel
webbförfrågningar Smäll Command-RCommand-R+
cohere-embed.ipynb
Azure AI-slutsatsdragningspaket för C# C# Länk
Azure AI-slutsatsdragningspaket för JavaScript JavaScript Länk
Azure AI-slutsatsdragningspaket för Python python Länk
OpenAI SDK (experimentell) python Länk
LangChain python Länk
Cohere SDK python Kommando
Inbädda
LiteLLM SDK python Länk

Hämtningsförstärkt generering (RAG) och verktygsanvändnings-exempel: Cohere-kommando och inbäddning

Beskrivning Paket Exempel
Skapa ett vektorindex för lokal Facebook AI-likhetssökning (FAISS) med hjälp av cohere-inbäddningar – Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Använd Cohere Command R/R+ för att besvara frågor från data i det lokala FAISS-vektorindexet – Langchain langchain, langchain_cohere command_faiss_langchain.ipynb
Använd Cohere Command R/R+ för att besvara frågor från data i AI-sökvektorindex – Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Använd Cohere Command R/R+ för att besvara frågor från data i AI-sökvektorindex – Cohere SDK cohere, azure_search_documents cohere-aisearch-rag.ipynb
Kommando R+ för verktyg/funktionsanrop med hjälp av LangChain cohere, , langchainlangchain_cohere command_tools-langchain.ipynb

Cohere omrangordna

I följande tabell visas cohere rerank-modellerna. Om du vill utföra slutsatsdragning med dessa rerank-modeller måste du använda Cohere:s anpassade omranknings-API:er som visas i tabellen.

Modell Typ Slutsatsdragnings-API
Cohere-rerank-v3.5 ändra rangordning
textklassificering
Cohere's v2/rerank API
Cohere-rerank-v3-english
(inaktuell)
ändra rangordning
textklassificering
Cohere's v2/rerank API
Cohere's v1/rerank API
Cohere-rerank-v3-multilingual
(inaktuell)
ändra rangordning
textklassificering
Cohere's v2/rerank API
Cohere's v1/rerank API

Priser för Cohere-omrankningsmodeller

Frågor, som inte ska förväxlas med en användares fråga, är en prismätare som refererar till kostnaden som är associerad med de token som används som indata för slutsatsdragning av en Cohere Rerank-modell. En enda sökenhet räknas som en fråga med upp till 100 dokument som ska rangordnas. Dokument som är längre än 500 token (för Cohere-rerank-v3.5) eller längre än 4 096 token (för Cohere-rerank-v3-English och Cohere-rerank-v3-multilingual) när du inkluderar längden på sökfrågan delas upp i flera segment, där varje segment räknas som ett enda dokument.

Se cohere-modellsamlingen i Azure AI Foundry-portalen.

Core42

Core42 innehåller autoregressiva tvåspråkiga LLM:er för arabiska och engelska med toppmoderna funktioner på arabiska.

Modell Typ Förmågor
jais-30b-chat chatten har slutförts - Indata: text (8 192 tokenar)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON

Se den här modellsamlingen i Azure AI Foundry-portalen.

Exempel på inferens: Core42

Fler exempel på hur du använder Jais-modeller finns i följande exempel:

Beskrivning Språk Exempel
Azure AI-slutsatsdragningspaket för C# C# Länk
Azure AI-slutsatsdragningspaket för JavaScript JavaScript Länk
Azure AI-slutsatsdragningspaket för Python python Länk

DeepSeek

DeepSeek-familjen av modeller inkluderar DeepSeek-R1, som utmärker sig vid resonemangsuppgifter med en steg-för-steg träningsprocess, såsom språk, vetenskapligt resonemang och kodningsuppgifter, DeepSeek-V3-0324, en Mixture-of-Experts (MoE) språkmodell, och mer.

Modell Typ Förmågor
DeepSeek-R1-0528
slutförande av chatt med resonemangsinnehåll - Indata: text (163 840 tokens)
- Utdata: text (163,840 tokens)
- Språk:en och zh
- Verktygsanrop: Nej
- Svarsformat: Text
DeekSeek-V3-0324 chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: (131 072 tokenar)
- Verktygsanrop: Nej
- Svarsformat: Text, JSON
DeepSeek-V3
Arv
chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (131 072 token)
- Verktygsanrop: Nej
- Svarsformat: Text, JSON
DeepSeek-R1 slutförande av chatt med resonemangsinnehåll - Indata: text (163 840 tokens)
- Utdata: text (163,840 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text.

En självstudiekurs om DeepSeek-R1 finns i Självstudie: Kom igång med DeepSeek-R1 resonemangsmodell i Foundry Models.

Se den här modellsamlingen i Azure AI Foundry-portalen.

Slutsatsdragningsexempel: DeepSeek

Fler exempel på hur du använder DeepSeek-modeller finns i följande exempel:

Beskrivning Språk Exempel
Azure AI-slutsatsdragningspaket för Python python Länk
Azure AI-slutsatsdragningspaket för JavaScript JavaScript Länk
Azure AI-slutsatsdragningspaket för C# C# Länk
Azure AI-slutsatsdragningspaket för Java Java Länk

Meta

Meta Llama-modeller och -verktyg är en samling förtränade och finjusterade generativa AI-modeller för text- och bildgenerering. Metamodellers intervall skalas så att det omfattar:

  • Små språkmodeller (SSM) som 1B och 3B bas- och instruktionsmodeller för inferens på enheter och i edge-miljöer.
  • Medelstora stora språkmodeller (LLM: er) som 7B-, 8B- och 70B-bas- och instruktionsmodeller
  • Högpresterande modeller som Meta Llama 3.1-405B Instruct för användning inom syntetisk datagenerering och destillation.
  • Högpresterande inbyggda multimodala modeller, Llama 4 Scout och Llama 4 Maverick, använder en blandning av expertarkitektur för att erbjuda branschledande prestanda inom text- och bildtolkning.
Modell Typ Förmågor
Llama-4-Scout-17B-16E-Instruct chatten har slutförts - Indata: text och bild (128 000 tokens)
- Utdata: text (8 192 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Llama 4-Maverick-17B-128E-Instruct-FP8 chatten har slutförts - Indata: text och bild (128 000 tokens)
- Utdata: text (8 192 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Llama-3.3-70B-Instruct chatten har slutförts - Indata: text (128 000 tokenar)
- Utdata: text (8 192 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Llama-3.2-90B-Vision-Instruct chattkomplettering (med bilder) - Indata: text och bild (128 000 tokens)
- Utdata: text (8 192 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Llama-3.2-11B-Vision-Instruct chattkomplettering (med bilder) - Indata: text och bild (128 000 tokens)
- Utdata: text (8 192 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Meta-Llama-3.1-8B-Instruct chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (8 192 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Meta-Llama-3.1-405B-Instruct chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (8 192 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Meta-Llama-3.1-70B-Instruct (föråldrad) chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (8 192 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Meta-Llama-3-8B-Instruct (föråldrad) chatten har slutförts - Indata: text (8 192 tokenar)
- Utdata: text (8 192 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Meta-Llama-3-70B-Instruct (föråldrad) chatten har slutförts - Indata: text (8 192 tokenar)
- Utdata: text (8 192 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text

Se den här modellsamlingen i Azure AI Foundry-portalen.

Inferensexempel: Meta Llama

Fler exempel på hur du använder Meta Llama-modeller finns i följande exempel:

Beskrivning Språk Exempel
CURL-begäran Smäll Länk
Azure AI-slutsatsdragningspaket för C# C# Länk
Azure AI-slutsatsdragningspaket för JavaScript JavaScript Länk
Azure AI-slutsatsdragningspaket för Python python Länk
Python webbfrågor python Länk
OpenAI SDK (experimentell) python Länk
LangChain python Länk
LiteLLM python Länk

Microsoft

Microsoft-modeller innehåller olika modellgrupper som MAI-modeller, Phi-modeller, AI-modeller för hälso- och sjukvård med mera. Om du vill se alla tillgängliga Microsoft-modeller kan du visa Microsofts modellsamling i Azure AI Foundry-portalen.

Modell Typ Förmågor
MAI-DS-R1 slutförande av chatt med resonemangsinnehåll - Indata: text (163 840 tokens)
- Utdata: text (163,840 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text.
Phi-4-resonemang slutförande av chatt med resonemangsinnehåll - Indata: text (32768 tokens)
- Utdata: text (32768 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-4-mini-resonemang slutförande av chatt med resonemangsinnehåll - Indata: text (128 000 tokenar)
- Utdata: text (128 000 token)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-4-multimodal-instruct chat-komplettering med bild- och ljudinnehåll - Indata: text, bilder och ljud (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-4-mini-instruct chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-4 chatten har slutförts - Indata: text (16,384 tokens)
- Utdata: text (16 384 tecken)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3.5-mini-instruct chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3.5-MoE-instruct chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3.5-vision-instruct chattkomplettering (med bilder) - Indata: text och bild (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3-mini-128k-instruct chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3-mini-4k-instruct chatten har slutförts - Indata: text (4 096 token)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3-small-128k-instruct chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3-small-8k-instruct chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3-medium-128k-instruct chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Phi-3-medium-4k-instruct chatten har slutförts - Indata: text (4 096 token)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text

Slutsatsdragningsexempel: Microsoft-modeller

Fler exempel på hur du använder Microsoft-modeller finns i följande exempel:

Beskrivning Språk Exempel
Azure AI-slutsatsdragningspaket för C# C# Länk
Azure AI-slutsatsdragningspaket för JavaScript JavaScript Länk
Azure AI-slutsatsdragningspaket för Python python Länk
LangChain python Länk
Llama-Index python Länk

Se Microsofts modellsamling i Azure AI Foundry-portalen.

Mistral AI

Mistral AI erbjuder två kategorier av modeller, nämligen:

  • Premiummodeller: Dessa inkluderar Modellerna Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) och Ministral 3B och är tillgängliga som serverlösa API:er med tokenbaserad betalning per användning.
  • Öppna modeller: Dessa inkluderar Mistral-small-2503, Codestral och Mistral Nemo (som är tillgängliga som serverlösa API:er med tokenbaserad betalning per användning) och Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 och Mistral-7B-v01 (som är tillgängliga för nedladdning och körning på hanterade slutpunkter med egen värd).
Modell Typ Förmågor
Codestral-2501 chatten har slutförts - Indata: text (262,144 token)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text
Ministral-3B chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
Mistral-Nemo chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
Mistral-Large-2411 chatten har slutförts - Indata: text (128 000 tokenar)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
Mistral-large-2407
(inaktuell)
chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
Mistral-large
(inaktuell)
chatten har slutförts - Indata: text (32 768 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
Mistral-medium-2505 chatten har slutförts - Indata: text (128 000 tokens), bild
- Utdata: text (128 000 token)
- Verktygsanrop: Nej
- Svarsformat: Text, JSON
Mistral-OCR-2503 bild-till-text - Indata: bild- eller PDF-sidor (1 000 sidor, max 50 MB PDF-fil)
- Resultat: text
- Verktygsanrop: Nej
- Svarsformat: Text, JSON, Markdown
Mistral-small-2503 chattkomplettering (med bilder) - Indata: text och bilder (131 072 tokens),
bildbaserade tokens är 16px x 16px
block av ursprungsbilderna
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON
Mistral-small chatten har slutförts - Indata: text (32 768 tokens)
- Utdata: text (4,096 tokens)
- Verktygsanrop: Ja
- Svarsformat: Text, JSON

Se den här modellsamlingen i Azure AI Foundry-portalen.

Slutsatsdragningsexempel: Mistral

Fler exempel på hur du använder Mistral-modeller finns i följande exempel och självstudier:

Beskrivning Språk Exempel
CURL-begäran Smäll Länk
Azure AI-slutsatsdragningspaket för C# C# Länk
Azure AI-slutsatsdragningspaket för JavaScript JavaScript Länk
Azure AI-slutsatsdragningspaket för Python python Länk
Python webbfrågor python Länk
OpenAI SDK (experimentell) python Mistral – OpenAI SDK-exempel
LangChain python Mistral – LangChain-exempel
Mistral AI python Mistral – Mistral AI-exempel
LiteLLM python Mistral – LiteLLM-exempel

Nixtla

Nixtlas TimeGEN-1 är en generativ förtränad prognostiserings- och avvikelseidentifieringsmodell för tidsseriedata. TimeGEN-1 kan producera korrekta prognoser för nya tidsserier utan träning, med endast historiska värden och exogena samvariater som indata.

För att utföra slutsatsdragning kräver TimeGEN-1 att du använder Nixtlas anpassade slutsatsdragnings-API.

Modell Typ Förmågor Slutsatsdragnings-API
TimeGEN-1 Prognostisering - Inmatning: Tidsseriedata som JSON eller dataramar (med stöd för multivariatindata)
- Utdata: Tidsseriedata som JSON
- Verktygsanrop: Nej
- Svarsformat: JSON
Prognosklienten interagerar med Nixtlas API

Beräkna antalet token som behövs

Innan du skapar en TimeGEN-1-distribution är det bra att uppskatta antalet token som du planerar att använda och faktureras för. En token motsvarar en datapunkt i indatauppsättningen eller utdatauppsättningen.

Anta att du har följande datauppsättning för indatatidsserier:

unik_id Tidsstämpel Målvariabel Exogen variabel 1 Exogen variabel 2
VARA 2016-10-22 00:00:00 70,00 49593.0 57 253,0
VARA 2016-10-22 01:00:00 37.10 46073,0 51887,0

För att fastställa antalet token multiplicerar du antalet rader (i det här exemplet två) och antalet kolumner som används för prognostisering– utan att räkna kolumnerna unique_id och tidsstämpel (i det här exemplet tre) för att få totalt sex token.

Givet följande utdatauppsättning:

unik_id Tidsstämpel Prognostiserad målvariabel
VARA 2016-10-22 02:00:00 46.57
VARA 2016-10-22 03:00:00 48.57

Du kan också fastställa antalet token genom att räkna antalet datapunkter som returneras efter dataprognoser. I det här exemplet är antalet token två.

Beräkna priser baserat på token

Det finns fyra prismätare som avgör vilket pris du betalar. Dessa mätare är följande:

Prismätare Beskrivning
paygo-slutsats-indatatecken Kostnader som är associerade med de token som används som indata för slutsatsdragning när finetune_steps = 0
betala-efter-hand inferens utgångstoken Kostnader som är associerade med de token som används som utdata för slutsatsdragning när finetune_steps = 0
paygo-finjusterad-modell-inferens-inmatnings-token Kostnader som är associerade med de token som används som indata för slutsatsdragning när finetune_steps> 0
betala-efterhand-finförbättrad-modell-slutsats-utdata-tokens Kostnader som är associerade med de tokens som används som utdata för inferens när finetune_steps> 0

Se Nixtla-modellsamlingen i Azure AI Foundry-portalen.

NTT-DATA

tsuzumi är en autoregressiv språkoptimerad transformerare. De finjusterade versionerna använder övervakad finjustering (SFT). tsuzumi hanterar både japanska och engelska med hög effektivitet.

Modell Typ Förmågor
tsuzumi-7b chatten har slutförts - Indata: text (8 192 tokenar)
- Utdata: text (8 192 tokens)
- Verktygsanrop: Nej
- Svarsformat: Text

Stabilitets-AI

Samlingen Stabilitets-AI för bildgenereringsmodeller inkluderar Stable Image Core, Stable Image Ultra och Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large tillåter både bild- och textinmatningar.

Modell Typ Förmågor
Stable Diffusion 3,5 stor modell Bildgenerering - Indata: text och bild (1 000 token och 1 bild)
- Resultat: 1 bild
- Verktygsanrop: Nej
- Svarsformat: Bild (PNG och JPG)
Stabil bildkärna Bildgenerering - Indata: text (1 000 token)
- Resultat: 1 bild
- Verktygsanrop: Nej
- Svarsformat: Bild (PNG och JPG)
Ultra Stabil Bild Bildgenerering - Indata: text (1 000 token)
- Resultat: 1 bild
- Verktygsanrop: Nej
- Svarsformat: Bild (PNG och JPG)

xAI

xAI: s Grok 3- och Grok 3 Mini-modeller är utformade för att utmärka sig i olika företagsdomäner. Grok 3, en modell utan resonemangsförmåga som har förtränats av Colossus datacenter, är skräddarsydd för affärsanvändningar som dataextrahering, kodning och textsammanfattning, med exceptionell förmåga att följa instruktioner. Den stöder ett 131 072-tokenkontextfönster, vilket gör att den kan hantera omfattande indata samtidigt som enhetlighet och djup bibehålls, och är särskilt skicklig på att rita anslutningar mellan domäner och språk. Å andra sidan är Grok 3 Mini en lättviktig resonemangsmodell som tränats för att hantera agentiska, kodnings-, matematiska och djupa vetenskapliga problem med testtidsberäkning. Det stöder också ett 131 072-tokenkontextfönster för att förstå kodbaser och företagsdokument och utmärker sig för att använda verktyg för att lösa komplexa logiska problem i nya miljöer, vilket ger råa resonemangsspårningar för användarinspektion med justerbara tankebudgetar.

Modell Typ Förmågor
grok-3 chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (131 072 token)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text
grok-3-mini chatten har slutförts - Indata: text (131 072 tokens)
- Utdata: text (131 072 token)
- Språk:en
- Verktygsanrop: ja
- Svarsformat: text

Exempel på inferenser: Stability AI

Stabilitets-AI-modeller som distribueras via serverlös API-distribution implementerar API:et för modellinferens på vägen /image/generations. Exempel på hur du använder stabilitets-AI-modeller finns i följande exempel: