Delen via


Azure AI Foundry-modellen beschikbaar voor serverloze API-implementatie

De Azure AI-modelcatalogus biedt een grote selectie Van Azure AI Foundry-modellen van een breed scala aan providers. U hebt verschillende opties voor het implementeren van modellen uit de modelcatalogus. In dit artikel vindt u een overzicht van Azure AI Foundry-modellen die kunnen worden geïmplementeerd via serverloze API-implementatie. Voor sommige van deze modellen kunt u deze ook hosten op uw infrastructuur voor implementatie via beheerde berekeningen.

Belangrijk

Modellen die in preview zijn, worden gemarkeerd als voorbeeld op hun modelkaarten in de modelcatalogus.

Om met de modellen inferentie uit te voeren, vereisen sommige modellen, zoals TimeGEN-1 van Nixtla en Cohere rerank, het gebruik van aangepaste API's van de modelproviders. Anderen ondersteunen deductie met behulp van de ModelDeductie-API. U vindt meer informatie over afzonderlijke modellen door hun modelkaarten te bekijken in de modelcatalogus voor Azure AI Foundry Portal.

Een animatie met de sectie Azure AI Foundry-modelcatalogus en de beschikbare modellen.

AI21 Labs

De Jamba-familie modellen zijn productieklare Mamba-gebaseerde grote taalmodellen (LLM) die gebruikmaken van de hybride Mamba-Transformer-architectuur van AI21. Het is een op instructies afgestemde versie van AI21's hybride gestructureerd toestandruimtemodel (SSM) transformer Jamba-model. De Jamba family modellen zijn gebouwd voor betrouwbaar commercieel gebruik met betrekking tot kwaliteit en prestaties.

Modelleren Typ Capaciteiten
AI21-Jamba-1.5-Mini chat-afronding - Invoer: tekst (262.144 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer
AI21-Jamba-1.5-Large chat-afronding - Invoer: tekst (262.144 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer

Bekijk deze modelverzameling in de Azure AI Foundry-portal.

Azure OpenAI

Azure OpenAI in Foundry Models biedt een diverse set modellen met verschillende mogelijkheden en prijspunten. Deze modellen zijn onder andere:

  • Geavanceerde modellen die zijn ontworpen om redenerings- en probleemoplossingstaken aan te pakken met meer focus en mogelijkheden
  • Modellen die natuurlijke taal en code kunnen begrijpen en genereren
  • Modellen die spraak naar tekst kunnen transcriberen en vertalen
Modelleren Typ Capaciteiten
o3-mini chat-afronding - Invoer: tekst en afbeelding (200.000 tokens)
- Uitvoer: tekst (100.000 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer
o1 chatvoltooiing (met afbeeldingen) - Invoer: tekst en afbeelding (200.000 tokens)
- Uitvoer: tekst (100.000 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer
o1-preview chat-afronding - Invoer: tekst (128.000 tokens)
- Uitvoer: tekst (32.768 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer
o1-mini chat-afronding - Invoer: tekst (128.000 tokens)
- Uitvoer: tekst (65.536 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
gpt-4o-realtime-preview realtime - Invoer: besturingselement, tekst en audio (131.072 tokens)
- Uitvoer: tekst en audio (16.384 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON
gpt-4o chatafhandeling (met afbeeldings- en audio-inhoud) - Invoer: tekst, afbeelding en audio (131.072 tokens)
- Uitvoer: tekst (16.384 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer
gpt-4o-mini chatafhandeling (met afbeeldings- en audio-inhoud) - Invoer: tekst, afbeelding en audio (131.072 tokens)
- Uitvoer: tekst (16.384 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer
tekst-insluiten-3-groot insluitingen - Invoer: tekst (8.191 tokens)
- Uitvoer: Vector (3,072 dim.)
tekst-insluiten-3-klein insluitingen - Invoer: tekst (8.191 tokens)
- Uitvoer: Vector (1.536 dimensies)

Bekijk deze modelverzameling in de Azure AI Foundry-portal.

Cohere

De cohere-serie modellen bevat verschillende modellen die zijn geoptimaliseerd voor verschillende gebruiksvoorbeelden, waaronder herrankering, chatvoltooiingen en insluitingsmodellen.

Cohere-opdracht en inbedden

De volgende tabel bevat de Cohere-modellen die u kunt infereren via de Modelinference-API.

Modelleren Typ Capaciteiten
Cohere-command-A chat-afronding - Invoer: tekst (256.000 tokens)
- Uitvoer: tekst (8.000 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst
" Cohere-command-r-plus-08-2024 chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON
Cohere-command-r-08-2024 chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON
Cohere-command-r-plus
(verouderd)
chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON
Cohere-command-r
(verouderd)
chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON
Cohere-embed-v-4 insluitingen
afbeeldingen insluiten
- Invoer: afbeelding, tekst
- Uitvoer: afbeelding, tekst (128.000 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: afbeelding, tekst
Cohere-embed-v3-english insluitingen
afbeeldingen insluiten
- Invoer: tekst (512 tokens)
- Uitvoer: Vector (1.024 dim.)
Cohere-embed-v3-meertalige insluitingen
afbeeldingen insluiten
- Invoer: tekst (512 tokens)
- Uitvoer: Vector (1.024 dim.)

Voorbeelden van inferentie: commando Cohere en embedding

Zie de volgende voorbeelden voor meer voorbeelden van het gebruik van Cohere-modellen:

Beschrijving Taal Voorbeeld
Webaanvragen Bash (een Unix-shell en programmeertaal) Command-RCommand-R+
cohere-embed.ipynb
Azure AI Inference pakket voor C# C# Verbinden
Azure AI-inferencepakket voor JavaScript Javascript Verbinden
Azure AI-inferentiepakket voor Python Python Verbinden
OpenAI SDK (experimenteel) Python Verbinden
LangChain Python Verbinden
Cohere SDK Python Bevelen
Insluiten
LiteLLM SDK Python Verbinden

Voorbeelden van Retrieval Augmented Generation (RAG) en gebruik van hulpprogramma's: Cohere-command en embedden

Beschrijving Pakketten Voorbeeld
Een lokale FAISS-vectorindex (Facebook AI similarity search) maken met cohere embeddings - Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Cohere Command R/R+ gebruiken om vragen te beantwoorden van gegevens in de lokale FAISS-vectorindex - Langchain langchain, langchain_cohere command_faiss_langchain.ipynb
Cohere Command R/R+ gebruiken om vragen te beantwoorden van gegevens in de AI-zoekvectorindex - Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Cohere Command R/R+ gebruiken om vragen te beantwoorden van gegevens in de AI-zoekvectorindex - Cohere SDK cohere, azure_search_documents cohere-aisearch-rag.ipynb
Commando R+ hulpmiddel of functie oproepen, gebruikmakend van LangChain cohere, langchainlangchain_cohere command_tools-langchain.ipynb

Cohere opnieuw rangschikken

De volgende tabel bevat de cohere-herrankingsmodellen. Als u deductie wilt uitvoeren met deze herrankeringsmodellen, moet u de aangepaste rerank-API's van Cohere gebruiken die in de tabel worden vermeld.

Modelleren Typ Inferentie-API
Cohere-rerank-v3.5 opnieuwrankeren
tekstclassificatie
V2/rerank API van Cohere
Cohere-rerank-v3-english
(verouderd)
opnieuwrankeren
tekstclassificatie
V2/rerank API van Cohere
V1/rerank API van Cohere
Cohere-rerank-v3-meertalige
(verouderd)
opnieuwrankeren
tekstclassificatie
V2/rerank API van Cohere
V1/rerank API van Cohere

Prijzen voor Cohere-herordeneringsmodellen

Query's, niet te verwarren met de query van een gebruiker, is een prijsmeter die verwijst naar de kosten die zijn gekoppeld aan de tokens die worden gebruikt als invoer voor deductie van een Cohere Rerank-model. Cohere telt één zoekeenheid als een query met maximaal 100 documenten die moeten worden gerangschikt. Documenten die langer zijn dan 500 tokens (voor Cohere-rerank-v3.5) of langer dan 4096 tokens (voor Cohere-rerank-v3-English en Cohere-rerank-v3-meertalig) worden, inclusief de lengte van de zoekquery, opgesplitst in meerdere segmenten waarbij elk segment als een afzonderlijk document wordt geteld.

Zie de Cohere-modelcollectie in de Azure AI Foundry-portal.

Core42

Core42 bevat autoregressieve tweetalige LLM's voor Arabisch en Engels met state-of-the-art mogelijkheden in het Arabisch.

Modelleren Typ Capaciteiten
jais-30b-chat chat-afronding - Invoer: tekst (8.192 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON

Bekijk deze modelverzameling in de Azure AI Foundry-portal.

Voorbeelden van inferentie: Core42

Zie de volgende voorbeelden voor meer voorbeelden van het gebruik van Jais-modellen:

Beschrijving Taal Voorbeeld
Azure AI Inference pakket voor C# C# Verbinden
Azure AI-inferencepakket voor JavaScript Javascript Verbinden
Azure AI-inferentiepakket voor Python Python Verbinden

DeepSeek

De DeepSeek-serie modellen bevat DeepSeek-R1, die uitblinkt in redeneringstaken met behulp van een stapsgewijs trainingsproces, zoals taal, wetenschappelijke redenering en coderingstaken, DeepSeek-V3-0324, een Mix-of-Experts-taalmodel (MoE) en meer.

Modelleren Typ Capaciteiten
DeepSeek-R1-0528
chatvoltooiing met redeneringsinhoud - Invoer: tekst (163.840 tokens)
- Uitvoer: tekst (163.840 tokens)
- Talen:en en zh
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
DeekSeek-V3-0324 chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: (131.072 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst, JSON
DeepSeek-V3
(Verouderd)
chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (131.072 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst, JSON
DeepSeek-R1 chatvoltooiing met redeneringsinhoud - Invoer: tekst (163.840 tokens)
- Uitvoer: tekst (163.840 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst.

Zie Zelfstudie: Aan de slag met DeepSeek-R1 redeneringsmodel in Foundry-modellen voor een zelfstudie over DeepSeek-R1.

Bekijk deze modelverzameling in de Azure AI Foundry-portal.

Voorbeelden van inferenties: DeepSeek

Zie de volgende voorbeelden voor meer voorbeelden van het gebruik van DeepSeek-modellen:

Beschrijving Taal Voorbeeld
Azure AI-inferentiepakket voor Python Python Verbinden
Azure AI-inferencepakket voor JavaScript Javascript Verbinden
Azure AI Inference pakket voor C# C# Verbinden
Azure AI-inferencepakket voor Java Java Verbinden

Meta

Meta Llama-modellen en -hulpprogramma's zijn een verzameling vooraf getrainde en verfijnde AI-tekst- en afbeeldingsredenmodellen. Metamodellen variëren in schaal om het volgende te omvatten:

  • Kleine taalmodellen (SLM's) zoals 1B en 3B Base en Instruct-modellen voor inferentie op het apparaat zelf en edge-computing
  • Middelgrote grote taalmodellen (LLM's) zoals 7B, 8B en 70B Base- en Instruct-modellen
  • Krachtige modellen zoals Meta Llama 3.1-405B Instruct voor gebruik bij het genereren en destilleren van synthetische data.
  • Hoogpresterende natuurlijke multimodale modellen, Llama 4 Scout en Llama 4 Maverick, maken gebruik van een architectuur met een mix van experts om toonaangevende prestaties te leveren in tekst- en afbeeldingsbegrip.
Modelleren Typ Capaciteiten
Llama-4-Scout-17B-16E-Instruct chat-afronding - Invoer: tekst en afbeelding (128.000 tokens)
- Uitvoer: tekst (8.192 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Llama 4-Maverick-17B-128E-Instruct-FP8 chat-afronding - Invoer: tekst en afbeelding (128.000 tokens)
- Uitvoer: tekst (8.192 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Llama-3.3-70B-Instruct chat-afronding - Invoer: tekst (128.000 tokens)
- Uitvoer: tekst (8.192 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Llama-3.2-90B-Vision-Instruct chatvoltooiing (met afbeeldingen) - Invoer: tekst en afbeelding (128.000 tokens)
- Uitvoer: tekst (8.192 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Llama-3.2-11B-Vision-Instruct chatvoltooiing (met afbeeldingen) - Invoer: tekst en afbeelding (128.000 tokens)
- Uitvoer: tekst (8.192 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Meta-Llama-3.1-8B-Instruct chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (8.192 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Meta-Llama-3.1-405B-Instruct chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (8.192 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Meta-Llama-3.1-70B-Instruct (afgeschaft) chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (8.192 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Meta-Llama-3-8B-Instruct (afgeschaft) chat-afronding - Invoer: tekst (8.192 tokens)
- Uitvoer: tekst (8.192 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Meta-Llama-3-70B-Instruct (afgeschaft) chat-afronding - Invoer: tekst (8.192 tokens)
- Uitvoer: tekst (8.192 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst

Bekijk deze modelverzameling in de Azure AI Foundry-portal.

Inferentievoorbeelden: Meta Llama

Zie de volgende voorbeelden voor meer voorbeelden van het gebruik van Meta Llama-modellen:

Beschrijving Taal Voorbeeld
CURL-aanvraag Bash (een Unix-shell en programmeertaal) Verbinden
Azure AI Inference pakket voor C# C# Verbinden
Azure AI-inferencepakket voor JavaScript Javascript Verbinden
Azure AI-inferentiepakket voor Python Python Verbinden
Python-webaanvragen Python Verbinden
OpenAI SDK (experimenteel) Python Verbinden
LangChain Python Verbinden
LiteLLM Python Verbinden

Microsoft

Microsoft-modellen omvatten verschillende modelgroepen, zoals MAI-modellen, Phi-modellen, AI-modellen voor gezondheidszorg en meer. Als u alle beschikbare Microsoft-modellen wilt zien, bekijkt u de Microsoft-modelverzameling in de Azure AI Foundry-portal.

Modelleren Typ Capaciteiten
MAI-DS-R1 chatvoltooiing met redeneringsinhoud - Invoer: tekst (163.840 tokens)
- Uitvoer: tekst (163.840 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst.
Phi-4-redenering chatvoltooiing met redeneringsinhoud - Invoer: tekst (32768 tokens)
- Uitvoer: tekst (32768 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-4-mini-reasoning chatvoltooiing met redeneringsinhoud - Invoer: tekst (128.000 tokens)
- Uitvoer: tekst (128.000 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-4-multimodal-instruct chatafhandeling (met afbeeldings- en audio-inhoud) - Invoer: tekst, afbeeldingen en audio (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-4-mini-instruct chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-4 chat-afronding - Invoer: tekst (16.384 tokens)
- Uitvoer: tekst (16.384 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-3.5-mini-instruct chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-3.5-MoE-instruct chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-3.5-vision-instruct chatvoltooiing (met afbeeldingen) - Invoer: tekst en afbeelding (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-3-mini-128k-instruct chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-3-mini-4k-instruct chat-afronding - Invoer: tekst (4.096 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-3-small-128k-instruct chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-3-small-8k-instruct chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-3-medium-128k-instruct chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Phi-3-medium-4k-instruct chat-afronding - Invoer: tekst (4.096 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst

Voorbeelden van inferentie met Microsoft-modellen

Zie de volgende voorbeelden voor meer voorbeelden van het gebruik van Microsoft-modellen:

Beschrijving Taal Voorbeeld
Azure AI Inference pakket voor C# C# Verbinden
Azure AI-inferencepakket voor JavaScript Javascript Verbinden
Azure AI-inferentiepakket voor Python Python Verbinden
LangChain Python Verbinden
Llama-Index Python Verbinden

Zie de Microsoft-modelverzameling in de Azure AI Foundry-portal.

Mistral AI (kunstmatige intelligentie)

Mistral AI biedt twee categorieën modellen, namelijk:

  • Premium-modellen: deze omvatten Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) en Ministral 3B-modellen en zijn beschikbaar als serverloze API's met betalen per gebruik-token gebaseerde facturering.
  • Open modellen: deze omvatten Mistral-small-2503, Codestral en Mistral Nemo (die beschikbaar zijn als serverloze API's met betalen per gebruik-token) en Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 en Mistral-7B-v01 (die beschikbaar zijn om te downloaden en te worden uitgevoerd op zelf-hostende beheerde eindpunten).
Modelleren Typ Capaciteiten
Codestral-2501 chat-afronding - Invoer: tekst (262.144 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst
Ministral-3B chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON
Mistral-Nemo chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON
Mistral-Large-2411 chat-afronding - Invoer: tekst (128.000 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON
Mistral-large-2407
(verouderd)
chat-afronding - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON
Mistral-large
(verouderd)
chat-afronding - Invoer: tekst (32.768 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON
Mistral-medium-2505 chat-afronding - Invoer: tekst (128.000 tokens), afbeelding
- Uitvoer: tekst (128.000 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst, JSON
Mistral-OCR-2503 afbeelding naar tekst - Invoer: afbeeldings- of PDF-pagina's (1000 pagina's, maximaal 50 MB PDF-bestand)
- Uitvoer: tekst
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst, JSON, Markdown
Mistral-small-2503 chatvoltooiing (met afbeeldingen) - Invoer: tekst en afbeeldingen (131.072 tokens),
afbeelding-gebaseerde tokens zijn 16px x 16px
blokken van de oorspronkelijke afbeeldingen
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON
Mistral-small chat-afronding - Invoer: tekst (32.768 tokens)
- Uitvoer: tekst (4.096 tokens)
- Aanroepen van hulpprogramma's: Ja
- Antwoordindelingen: Tekst, JSON

Bekijk deze modelverzameling in de Azure AI Foundry-portal.

Voorbeelden van inferentie: Mistral

Zie de volgende voorbeelden en zelfstudies voor meer voorbeelden van het gebruik van Mistral-modellen:

Beschrijving Taal Voorbeeld
CURL-aanvraag Bash (een Unix-shell en programmeertaal) Verbinden
Azure AI Inference pakket voor C# C# Verbinden
Azure AI-inferencepakket voor JavaScript Javascript Verbinden
Azure AI-inferentiepakket voor Python Python Verbinden
Python-webaanvragen Python Verbinden
OpenAI SDK (experimenteel) Python Mistral - OpenAI SDK-voorbeeld
LangChain Python Mistral - LangChain-voorbeeld
Mistral AI (kunstmatige intelligentie) Python Mistral - Mistral AI-voorbeeld
LiteLLM Python Mistral - LiteLLM-voorbeeld

Nixtla

TimeGEN-1 van Nixtla is een generatief vooraf getraind voorspellend en anomaliedetectiemodel voor tijdreeksgegevens. TimeGEN-1 kan nauwkeurige prognoses produceren voor nieuwe tijdreeksen zonder training, waarbij alleen historische waarden en exogene covariaten als invoer worden gebruikt.

Als u deductie wilt uitvoeren, moet u voor TimeGEN-1 de aangepaste deductie-API van Nixtla gebruiken.

Modelleren Typ Capaciteiten Inferentie-API
TimeGEN-1 Vooruitzichten - Invoer: Tijdreeksgegevens als JSON- of dataframes (met ondersteuning voor multivariate-invoer)
- Uitvoer: Tijdreeksgegevens als JSON
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: JSON
Prognoseclient voor interactie met de API van Nixtla

Het aantal benodigde tokens schatten

Voordat u een TimeGEN-1-implementatie maakt, is het handig om een schatting te maken van het aantal tokens waarvoor u van plan bent te gebruiken en te worden gefactureerd. Eén token komt overeen met één gegevenspunt in uw invoergegevensset of uitvoergegevensset.

Stel dat u de volgende gegevensset voor invoertijdreeksen hebt:

Unique_id Tijdstempel Doelvariabele Exogene variabele 1 Exogene variabele 2
ZIJN 2016-10-22 00:00:00 70.00 49593.0 57253,0
ZIJN 2016-10-22 01:00:00 37.10 46073,0 51887,0

Als u het aantal tokens wilt bepalen, vermenigvuldigt u het aantal rijen (in dit voorbeeld twee) en het aantal kolommen dat wordt gebruikt voor het voorspellen, zonder de kolommen unique_id en tijdstempel mee te rekenen (in dit voorbeeld drie), om zo op een totaal van zes tokens uit te komen.

Gegeven de volgende outputdataset:

Unique_id Tijdstempel Voorspelde doelvariabele
ZIJN 2016-10-22 02:00:00 46.57
ZIJN 2016-10-22 03:00:00 48.57

U kunt ook het aantal tokens bepalen door het aantal geretourneerde gegevenspunten te tellen na gegevensprognose. In dit voorbeeld is het aantal tokens twee.

Prijzen schatten op basis van tokens

Er zijn vier prijsmeters die de prijs bepalen die u betaalt. Deze meters zijn als volgt:

Prijs Meter Beschrijving
paygo-inference-invoertokens Kosten die zijn gekoppeld aan de tokens die worden gebruikt als invoer voor inferentie wanneer finetune_steps = 0
paygo-inferentie-uitvoer-tokens Kosten verbonden aan de tokens die worden gebruikt als uitvoer voor inferentie wanneer finetune_steps = 0
paygo-fijn-afgestemd-model-inferentie-invoertokens Kosten die verbonden zijn met de tokens die als invoer voor inferentie worden gebruikt wanneer finetune_steps> 0
paygo-fijngetunede-model-inferentie-uitvoer-tokens Kosten die zijn gekoppeld aan de tokens die worden gebruikt voor de uitvoer van inferentie bij finetune_steps> 0

Zie de Nixtla-modelverzameling op de Azure AI Foundry-portal.

NTT DATA

tsuzumi is een voor autoregressieve taal geoptimaliseerde transformator. De afgestemde versies maken gebruik van SFT (Fine-Tuning onder supervisie). tsuzumi verwerkt zowel Japanse als Engelse taal met hoge efficiëntie.

Modelleren Typ Capaciteiten
tsuzumi-7b chat-afronding - Invoer: tekst (8.192 tokens)
- Uitvoer: tekst (8.192 tokens)
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Tekst

Ai voor stabiliteit

De Stabiliteit AI-verzameling van modellen voor het genereren van afbeeldingen omvat Stable Image Core, Stable Image Ultra en Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large maakt invoer van afbeelding en tekst mogelijk.

Modelleren Typ Capaciteiten
Stable Diffusion 3.5 Groot Afbeeldingsgeneratie - Invoer: tekst en afbeelding (1000 tokens en 1 afbeelding)
- Uitvoer: 1 afbeelding
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Afbeelding (PNG en JPG)
Stabiele afbeeldingskern Afbeeldingsgeneratie - Invoer: tekst (1000 tokens)
- Uitvoer: 1 afbeelding
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Afbeelding (PNG en JPG)
Stabiele Afbeelding Ultra Afbeeldingsgeneratie - Invoer: tekst (1000 tokens)
- Uitvoer: 1 afbeelding
- Aanroepen van hulpprogramma's: Nee
- Antwoordindelingen: Afbeelding (PNG en JPG)

xAI

de Grok 3- en Grok 3 Mini-modellen van xAI zijn ontworpen om te excelleren in verschillende bedrijfsdomeinen. Grok 3, een niet-redenerend model dat vooraf is getraind door het Kolossus-datacenter, is afgestemd op zakelijke gebruiksvoorbeelden, zoals gegevensextractie, codering en samenvatting van tekst, met uitzonderlijke instructievolgmogelijkheden. Het biedt ondersteuning voor een contextvenster van 131.072 token, zodat het uitgebreide invoer kan verwerken terwijl de samenhang en diepte behouden blijven en vooral goed is in het tekenen van verbindingen tussen domeinen en talen. Aan de andere kant is Grok 3 Mini een lichtgewicht redeneringsmodel dat is getraind om agentische, coderings-, wiskundige en deep science-problemen met testtijd berekenen aan te pakken. Het biedt ook ondersteuning voor een contextvenster van 131.072 token voor inzicht in codebases en zakelijke documenten en excelt in het gebruik van hulpprogramma's om complexe logische problemen in nieuwe omgevingen op te lossen, met onbewerkte redeneringstraceringen voor gebruikersinspectie met aanpasbare denkbudgetten.

Modelleren Typ Capaciteiten
grok-3 chatafhandeling - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (131.072 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst
grok-3-mini chatafhandeling - Invoer: tekst (131.072 tokens)
- Uitvoer: tekst (131.072 tokens)
- Talen:en
- Aanroepen van hulpprogramma' s: ja
- Antwoordindelingen: tekst

Voorbeelden van conclusies: Stability AI

Stability AI-modellen die via serverloze API zijn geïmplementeerd voeren de Modelinference-API uit op de route /image/generations. Zie de volgende voorbeelden voor voorbeelden van het gebruik van AI-modellen voor stabiliteit: