Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
De Azure AI-modelcatalogus biedt een grote selectie Van Azure AI Foundry-modellen van een breed scala aan providers. U hebt verschillende opties voor het implementeren van modellen uit de modelcatalogus. In dit artikel vindt u een overzicht van Azure AI Foundry-modellen die kunnen worden geïmplementeerd via serverloze API-implementatie. Voor sommige van deze modellen kunt u deze ook hosten op uw infrastructuur voor implementatie via beheerde berekeningen.
Belangrijk
Modellen die in preview zijn, worden gemarkeerd als voorbeeld op hun modelkaarten in de modelcatalogus.
Om met de modellen inferentie uit te voeren, vereisen sommige modellen, zoals TimeGEN-1 van Nixtla en Cohere rerank, het gebruik van aangepaste API's van de modelproviders. Anderen ondersteunen deductie met behulp van de ModelDeductie-API. U vindt meer informatie over afzonderlijke modellen door hun modelkaarten te bekijken in de modelcatalogus voor Azure AI Foundry Portal.
AI21 Labs
De Jamba-familie modellen zijn productieklare Mamba-gebaseerde grote taalmodellen (LLM) die gebruikmaken van de hybride Mamba-Transformer-architectuur van AI21. Het is een op instructies afgestemde versie van AI21's hybride gestructureerd toestandruimtemodel (SSM) transformer Jamba-model. De Jamba family modellen zijn gebouwd voor betrouwbaar commercieel gebruik met betrekking tot kwaliteit en prestaties.
Modelleren | Typ | Capaciteiten |
---|---|---|
AI21-Jamba-1.5-Mini | chat-afronding |
-
Invoer: tekst (262.144 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer |
AI21-Jamba-1.5-Large | chat-afronding |
-
Invoer: tekst (262.144 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer |
Bekijk deze modelverzameling in de Azure AI Foundry-portal.
Azure OpenAI
Azure OpenAI in Foundry Models biedt een diverse set modellen met verschillende mogelijkheden en prijspunten. Deze modellen zijn onder andere:
- Geavanceerde modellen die zijn ontworpen om redenerings- en probleemoplossingstaken aan te pakken met meer focus en mogelijkheden
- Modellen die natuurlijke taal en code kunnen begrijpen en genereren
- Modellen die spraak naar tekst kunnen transcriberen en vertalen
Modelleren | Typ | Capaciteiten |
---|---|---|
o3-mini | chat-afronding |
-
Invoer: tekst en afbeelding (200.000 tokens) - Uitvoer: tekst (100.000 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer |
o1 | chatvoltooiing (met afbeeldingen) |
-
Invoer: tekst en afbeelding (200.000 tokens) - Uitvoer: tekst (100.000 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer |
o1-preview | chat-afronding |
-
Invoer: tekst (128.000 tokens) - Uitvoer: tekst (32.768 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer |
o1-mini | chat-afronding |
-
Invoer: tekst (128.000 tokens) - Uitvoer: tekst (65.536 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
gpt-4o-realtime-preview | realtime |
-
Invoer: besturingselement, tekst en audio (131.072 tokens) - Uitvoer: tekst en audio (16.384 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
gpt-4o | chatafhandeling (met afbeeldings- en audio-inhoud) |
-
Invoer: tekst, afbeelding en audio (131.072 tokens) - Uitvoer: tekst (16.384 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer |
gpt-4o-mini | chatafhandeling (met afbeeldings- en audio-inhoud) |
-
Invoer: tekst, afbeelding en audio (131.072 tokens) - Uitvoer: tekst (16.384 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON, gestructureerde uitvoer |
tekst-insluiten-3-groot | insluitingen |
-
Invoer: tekst (8.191 tokens) - Uitvoer: Vector (3,072 dim.) |
tekst-insluiten-3-klein | insluitingen |
-
Invoer: tekst (8.191 tokens) - Uitvoer: Vector (1.536 dimensies) |
Bekijk deze modelverzameling in de Azure AI Foundry-portal.
Cohere
De cohere-serie modellen bevat verschillende modellen die zijn geoptimaliseerd voor verschillende gebruiksvoorbeelden, waaronder herrankering, chatvoltooiingen en insluitingsmodellen.
Cohere-opdracht en inbedden
De volgende tabel bevat de Cohere-modellen die u kunt infereren via de Modelinference-API.
Modelleren | Typ | Capaciteiten |
---|---|---|
Cohere-command-A | chat-afronding |
-
Invoer: tekst (256.000 tokens) - Uitvoer: tekst (8.000 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst |
" Cohere-command-r-plus-08-2024 | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
Cohere-command-r-08-2024 | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
Cohere-command-r-plus (verouderd) |
chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
Cohere-command-r (verouderd) |
chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
Cohere-embed-v-4 |
insluitingen afbeeldingen insluiten |
-
Invoer: afbeelding, tekst - Uitvoer: afbeelding, tekst (128.000 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: afbeelding, tekst |
Cohere-embed-v3-english |
insluitingen afbeeldingen insluiten |
-
Invoer: tekst (512 tokens) - Uitvoer: Vector (1.024 dim.) |
Cohere-embed-v3-meertalige |
insluitingen afbeeldingen insluiten |
-
Invoer: tekst (512 tokens) - Uitvoer: Vector (1.024 dim.) |
Voorbeelden van inferentie: commando Cohere en embedding
Zie de volgende voorbeelden voor meer voorbeelden van het gebruik van Cohere-modellen:
Beschrijving | Taal | Voorbeeld |
---|---|---|
Webaanvragen | Bash (een Unix-shell en programmeertaal) |
Command-RCommand-R+ cohere-embed.ipynb |
Azure AI Inference pakket voor C# | C# | Verbinden |
Azure AI-inferencepakket voor JavaScript | Javascript | Verbinden |
Azure AI-inferentiepakket voor Python | Python | Verbinden |
OpenAI SDK (experimenteel) | Python | Verbinden |
LangChain | Python | Verbinden |
Cohere SDK | Python |
Bevelen Insluiten |
LiteLLM SDK | Python | Verbinden |
Voorbeelden van Retrieval Augmented Generation (RAG) en gebruik van hulpprogramma's: Cohere-command en embedden
Beschrijving | Pakketten | Voorbeeld |
---|---|---|
Een lokale FAISS-vectorindex (Facebook AI similarity search) maken met cohere embeddings - Langchain |
langchain , langchain_cohere |
cohere_faiss_langchain_embed.ipynb |
Cohere Command R/R+ gebruiken om vragen te beantwoorden van gegevens in de lokale FAISS-vectorindex - Langchain |
langchain , langchain_cohere |
command_faiss_langchain.ipynb |
Cohere Command R/R+ gebruiken om vragen te beantwoorden van gegevens in de AI-zoekvectorindex - Langchain |
langchain , langchain_cohere |
cohere-aisearch-langchain-rag.ipynb |
Cohere Command R/R+ gebruiken om vragen te beantwoorden van gegevens in de AI-zoekvectorindex - Cohere SDK |
cohere , azure_search_documents |
cohere-aisearch-rag.ipynb |
Commando R+ hulpmiddel of functie oproepen, gebruikmakend van LangChain |
cohere , langchain langchain_cohere |
command_tools-langchain.ipynb |
Cohere opnieuw rangschikken
De volgende tabel bevat de cohere-herrankingsmodellen. Als u deductie wilt uitvoeren met deze herrankeringsmodellen, moet u de aangepaste rerank-API's van Cohere gebruiken die in de tabel worden vermeld.
Modelleren | Typ | Inferentie-API |
---|---|---|
Cohere-rerank-v3.5 | opnieuwrankeren tekstclassificatie |
V2/rerank API van Cohere |
Cohere-rerank-v3-english (verouderd) |
opnieuwrankeren tekstclassificatie |
V2/rerank API van Cohere V1/rerank API van Cohere |
Cohere-rerank-v3-meertalige (verouderd) |
opnieuwrankeren tekstclassificatie |
V2/rerank API van Cohere V1/rerank API van Cohere |
Prijzen voor Cohere-herordeneringsmodellen
Query's, niet te verwarren met de query van een gebruiker, is een prijsmeter die verwijst naar de kosten die zijn gekoppeld aan de tokens die worden gebruikt als invoer voor deductie van een Cohere Rerank-model. Cohere telt één zoekeenheid als een query met maximaal 100 documenten die moeten worden gerangschikt. Documenten die langer zijn dan 500 tokens (voor Cohere-rerank-v3.5) of langer dan 4096 tokens (voor Cohere-rerank-v3-English en Cohere-rerank-v3-meertalig) worden, inclusief de lengte van de zoekquery, opgesplitst in meerdere segmenten waarbij elk segment als een afzonderlijk document wordt geteld.
Zie de Cohere-modelcollectie in de Azure AI Foundry-portal.
Core42
Core42 bevat autoregressieve tweetalige LLM's voor Arabisch en Engels met state-of-the-art mogelijkheden in het Arabisch.
Modelleren | Typ | Capaciteiten |
---|---|---|
jais-30b-chat | chat-afronding |
-
Invoer: tekst (8.192 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
Bekijk deze modelverzameling in de Azure AI Foundry-portal.
Voorbeelden van inferentie: Core42
Zie de volgende voorbeelden voor meer voorbeelden van het gebruik van Jais-modellen:
Beschrijving | Taal | Voorbeeld |
---|---|---|
Azure AI Inference pakket voor C# | C# | Verbinden |
Azure AI-inferencepakket voor JavaScript | Javascript | Verbinden |
Azure AI-inferentiepakket voor Python | Python | Verbinden |
DeepSeek
De DeepSeek-serie modellen bevat DeepSeek-R1, die uitblinkt in redeneringstaken met behulp van een stapsgewijs trainingsproces, zoals taal, wetenschappelijke redenering en coderingstaken, DeepSeek-V3-0324, een Mix-of-Experts-taalmodel (MoE) en meer.
Modelleren | Typ | Capaciteiten |
---|---|---|
DeepSeek-R1-0528 |
chatvoltooiing met redeneringsinhoud |
-
Invoer: tekst (163.840 tokens) - Uitvoer: tekst (163.840 tokens) - Talen: en en zh - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
DeekSeek-V3-0324 | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: (131.072 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst, JSON |
DeepSeek-V3 (Verouderd) |
chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (131.072 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst, JSON |
DeepSeek-R1 | chatvoltooiing met redeneringsinhoud |
-
Invoer: tekst (163.840 tokens) - Uitvoer: tekst (163.840 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst. |
Zie Zelfstudie: Aan de slag met DeepSeek-R1 redeneringsmodel in Foundry-modellen voor een zelfstudie over DeepSeek-R1.
Bekijk deze modelverzameling in de Azure AI Foundry-portal.
Voorbeelden van inferenties: DeepSeek
Zie de volgende voorbeelden voor meer voorbeelden van het gebruik van DeepSeek-modellen:
Beschrijving | Taal | Voorbeeld |
---|---|---|
Azure AI-inferentiepakket voor Python | Python | Verbinden |
Azure AI-inferencepakket voor JavaScript | Javascript | Verbinden |
Azure AI Inference pakket voor C# | C# | Verbinden |
Azure AI-inferencepakket voor Java | Java | Verbinden |
Meta
Meta Llama-modellen en -hulpprogramma's zijn een verzameling vooraf getrainde en verfijnde AI-tekst- en afbeeldingsredenmodellen. Metamodellen variëren in schaal om het volgende te omvatten:
- Kleine taalmodellen (SLM's) zoals 1B en 3B Base en Instruct-modellen voor inferentie op het apparaat zelf en edge-computing
- Middelgrote grote taalmodellen (LLM's) zoals 7B, 8B en 70B Base- en Instruct-modellen
- Krachtige modellen zoals Meta Llama 3.1-405B Instruct voor gebruik bij het genereren en destilleren van synthetische data.
- Hoogpresterende natuurlijke multimodale modellen, Llama 4 Scout en Llama 4 Maverick, maken gebruik van een architectuur met een mix van experts om toonaangevende prestaties te leveren in tekst- en afbeeldingsbegrip.
Modelleren | Typ | Capaciteiten |
---|---|---|
Llama-4-Scout-17B-16E-Instruct | chat-afronding |
-
Invoer: tekst en afbeelding (128.000 tokens) - Uitvoer: tekst (8.192 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Llama 4-Maverick-17B-128E-Instruct-FP8 | chat-afronding |
-
Invoer: tekst en afbeelding (128.000 tokens) - Uitvoer: tekst (8.192 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Llama-3.3-70B-Instruct | chat-afronding |
-
Invoer: tekst (128.000 tokens) - Uitvoer: tekst (8.192 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Llama-3.2-90B-Vision-Instruct | chatvoltooiing (met afbeeldingen) |
-
Invoer: tekst en afbeelding (128.000 tokens) - Uitvoer: tekst (8.192 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Llama-3.2-11B-Vision-Instruct | chatvoltooiing (met afbeeldingen) |
-
Invoer: tekst en afbeelding (128.000 tokens) - Uitvoer: tekst (8.192 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Meta-Llama-3.1-8B-Instruct | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (8.192 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Meta-Llama-3.1-405B-Instruct | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (8.192 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Meta-Llama-3.1-70B-Instruct (afgeschaft) | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (8.192 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Meta-Llama-3-8B-Instruct (afgeschaft) | chat-afronding |
-
Invoer: tekst (8.192 tokens) - Uitvoer: tekst (8.192 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Meta-Llama-3-70B-Instruct (afgeschaft) | chat-afronding |
-
Invoer: tekst (8.192 tokens) - Uitvoer: tekst (8.192 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Bekijk deze modelverzameling in de Azure AI Foundry-portal.
Inferentievoorbeelden: Meta Llama
Zie de volgende voorbeelden voor meer voorbeelden van het gebruik van Meta Llama-modellen:
Beschrijving | Taal | Voorbeeld |
---|---|---|
CURL-aanvraag | Bash (een Unix-shell en programmeertaal) | Verbinden |
Azure AI Inference pakket voor C# | C# | Verbinden |
Azure AI-inferencepakket voor JavaScript | Javascript | Verbinden |
Azure AI-inferentiepakket voor Python | Python | Verbinden |
Python-webaanvragen | Python | Verbinden |
OpenAI SDK (experimenteel) | Python | Verbinden |
LangChain | Python | Verbinden |
LiteLLM | Python | Verbinden |
Microsoft
Microsoft-modellen omvatten verschillende modelgroepen, zoals MAI-modellen, Phi-modellen, AI-modellen voor gezondheidszorg en meer. Als u alle beschikbare Microsoft-modellen wilt zien, bekijkt u de Microsoft-modelverzameling in de Azure AI Foundry-portal.
Modelleren | Typ | Capaciteiten |
---|---|---|
MAI-DS-R1 | chatvoltooiing met redeneringsinhoud |
-
Invoer: tekst (163.840 tokens) - Uitvoer: tekst (163.840 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst. |
Phi-4-redenering | chatvoltooiing met redeneringsinhoud |
-
Invoer: tekst (32768 tokens) - Uitvoer: tekst (32768 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-4-mini-reasoning | chatvoltooiing met redeneringsinhoud |
-
Invoer: tekst (128.000 tokens) - Uitvoer: tekst (128.000 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-4-multimodal-instruct | chatafhandeling (met afbeeldings- en audio-inhoud) |
-
Invoer: tekst, afbeeldingen en audio (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-4-mini-instruct | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-4 | chat-afronding |
-
Invoer: tekst (16.384 tokens) - Uitvoer: tekst (16.384 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-3.5-mini-instruct | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-3.5-MoE-instruct | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-3.5-vision-instruct | chatvoltooiing (met afbeeldingen) |
-
Invoer: tekst en afbeelding (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-3-mini-128k-instruct | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-3-mini-4k-instruct | chat-afronding |
-
Invoer: tekst (4.096 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-3-small-128k-instruct | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-3-small-8k-instruct | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-3-medium-128k-instruct | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Phi-3-medium-4k-instruct | chat-afronding |
-
Invoer: tekst (4.096 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Voorbeelden van inferentie met Microsoft-modellen
Zie de volgende voorbeelden voor meer voorbeelden van het gebruik van Microsoft-modellen:
Beschrijving | Taal | Voorbeeld |
---|---|---|
Azure AI Inference pakket voor C# | C# | Verbinden |
Azure AI-inferencepakket voor JavaScript | Javascript | Verbinden |
Azure AI-inferentiepakket voor Python | Python | Verbinden |
LangChain | Python | Verbinden |
Llama-Index | Python | Verbinden |
Zie de Microsoft-modelverzameling in de Azure AI Foundry-portal.
Mistral AI (kunstmatige intelligentie)
Mistral AI biedt twee categorieën modellen, namelijk:
- Premium-modellen: deze omvatten Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) en Ministral 3B-modellen en zijn beschikbaar als serverloze API's met betalen per gebruik-token gebaseerde facturering.
- Open modellen: deze omvatten Mistral-small-2503, Codestral en Mistral Nemo (die beschikbaar zijn als serverloze API's met betalen per gebruik-token) en Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 en Mistral-7B-v01 (die beschikbaar zijn om te downloaden en te worden uitgevoerd op zelf-hostende beheerde eindpunten).
Modelleren | Typ | Capaciteiten |
---|---|---|
Codestral-2501 | chat-afronding |
-
Invoer: tekst (262.144 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Ministral-3B | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
Mistral-Nemo | chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
Mistral-Large-2411 | chat-afronding |
-
Invoer: tekst (128.000 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
Mistral-large-2407 (verouderd) |
chat-afronding |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
Mistral-large (verouderd) |
chat-afronding |
-
Invoer: tekst (32.768 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
Mistral-medium-2505 | chat-afronding |
-
Invoer: tekst (128.000 tokens), afbeelding - Uitvoer: tekst (128.000 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst, JSON |
Mistral-OCR-2503 | afbeelding naar tekst |
-
Invoer: afbeeldings- of PDF-pagina's (1000 pagina's, maximaal 50 MB PDF-bestand) - Uitvoer: tekst - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst, JSON, Markdown |
Mistral-small-2503 | chatvoltooiing (met afbeeldingen) |
-
Invoer: tekst en afbeeldingen (131.072 tokens), afbeelding-gebaseerde tokens zijn 16px x 16px blokken van de oorspronkelijke afbeeldingen - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
Mistral-small | chat-afronding |
-
Invoer: tekst (32.768 tokens) - Uitvoer: tekst (4.096 tokens) - Aanroepen van hulpprogramma's: Ja - Antwoordindelingen: Tekst, JSON |
Bekijk deze modelverzameling in de Azure AI Foundry-portal.
Voorbeelden van inferentie: Mistral
Zie de volgende voorbeelden en zelfstudies voor meer voorbeelden van het gebruik van Mistral-modellen:
Beschrijving | Taal | Voorbeeld |
---|---|---|
CURL-aanvraag | Bash (een Unix-shell en programmeertaal) | Verbinden |
Azure AI Inference pakket voor C# | C# | Verbinden |
Azure AI-inferencepakket voor JavaScript | Javascript | Verbinden |
Azure AI-inferentiepakket voor Python | Python | Verbinden |
Python-webaanvragen | Python | Verbinden |
OpenAI SDK (experimenteel) | Python | Mistral - OpenAI SDK-voorbeeld |
LangChain | Python | Mistral - LangChain-voorbeeld |
Mistral AI (kunstmatige intelligentie) | Python | Mistral - Mistral AI-voorbeeld |
LiteLLM | Python | Mistral - LiteLLM-voorbeeld |
Nixtla
TimeGEN-1 van Nixtla is een generatief vooraf getraind voorspellend en anomaliedetectiemodel voor tijdreeksgegevens. TimeGEN-1 kan nauwkeurige prognoses produceren voor nieuwe tijdreeksen zonder training, waarbij alleen historische waarden en exogene covariaten als invoer worden gebruikt.
Als u deductie wilt uitvoeren, moet u voor TimeGEN-1 de aangepaste deductie-API van Nixtla gebruiken.
Modelleren | Typ | Capaciteiten | Inferentie-API |
---|---|---|---|
TimeGEN-1 | Vooruitzichten |
-
Invoer: Tijdreeksgegevens als JSON- of dataframes (met ondersteuning voor multivariate-invoer) - Uitvoer: Tijdreeksgegevens als JSON - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: JSON |
Prognoseclient voor interactie met de API van Nixtla |
Het aantal benodigde tokens schatten
Voordat u een TimeGEN-1-implementatie maakt, is het handig om een schatting te maken van het aantal tokens waarvoor u van plan bent te gebruiken en te worden gefactureerd. Eén token komt overeen met één gegevenspunt in uw invoergegevensset of uitvoergegevensset.
Stel dat u de volgende gegevensset voor invoertijdreeksen hebt:
Unique_id | Tijdstempel | Doelvariabele | Exogene variabele 1 | Exogene variabele 2 |
---|---|---|---|---|
ZIJN | 2016-10-22 00:00:00 | 70.00 | 49593.0 | 57253,0 |
ZIJN | 2016-10-22 01:00:00 | 37.10 | 46073,0 | 51887,0 |
Als u het aantal tokens wilt bepalen, vermenigvuldigt u het aantal rijen (in dit voorbeeld twee) en het aantal kolommen dat wordt gebruikt voor het voorspellen, zonder de kolommen unique_id en tijdstempel mee te rekenen (in dit voorbeeld drie), om zo op een totaal van zes tokens uit te komen.
Gegeven de volgende outputdataset:
Unique_id | Tijdstempel | Voorspelde doelvariabele |
---|---|---|
ZIJN | 2016-10-22 02:00:00 | 46.57 |
ZIJN | 2016-10-22 03:00:00 | 48.57 |
U kunt ook het aantal tokens bepalen door het aantal geretourneerde gegevenspunten te tellen na gegevensprognose. In dit voorbeeld is het aantal tokens twee.
Prijzen schatten op basis van tokens
Er zijn vier prijsmeters die de prijs bepalen die u betaalt. Deze meters zijn als volgt:
Prijs Meter | Beschrijving |
---|---|
paygo-inference-invoertokens | Kosten die zijn gekoppeld aan de tokens die worden gebruikt als invoer voor inferentie wanneer finetune_steps = 0 |
paygo-inferentie-uitvoer-tokens | Kosten verbonden aan de tokens die worden gebruikt als uitvoer voor inferentie wanneer finetune_steps = 0 |
paygo-fijn-afgestemd-model-inferentie-invoertokens | Kosten die verbonden zijn met de tokens die als invoer voor inferentie worden gebruikt wanneer finetune_steps> 0 |
paygo-fijngetunede-model-inferentie-uitvoer-tokens | Kosten die zijn gekoppeld aan de tokens die worden gebruikt voor de uitvoer van inferentie bij finetune_steps> 0 |
Zie de Nixtla-modelverzameling op de Azure AI Foundry-portal.
NTT DATA
tsuzumi is een voor autoregressieve taal geoptimaliseerde transformator. De afgestemde versies maken gebruik van SFT (Fine-Tuning onder supervisie). tsuzumi verwerkt zowel Japanse als Engelse taal met hoge efficiëntie.
Modelleren | Typ | Capaciteiten |
---|---|---|
tsuzumi-7b | chat-afronding |
-
Invoer: tekst (8.192 tokens) - Uitvoer: tekst (8.192 tokens) - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Tekst |
Ai voor stabiliteit
De Stabiliteit AI-verzameling van modellen voor het genereren van afbeeldingen omvat Stable Image Core, Stable Image Ultra en Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large maakt invoer van afbeelding en tekst mogelijk.
Modelleren | Typ | Capaciteiten |
---|---|---|
Stable Diffusion 3.5 Groot | Afbeeldingsgeneratie |
-
Invoer: tekst en afbeelding (1000 tokens en 1 afbeelding) - Uitvoer: 1 afbeelding - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Afbeelding (PNG en JPG) |
Stabiele afbeeldingskern | Afbeeldingsgeneratie |
-
Invoer: tekst (1000 tokens) - Uitvoer: 1 afbeelding - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Afbeelding (PNG en JPG) |
Stabiele Afbeelding Ultra | Afbeeldingsgeneratie |
-
Invoer: tekst (1000 tokens) - Uitvoer: 1 afbeelding - Aanroepen van hulpprogramma's: Nee - Antwoordindelingen: Afbeelding (PNG en JPG) |
xAI
de Grok 3- en Grok 3 Mini-modellen van xAI zijn ontworpen om te excelleren in verschillende bedrijfsdomeinen. Grok 3, een niet-redenerend model dat vooraf is getraind door het Kolossus-datacenter, is afgestemd op zakelijke gebruiksvoorbeelden, zoals gegevensextractie, codering en samenvatting van tekst, met uitzonderlijke instructievolgmogelijkheden. Het biedt ondersteuning voor een contextvenster van 131.072 token, zodat het uitgebreide invoer kan verwerken terwijl de samenhang en diepte behouden blijven en vooral goed is in het tekenen van verbindingen tussen domeinen en talen. Aan de andere kant is Grok 3 Mini een lichtgewicht redeneringsmodel dat is getraind om agentische, coderings-, wiskundige en deep science-problemen met testtijd berekenen aan te pakken. Het biedt ook ondersteuning voor een contextvenster van 131.072 token voor inzicht in codebases en zakelijke documenten en excelt in het gebruik van hulpprogramma's om complexe logische problemen in nieuwe omgevingen op te lossen, met onbewerkte redeneringstraceringen voor gebruikersinspectie met aanpasbare denkbudgetten.
Modelleren | Typ | Capaciteiten |
---|---|---|
grok-3 | chatafhandeling |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (131.072 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
grok-3-mini | chatafhandeling |
-
Invoer: tekst (131.072 tokens) - Uitvoer: tekst (131.072 tokens) - Talen: en - Aanroepen van hulpprogramma' s: ja - Antwoordindelingen: tekst |
Voorbeelden van conclusies: Stability AI
Stability AI-modellen die via serverloze API zijn geïmplementeerd voeren de Modelinference-API uit op de route /image/generations
.
Zie de volgende voorbeelden voor voorbeelden van het gebruik van AI-modellen voor stabiliteit:
- OpenAI SDK gebruiken met AI-modellen voor stabiliteit voor tekst-naar-afbeeldingsaanvragen
- Use Requests-bibliotheek met Stability AI-modellen voor tekst-naar-afbeeldingsaanvragen
- Gebruik de Requests-bibliotheek met Stable Diffusion 3.5 Large voor beeld-naar-beeld aanvragen
- Voorbeeld van een volledig gecodeerd antwoord voor het genereren van afbeeldingen