Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Azure AI-modellkatalogen erbjuder ett stort urval av modeller från en mängd olika leverantörer. Du har olika alternativ för att distribuera modeller från modellkatalogen. Den här artikeln innehåller aktuella modeller i modellkatalogen som kan distribueras och hanteras på Microsofts servrar via standarddistributioner. För vissa av dessa modeller kan du också installera dem på din infrastruktur för distribution via hanterad datorkapacitet. Se Tillgängliga modeller för distributionsalternativ som stöds för att hitta modeller i katalogen som är tillgängliga för distribution via hanterad beräkning eller standarddistribution.
För att utföra slutsatsdragning med modellerna kräver vissa modeller som Nixtlas TimeGEN-1 - och Cohere-rerank att du använder anpassade API:er från modellprovidrar. Andra stöder slutsatsdragning med hjälp av Azure AI-modellinferens. Du hittar mer information om enskilda modeller genom att granska deras modellkort i Azure AI-modellkatalogen.
AI21 Labs
Jamba-familjemodellerna är AI21:s Mamba-baserade modell för stora språk i produktionsklass (LLM) som använder AI21:s hybridarkitektur Mamba-Transformer. Det är en instruktionsanpassad version av AI21:s hybridstrukturerade tillståndsrumsmodell (SSM) transformermodell Jamba. Jamba-familjemodellerna är byggda för tillförlitlig kommersiell användning med avseende på kvalitet och prestanda.
Modell | Typ | Förmågor |
---|---|---|
AI21-Jamba-1.5-Mini | chatten har slutförts |
-
Indata: text (262 144 token) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON, strukturerade utdata |
AI21-Jamba-1.5-Large | chatten har slutförts |
-
Indata: text (262 144 token) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON, strukturerade utdata |
Se den här modellsamlingen i Azure AI-modellkatalogen.
Azure OpenAI
Azure OpenAI i Azure AI Foundry Models erbjuder en mängd olika modeller med olika funktioner och prispunkter. Dessa modeller omfattar:
- Toppmoderna modeller som utformats för att hantera resonemang och problemlösningsuppgifter med ökat fokus och ökad kapacitet
- Modeller som kan förstå och generera naturligt språk och kod
- Modeller som kan transkribera och översätta tal till text
Modell | Typ | Förmågor |
---|---|---|
o3-mini | chatten har slutförts |
-
Indata: text och bild (200 000 tokens) - Utdata: text (100 000 token) - Verktygsanrop: Ja - Svarsformat: Text, JSON, strukturerade utdata |
o1 | chat-completion (med bilder) |
-
Indata: text och bild (200 000 tokens) - Utdata: text (100 000 token) - Verktygsanrop: Ja - Svarsformat: Text, JSON, strukturerade utdata |
o1-preview | chatten har slutförts |
-
Indata: text (128 000 token) - Utdata: text (32 768 token) - Verktygsanrop: Ja - Svarsformat: Text, JSON, strukturerade utdata |
o1-mini | chatten har slutförts |
-
Indata: text (128 000 token) - Utdata: text (65 536 token) - Verktygsanrop: Nej - Svarsformat: Text |
gpt-4o-realtime-preview | realtid |
-
Indata: kontroll, text och ljud (131 072 token) - Utdata: text och ljud (16 384 token) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
gpt-4o | chat-komplettering med bild- och ljudinnehåll |
-
Indata: text, bild och ljud (131 072 tokens) - Utdata: text (16 384 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON, strukturerade utdata |
gpt-4o-mini | chat-komplettering med bild- och ljudinnehåll |
-
Indata: text, bild och ljud (131 072 tokens) - Utdata: text (16 384 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON, strukturerade utdata |
text-inbäddning-3-stor | inbäddningar |
-
Indata: text (8 191 tokens) - Utdata: Vektor (3 072 dim.) |
text-embedding-3-small | inbäddningar |
-
Indata: text (8 191 tokens) - Utdata: Vektor (1 536 dim.) |
Se den här modellsamlingen i Azure AI-modellkatalogen.
Sammanhållning
Cohere-serien med modeller innehåller olika modeller som är optimerade för olika användningsfall, inklusive rerank, chattavslut och inbäddningsmodeller.
Cohere-kommandot och inbäddning
I följande tabell visas de cohere-modeller som du kan dra slutsatser om via Azure AI-modellens slutsatsdragning.
Modell | Typ | Förmågor |
---|---|---|
Cohere-command-A | chatten har slutförts |
-
Indata: text (256 000 token) - Utdata: text (8 000 token) - Verktygsanrop: Ja - Svarsformat: Text |
Cohere-command-r-plus-08-2024 | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Cohere-command-r-08-2024 | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Cohere-command-r-plus (inaktuell) |
chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Cohere-command-r (inaktuell) |
chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Cohere-embed-4 |
inbäddningar image-embeddings |
-
Indata: bild, text - Utdata: bild, text (128 000 tokens) - Verktygsanrop: Ja - Svarsformat: bild, text |
Cohere-embed-v3-english |
inbäddningar image-embeddings |
-
Indata: text (512 tokens) - Utdata: Vektor (1 024 dim.) |
Cohere-embed-v3-multilingual |
inbäddningar image-embeddings |
-
Indata: text (512 tokens) - Utdata: Vektor (1 024 dim.) |
Slutsatsdragningsexempel: Cohere-kommando och inbäddning
Fler exempel på hur du använder Cohere-modeller finns i följande exempel:
Beskrivning | Språk | Exempel |
---|---|---|
webbförfrågningar | Våldsamt slag |
Command-RCommand-R+ cohere-embed.ipynb |
Azure AI-slutsatsdragningspaket för C# | C# | Länk |
Azure AI-slutsatsdragningspaket för JavaScript | JavaScript | Länk |
Azure AI-slutsatsdragningspaket för Python | python | Länk |
OpenAI SDK (experimentell) | python | Länk |
LangChain | python | Länk |
Cohere SDK | python |
Befallning Inbädda |
LiteLLM SDK | python | Länk |
Hämtningsförstärkt generering (RAG) och verktygsanvändnings-exempel: Cohere-kommando och inbäddning
Beskrivning | Paket | Exempel |
---|---|---|
Skapa ett vektorindex för lokal Facebook AI-likhetssökning (FAISS) med hjälp av cohere-inbäddningar – Langchain |
langchain , langchain_cohere |
cohere_faiss_langchain_embed.ipynb |
Använd Cohere Command R/R+ för att besvara frågor från data i det lokala FAISS-vektorindexet – Langchain |
langchain , langchain_cohere |
command_faiss_langchain.ipynb |
Använd Cohere Command R/R+ för att besvara frågor från data i AI-sökvektorindex – Langchain |
langchain , langchain_cohere |
cohere-aisearch-langchain-rag.ipynb |
Använd Cohere Command R/R+ för att besvara frågor från data i AI-sökvektorindex – Cohere SDK |
cohere , azure_search_documents |
cohere-aisearch-rag.ipynb |
Kommando R+ för verktyg/funktionsanrop med hjälp av LangChain |
cohere
langchain
langchain_cohere
|
command_tools-langchain.ipynb |
Cohere omrangordna
I följande tabell visas cohere rerank-modellerna. Om du vill utföra slutsatsdragning med dessa rerank-modeller måste du använda Cohere:s anpassade omranknings-API:er som visas i tabellen.
Modell | Typ | Slutsatsdragnings-API |
---|---|---|
Cohere-rerank-v3.5 | ändra rangordning textklassificering |
Cohere's v2/rerank API |
Cohere-rerank-v3-english (inaktuell) |
ändra rangordning textklassificering |
Cohere's v2/rerank API Cohere's v1/rerank API |
Cohere-rerank-v3-multilingual (inaktuell) |
ändra rangordning textklassificering |
Cohere's v2/rerank API Cohere's v1/rerank API |
Priser för Cohere-omrankningsmodeller
Frågor, som inte ska förväxlas med en användares fråga, är en prismätare som refererar till kostnaden som är associerad med de token som används som indata för slutsatsdragning av en Cohere Rerank-modell. En enda sökenhet räknas som en fråga med upp till 100 dokument som ska rangordnas. Dokument som är längre än 500 token (för Cohere-rerank-v3.5) eller längre än 4 096 token (för Cohere-rerank-v3-English och Cohere-rerank-v3-multilingual) när du inkluderar längden på sökfrågan delas upp i flera segment, där varje segment räknas som ett enda dokument.
Se cohere-modellsamlingen i Azure AI-modellkatalogen.
Core42
Core42 innehåller autoregressiva tvåspråkiga LLM:er för arabiska och engelska med toppmoderna funktioner på arabiska.
Modell | Typ | Förmågor |
---|---|---|
jais-30b-chat | chatten har slutförts |
-
Indata: text (8 192 token) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Se den här modellsamlingen i Azure AI-modellkatalogen.
Exempel på inferens: Core42
Fler exempel på hur du använder Jais-modeller finns i följande exempel:
Beskrivning | Språk | Exempel |
---|---|---|
Azure AI-slutsatsdragningspaket för C# | C# | Länk |
Azure AI-slutsatsdragningspaket för JavaScript | JavaScript | Länk |
Azure AI-slutsatsdragningspaket för Python | python | Länk |
DeepSeek
DeepSeek-familjen av modeller inkluderar DeepSeek-R1, som utmärker sig vid resonemangsuppgifter med en steg-för-steg träningsprocess, såsom språk, vetenskapligt resonemang och kodningsuppgifter, DeepSeek-V3-0324, en Mixture-of-Experts (MoE) språkmodell, och mer.
Modell | Typ | Förmågor |
---|---|---|
DeekSeek-V3-0324 | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: (131 072 token) - Verktygsanrop: Nej - Svarsformat: Text, JSON |
DeepSeek-V3 (Arv) |
chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (131 072 token) - Verktygsanrop: Nej - Svarsformat: Text, JSON |
DeepSeek-R1 | slutförande av chatt med resonemangsinnehåll |
-
Indata: text (163 840 tokens) - Utdata: text (163 840 tokens) - Verktygsanrop: Nej - Svarsformat: Text. |
En självstudiekurs om DeepSeek-R1 finns i Självstudie: Kom igång med DeepSeek-R1 resonemangsmodell i Azure AI-modellinferens.
Se den här modellsamlingen i Azure AI-modellkatalogen.
Slutsatsdragningsexempel: DeepSeek
Fler exempel på hur du använder DeepSeek-modeller finns i följande exempel:
Beskrivning | Språk | Exempel |
---|---|---|
Azure AI-slutsatsdragningspaket för Python | python | Länk |
Azure AI-slutsatsdragningspaket för JavaScript | JavaScript | Länk |
Azure AI-slutsatsdragningspaket för C# | C# | Länk |
Azure AI-slutsatsdragningspaket för Java | Java | Länk |
Meta
Meta Llama-modeller och -verktyg är en samling förtränade och finjusterade generativa AI-modeller för text- och bildresonemang. Metamodellers intervall skalas så att det omfattar:
- Små språkmodeller (SSM) som 1B och 3B bas- och instruktionsmodeller för inferens på enheter och i edge-miljöer.
- Medelstora stora språkmodeller (LLM: er) som 7B-, 8B- och 70B-bas- och instruktionsmodeller
- Högpresterande modeller som Meta Llama 3.1-405B Instruct för användning inom syntetisk datagenerering och destillation.
- Högpresterande inbyggda multimodala modeller, Llama 4 Scout och Llama 4 Maverick, använder en blandning av expertarkitektur för att erbjuda branschledande prestanda inom text- och bildtolkning.
Modell | Typ | Förmågor |
---|---|---|
Llama-4-Scout-17B-16E-Instruct | chatten har slutförts |
-
Indata: text och bild (128 000 tokens) - Utdata: text (8 192 enheter) - Verktygsanrop: Ja - Svarsformat: Text |
Llama 4-Maverick-17B-128E-Instruct-FP8 | chatten har slutförts |
-
Indata: text och bild (128 000 tokens) - Utdata: text (8 192 enheter) - Verktygsanrop: Ja - Svarsformat: Text |
Llama-3.3-70B-Instruct | chatten har slutförts |
-
Indata: text (128 000 token) - Utdata: text (8 192 enheter) - Verktygsanrop: Nej - Svarsformat: Text |
Llama-3.2-90B-Vision-Instruct | chat-completion (med bilder) |
-
Indata: text och bild (128 000 tokens) - Utdata: text (8 192 enheter) - Verktygsanrop: Nej - Svarsformat: Text |
Llama-3.2-11B-Vision-Instruct | chat-completion (med bilder) |
-
Indata: text och bild (128 000 tokens) - Utdata: text (8 192 enheter) - Verktygsanrop: Nej - Svarsformat: Text |
Meta-Llama-3.1-8B-Instruct | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (8 192 enheter) - Verktygsanrop: Nej - Svarsformat: Text |
Meta-Llama-3.1-405B-Instruct | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (8 192 enheter) - Verktygsanrop: Nej - Svarsformat: Text |
Meta-Llama-3.1-70B-Instruct (inaktuell) | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (8 192 enheter) - Verktygsanrop: Nej - Svarsformat: Text |
Meta-Llama-3-8B-Instruct (avskriven) | chatten har slutförts |
-
Indata: text (8 192 token) - Utdata: text (8 192 enheter) - Verktygsanrop: Nej - Svarsformat: Text |
Meta-Llama-3-70B-Instruct (föråldrad) | chatten har slutförts |
-
Indata: text (8 192 token) - Utdata: text (8 192 enheter) - Verktygsanrop: Nej - Svarsformat: Text |
Se den här modellsamlingen i Azure AI-modellkatalogen.
Inferensexempel: Meta Llama
Fler exempel på hur du använder Meta Llama-modeller finns i följande exempel:
Beskrivning | Språk | Exempel |
---|---|---|
CURL-begäran | Våldsamt slag | Länk |
Azure AI-slutsatsdragningspaket för C# | C# | Länk |
Azure AI-slutsatsdragningspaket för JavaScript | JavaScript | Länk |
Azure AI-slutsatsdragningspaket för Python | python | Länk |
Python webbfrågor | python | Länk |
OpenAI SDK (experimentell) | python | Länk |
LangChain | python | Länk |
LiteLLM | python | Länk |
Microsoft
Microsoft-modeller innehåller olika modellgrupper som MAI-modeller, Phi-modeller, AI-modeller för hälso- och sjukvård med mera. Om du vill se alla tillgängliga Microsoft-modeller kan du visa Microsofts modellsamling i Azure AI Foundry-portalen.
Modell | Typ | Förmågor |
---|---|---|
MAI-DS-R1 | slutförande av chatt med resonemangsinnehåll |
-
Indata: text (163 840 tokens) - Utdata: text (163 840 tokens) - Verktygsanrop: Nej - Svarsformat: Text. |
Phi-4-resonemang | slutförande av chatt med resonemangsinnehåll |
-
Indata: text (32768 tokens) - Utdata: text (32768 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-4-mini-resonemang | slutförande av chatt med resonemangsinnehåll |
-
Indata: text (128 000 token) - Utdata: text (128 000 token) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-4-multimodal-instruct | chat-komplettering med bild- och ljudinnehåll |
-
Indata: text, bilder och ljud (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-4-mini-instruct | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-4 | chatten har slutförts |
-
Indata: text (16 384 token) - Utdata: text (16 384 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3.5-mini-instruct | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3.5-MoE-instruct | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3.5-vision-instruct | chat-completion (med bilder) |
-
Indata: text och bild (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3-mini-128k-instruct | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3-mini-4k-instruct | chatten har slutförts |
-
Indata: text (4,096 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3-small-128k-instruct | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3-small-8k-instruct | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3-medium-128k-instruct | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Phi-3-medium-4k-instruct | chatten har slutförts |
-
Indata: text (4,096 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Slutsatsdragningsexempel: Microsoft-modeller
Fler exempel på hur du använder Microsoft-modeller finns i följande exempel:
Beskrivning | Språk | Exempel |
---|---|---|
Azure AI-slutsatsdragningspaket för C# | C# | Länk |
Azure AI-slutsatsdragningspaket för JavaScript | JavaScript | Länk |
Azure AI-slutsatsdragningspaket för Python | python | Länk |
LangChain | python | Länk |
Llama-Index | python | Länk |
Se Microsoft-modellsamlingen i Azure AI-modellkatalogen.
Mistral AI
Mistral AI erbjuder två kategorier av modeller, nämligen:
- Premiummodeller: Dessa inkluderar Modellerna Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) och Ministral 3B och är tillgängliga som serverlösa API:er med tokenbaserad betalning per användning.
- Öppna modeller: Dessa inkluderar Mistral-small-2503, Codestral och Mistral Nemo (som är tillgängliga som serverlösa API:er med tokenbaserad betalning per användning) och Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 och Mistral-7B-v01 (som är tillgängliga för nedladdning och körning på hanterade slutpunkter med egen värd).
Modell | Typ | Förmågor |
---|---|---|
Codestral-2501 | chatten har slutförts |
-
Indata: text (262 144 token) - Utdata: text (4,096 tokens) - Verktygsanrop: Nej - Svarsformat: Text |
Ministral-3B | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Mistral-Nemo | chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Mistral-Large-2411 | chatten har slutförts |
-
Indata: text (128 000 token) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Mistral-large-2407 (inaktuell) |
chatten har slutförts |
-
Indata: text (131 072 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Mistral-large (inaktuell) |
chatten har slutförts |
-
Indata: text (32 768 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Mistral-medium-2505 | chatten har slutförts |
-
Indata: text (128 000 tokens), bild - Utdata: text (128 000 token) - Verktygsanrop: Nej - Svarsformat: Text, JSON |
Mistral-OCR-2503 | bild-till-text |
-
Indata: bild- eller PDF-sidor (1 000 sidor, max 50 MB PDF-fil) - Utdata: text - Verktygsanrop: Nej - Svarsformat: Text, JSON, Markdown |
Mistral-small-2503 | chat-completion (med bilder) |
-
Indata: text och bilder (131 072 tokens), bildbaserade tokens är 16px x 16px block av ursprungsbilderna - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Mistral-small | chatten har slutförts |
-
Indata: text (32 768 tokens) - Utdata: text (4,096 tokens) - Verktygsanrop: Ja - Svarsformat: Text, JSON |
Se den här modellsamlingen i Azure AI-modellkatalogen.
Slutsatsdragningsexempel: Mistral
Fler exempel på hur du använder Mistral-modeller finns i följande exempel och självstudier:
Beskrivning | Språk | Exempel |
---|---|---|
CURL-begäran | Våldsamt slag | Länk |
Azure AI-slutsatsdragningspaket för C# | C# | Länk |
Azure AI-slutsatsdragningspaket för JavaScript | JavaScript | Länk |
Azure AI-slutsatsdragningspaket för Python | python | Länk |
Python webbfrågor | python | Länk |
OpenAI SDK (experimentell) | python | Mistral – OpenAI SDK-exempel |
LangChain | python | Mistral – LangChain-exempel |
Mistral AI | python | Mistral – Mistral AI-exempel |
LiteLLM | python | Mistral – LiteLLM-exempel |
Nixtla
Nixtlas TimeGEN-1 är en generativ förtränad prognostiserings- och avvikelseidentifieringsmodell för tidsseriedata. TimeGEN-1 kan producera korrekta prognoser för nya tidsserier utan träning, med endast historiska värden och exogena samvariater som indata.
För att utföra slutsatsdragning kräver TimeGEN-1 att du använder Nixtlas anpassade slutsatsdragnings-API.
Modell | Typ | Förmågor | Slutsatsdragnings-API |
---|---|---|---|
TimeGEN-1 | Prognostisering |
-
Inmatning: Tidsseriedata som JSON eller dataramar (med stöd för multivariatindata) - Utdata: Tidsseriedata som JSON - Verktygsanrop: Nej - Svarsformat: JSON |
Prognosklienten interagerar med Nixtlas API |
Beräkna antalet token som behövs
Innan du skapar en TimeGEN-1-distribution är det bra att uppskatta antalet token som du planerar att använda och faktureras för. En token motsvarar en datapunkt i indatauppsättningen eller utdatauppsättningen.
Anta att du har följande datauppsättning för indatatidsserier:
unik_id | Tidsstämpel | Målvariabel | Exogen variabel 1 | Exogen variabel 2 |
---|---|---|---|---|
VARA | 2016-10-22 00:00:00 | 70,00 | 49593.0 | 57 253,0 |
VARA | 2016-10-22 01:00:00 | 37.10 | 46073,0 | 51887,0 |
För att fastställa antalet token multiplicerar du antalet rader (i det här exemplet två) och antalet kolumner som används för prognostisering– utan att räkna kolumnerna unique_id och tidsstämpel (i det här exemplet tre) för att få totalt sex token.
Givet följande utdatauppsättning:
unik_id | Tidsstämpel | Prognostiserad målvariabel |
---|---|---|
VARA | 2016-10-22 02:00:00 | 46.57 |
VARA | 2016-10-22 03:00:00 | 48.57 |
Du kan också fastställa antalet token genom att räkna antalet datapunkter som returneras efter dataprognoser. I det här exemplet är antalet token två.
Beräkna priser baserat på token
Det finns fyra prismätare som avgör vilket pris du betalar. Dessa mätare är följande:
Prismätare | Beskrivning |
---|---|
paygo-slutsats-indatatecken | Kostnader som är associerade med de token som används som indata för slutsatsdragning när finetune_steps = 0 |
betala-efter-hand inferens utgångstoken | Kostnader som är associerade med de token som används som utdata för slutsatsdragning när finetune_steps = 0 |
paygo-finjusterad-modell-inferens-inmatnings-token | Kostnader som är associerade med de token som används som indata för slutsatsdragning när finetune_steps> 0 |
betala-efterhand-finförbättrad-modell-slutsats-utdata-tokens | Kostnader associerade med de token som används som resultat för inferens när finetune_steps> är 0 |
Se Nixtla-modellsamlingen i Azure AI-modellkatalogen.
NTT-DATA
tsuzumi är en autoregressiv språkoptimerad transformerare. De finjusterade versionerna använder övervakad finjustering (SFT). tsuzumi hanterar både japanska och engelska med hög effektivitet.
Modell | Typ | Förmågor |
---|---|---|
tsuzumi-7b | chatten har slutförts |
-
Indata: text (8 192 token) - Utdata: text (8 192 enheter) - Verktygsanrop: Nej - Svarsformat: Text |
Stabilitets-AI
Samlingen Stabilitets-AI för bildgenereringsmodeller inkluderar Stable Image Core, Stable Image Ultra och Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large tillåter både bild- och textinmatningar.
Modell | Typ | Förmågor |
---|---|---|
Stabil diffusion 3,5 stor | Bildgenerering |
-
Indata: text och bild (1 000 token och 1 bild) - Utdata: 1 bild - Verktygsanrop: Nej - Svarsformat: Bild (PNG och JPG) |
Stabil bildkärna | Bildgenerering |
-
Indata: text (1 000 token) - Utdata: 1 bild - Verktygsanrop: Nej - Svarsformat: Bild (PNG och JPG) |
Stabil Bild Ultra | Bildgenerering |
-
Indata: text (1 000 token) - Utdata: 1 bild - Verktygsanrop: Nej - Svarsformat: Bild (PNG och JPG) |
Exempel på inferenser: Stability AI
Stabilitets-AI-modeller som distribueras till standarddistributioner implementerar Azure AI-modellinferens-API:et på vägen /image/generations
.
Exempel på hur du använder stabilitets-AI-modeller finns i följande exempel:
- Använda OpenAI SDK med Stabilitets-AI-modeller för text-till-bild-begäranden
- Använd Requests-biblioteket med Stability AI-modeller för text-till-bild-förfrågningar
- Använd Requests-biblioteket med Stable Diffusion 3.5 Large för bild-till-bild-begäranden
- Exempel på ett fullständigt kodat bildgenereringssvar