Udostępnij za pośrednictwem


Polecane modele wykazu modeli usługi Azure AI

Katalog modeli sztucznej inteligencji platformy Azure oferuje duży wybór modeli od wielu dostawców. Dostępne są różne opcje wdrażania modeli z katalogu modeli. W tym artykule wymieniono polecane modele w katalogu modeli, które można wdrożyć i hostować na serwerach firmy Microsoft za pośrednictwem wdrożeń standardowych. W przypadku niektórych z tych modeli można je również hostować w infrastrukturze na potrzeby wdrażania za pośrednictwem zarządzanych zasobów obliczeniowych. Zobacz Dostępne modele dla obsługiwanych opcji wdrażania , aby znaleźć modele w katalogu, które są dostępne do wdrożenia za pośrednictwem zarządzanego środowiska obliczeniowego lub standardowego wdrożenia.

Aby przeprowadzić wnioskowanie z modelami, niektóre modele, takie jak TimeGEN-1 firmy Nixtla i Cohere rerank wymagają używania niestandardowych interfejsów API od dostawców modelu. Inni obsługują wnioskowanie przy użyciu modelu AI platformy Azure. Więcej szczegółów na temat poszczególnych modeli można znaleźć, przeglądając ich karty modeli w katalogu modeli AI platformy Azure.

Animacja przedstawiająca sekcję wykazu modeli usługi Azure AI Foundry i dostępne modele.

Laboratoria AI21

Modele rodziny Jamba to duże modele językowe (LLM) klasy produkcyjnej AI21, oparte na Mamba i wykorzystujące hybrydową architekturę Mamba-Transformer AI21. Jest to wersja dostosowana do instrukcji hybrydowego modelu strukturalnej przestrzeni stanów (SSM, Structured State Space Model) transformatora Jamba. Modele rodziny Jamba są tworzone pod kątem niezawodnego użytku komercyjnego w odniesieniu do jakości i wydajności.

Model Typ Możliwości
AI21-Jamba-1.5-Mini kompletacja czatu - Dane wejściowe: tekst (tokeny 262 144)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą
AI21-Jamba-1.5-Large kompletacja czatu - Dane wejściowe: tekst (tokeny 262 144)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą

Zobacz tę kolekcję modeli w katalogu modeli AI platformy Azure.

Azure OpenAI

Usługa Azure OpenAI w usłudze Azure AI Foundry Models oferuje zróżnicowany zestaw modeli z różnymi możliwościami i punktami cenowymi. Te modele obejmują:

  • Najnowocześniejsze modele zaprojektowane do rozwiązywania zadań związanych z rozumowaniem i rozwiązywaniem problemów z większą koncentracją i zwiększonymi możliwościami.
  • Modele, które mogą zrozumieć i wygenerować język naturalny i kod
  • Modele, które mogą transkrybować i tłumaczyć mowę na tekst
Model Typ Możliwości
o3-mini kompletacja czatu - Dane wejściowe: tekst i obraz (200 000 tokenów)
- Dane wyjściowe: tekst (100 000 tokenów)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą
o1 zakończenie czatu (z obrazami) - Dane wejściowe: tekst i obraz (200 000 tokenów)
- Dane wyjściowe: tekst (100 000 tokenów)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą
o1-preview kompletacja czatu - Wejście: tekst (128 000 tokenów)
- Dane wyjściowe: tekst (tokeny 32 768)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą
o1-mini kompletacja czatu - Wejście: tekst (128 000 tokenów)
- Dane wyjściowe: tekst (tokeny 65 536)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
gpt-4o-realtime-preview czasie rzeczywistym - Dane wejściowe: kontrolka, tekst i dźwięk (tokeny 131 072)
- Dane wyjściowe: tekst i dźwięk (tokeny 16 384)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON
gpt-4o uzupełnianie czatu (z zawartością obrazu i dźwięku) - Dane wejściowe: tekst, obraz i dźwięk (tokeny 131 072)
- Dane wyjściowe: tekst (16,384 tokenów)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą
gpt-4o-mini uzupełnianie czatu (z zawartością obrazu i dźwięku) - Dane wejściowe: tekst, obraz i dźwięk (tokeny 131 072)
- Dane wyjściowe: tekst (16,384 tokenów)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą
osadzanie tekstu —3 — duże osadzanie - Dane wejściowe: tekst (8 191 tokenów)
- Wyjście: Wektor (3072 wym.)
osadzanie tekstu — 3 małe osadzanie - Dane wejściowe: tekst (8 191 tokenów)
- Wyjście: Wektor (1,536 wym.)

Zobacz tę kolekcję modeli w katalogu modeli AI platformy Azure.

Spójność

Rodzina modeli Cohere obejmuje różne modele zoptymalizowane pod kątem różnych przypadków użycia, w tym ponowne sortowanie, uzupełnianie czatów i modele osadzania.

Cohere komenda i osadzanie

W poniższej tabeli wymieniono modele Cohere, które można wnioskować za pośrednictwem wnioskowania modelu AI platformy Azure.

Model Typ Możliwości
Cohere-command-A kompletacja czatu - Dane wejściowe: tekst (256 000 tokenów)
- Dane wyjściowe: tekst (8000 tokenów)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: tekst
Cohere-command-r-plus-08-2024 kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON
Cohere-command-r-08-2024 kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON
Cohere-command-r-plus
(przestarzałe)
kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON
Cohere-command-r
(przestarzałe)
kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON
Cohere-embed-4 osadzanie
osadzanie obrazów
- Dane wejściowe: obraz, tekst
- Dane wyjściowe: obraz, tekst (128 000 tokenów)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: obraz, tekst
Cohere-embed-v3-english osadzanie
osadzanie obrazów
- Dane wejściowe: tekst (tokeny 512)
- Wyjście: Wektor (1,024 wym.).
Cohere-embed-v3-wielojęzyczny osadzanie
osadzanie obrazów
- Dane wejściowe: tekst (tokeny 512)
- Wyjście: Wektor (1,024 wym.).

Przykłady wnioskowania: komenda Cohere i embedding

Aby uzyskać więcej przykładów używania modeli Cohere, zobacz następujące przykłady:

Opis Język Przykład
Żądania internetowe Bash Command-RCommand-R+
cohere-embed.ipynb
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka C# C# Łącze
Pakiet wnioskowania usługi Azure AI dla języka JavaScript JavaScript Łącze
Pakiet wnioskowania usługi Azure AI dla języka Python Pyton Łącze
OpenAI SDK (eksperymentalny) Pyton Łącze
LangChain Pyton Łącze
Cohere SDK Pyton Polecenie
Osadź
LiteLLM SDK Pyton Łącze

Generowanie wspomagane odzyskiwaniem (RAG) i wykorzystanie narzędzi: przykłady komend Cohere i integrowania

Opis Pakiety Przykład
Tworzenie lokalnego indeksu wektorów wyszukiwania sztucznej inteligencji (FAISS) w serwisie Facebook przy użyciu osadzania Cohere — Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Użyj polecenia Cohere R/R+, aby odpowiedzieć na pytania z danych w lokalnym indeksie wektorów FAISS — Langchain langchain, langchain_cohere command_faiss_langchain.ipynb
Użyj polecenia Cohere R/R+, aby odpowiedzieć na pytania z danych w indeksie wektora wyszukiwania sztucznej inteligencji — Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Użyj Cohere Command R/R+, aby odpowiedzieć na pytania dotyczące danych w indeksie wyszukiwania wektorowego AI — Cohere SDK cohere, azure_search_documents cohere-aisearch-rag.ipynb
Wywoływanie narzędzia/funkcji Command R+ przy użyciu LangChain cohere, langchainlangchain_cohere command_tools-langchain.ipynb

Cohere ponowne uporządkowanie

W poniższej tabeli wymieniono modele Cohere rerank. Aby przeprowadzić wyciąganie wniosków przy użyciu tych modeli ponownego klasyfikowania, musisz użyć niestandardowych interfejsów API Cohere do ponownego klasyfikowania, wymienionych w tabeli.

Model Typ Interfejs API wnioskowania
Cohere-rerank-v3.5 ponowne klasyfikowanie
klasyfikacja tekstu
Cohere API v2/rerank
Cohere-rerank-v3-angielski
(przestarzałe)
ponowne klasyfikowanie
klasyfikacja tekstu
Cohere API v2/rerank
Interfejs API Cohere w wersji v1/rerank
Cohere-rerank-v3-wielojęzyczny
(przestarzałe)
ponowne klasyfikowanie
klasyfikacja tekstu
Cohere API v2/rerank
Interfejs API Cohere w wersji v1/rerank

Cennik modeli do ponownego rangowania Cohere

Zapytania, które nie należy mylić z zapytaniem użytkownika, to miernik cen, który odnosi się do kosztów skojarzonych z tokenami używanymi jako dane wejściowe dla wnioskowania modelu Cohere Rerank. Cohere zlicza pojedynczą jednostkę wyszukiwania jako zapytanie z maksymalnie 100 dokumentami do sklasyfikowania. Dokumenty dłuższe niż 500 tokenów (dla Cohere-rerank-v3.5) lub dłuższe niż 4096 tokenów (dla Cohere-rerank-v3-English i Cohere-rerank-v3-wielojęzyczne) w przypadku uwzględnienia długości zapytania wyszukiwania są podzielone na wiele fragmentów, gdzie każdy fragment jest liczone jako pojedynczy dokument.

Zobacz kolekcję modeli Cohere w katalogu modeli usługi Azure AI.

Core42

Core42 zawiera autoregresywne, dwujęzyczne modele językowe (LLM) dla języka arabskiego i angielskiego z najnowocześniejszymi możliwościami dla języka arabskiego.

Model Typ Możliwości
jais-30b-chat kompletacja czatu - Dane wejściowe: tekst (8192 tokeny)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON

Zobacz tę kolekcję modeli w katalogu modeli AI platformy Azure.

Przykłady wnioskowania: Core42

Aby uzyskać więcej przykładów używania modeli Jais, zobacz następujące przykłady:

Opis Język Przykład
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka C# C# Łącze
Pakiet wnioskowania usługi Azure AI dla języka JavaScript JavaScript Łącze
Pakiet wnioskowania usługi Azure AI dla języka Python Pyton Łącze

DeepSeek

Rodzina modeli DeepSeek obejmuje DeepSeek-R1, który wyróżnia się w zadaniach wymagających rozumowania, wykorzystując proces treningowy krok po kroku, takich jak językowe, naukowe oraz związane z kodowaniem. W jej skład wchodzi również DeepSeek-V3-0324, model językowy typu Mixture-of-Experts (MoE), oraz inne.

Model Typ Możliwości
DeekSeek-V3-0324 kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: (131 072 tokeny)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: Tekst, JSON
DeepSeek-V3
Dziedzictwo
kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 131 072)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: Tekst, JSON
DeepSeek-R1 uzupełnianie czatu zawartością analityczną - Dane wejściowe: tekst (163 840 tokenów)
- Dane wyjściowe: tekst (163 840 tokenów)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst.

Aby zapoznać się z samouczkiem dotyczącym DeepSeek-R1, zobacz Samouczek: rozpocząć pracę z modelem rozumowania DeepSeek-R1 w wnioskowaniu modelu AI platformy Azure.

Zobacz tę kolekcję modeli w katalogu modeli AI platformy Azure.

Przykłady wnioskowania: DeepSeek

Aby uzyskać więcej przykładów używania modeli DeepSeek, zobacz następujące przykłady:

Opis Język Przykład
Pakiet wnioskowania usługi Azure AI dla języka Python Pyton Łącze
Pakiet wnioskowania usługi Azure AI dla języka JavaScript JavaScript Łącze
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka C# C# Łącze
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka Java Jawa Łącze

Meta

Modele i narzędzia Meta Llama to kolekcja wstępnie wytrenowanych i dostrojonych modeli generowania tekstu i rozumowania obrazów sztucznej inteligencji. Zakres modeli metadanych jest skalowany w celu uwzględnienia:

  • Modele językowe o małej skali (SLM), takie jak modele 1B i 3B Base oraz Instruct do wnioskowania na urządzeniach i urządzeniach brzegowych.
  • Modele językowe o średniej wielkości (LLM), takie jak modele 7B, 8B i 70B w wersjach podstawowej i instruktorskiej
  • Wysoce wydajne modele, takie jak Meta Llama 3.1-405B Instruct, do generowania syntetycznych danych i przypadków użycia destylacji.
  • Wysokowydajne natywne modele multimodalne, Llama 4 Scout i Llama 4 Maverick, wykorzystują architekturę złożoną z mieszanki ekspertów, aby zapewnić najlepszą na rynku wydajność w zrozumieniu tekstu i obrazów.
Model Typ Możliwości
Llama-4-Scout-17B-16E-Instrukcja kompletacja czatu - Dane wejściowe: tekst i obraz (128 000 tokenów)
- Dane wyjściowe: tekst (tokeny 8192)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: tekst
Llama 4-Maverick-17B-128E-Instruct-FP8 kompletacja czatu - Dane wejściowe: tekst i obraz (128 000 tokenów)
- Dane wyjściowe: tekst (tokeny 8192)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: tekst
Llama-3.3-70B-Poinstruowanie kompletacja czatu - Wejście: tekst (128 000 tokenów)
- Dane wyjściowe: tekst (tokeny 8192)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Llama-3.2-90B-Vision-Poinstruowanie zakończenie czatu (z obrazami) - Dane wejściowe: tekst i obraz (128 000 tokenów)
- Dane wyjściowe: tekst (tokeny 8192)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Llama-3.2-11B-Vision-Instrukcja zakończenie czatu (z obrazami) - Dane wejściowe: tekst i obraz (128 000 tokenów)
- Dane wyjściowe: tekst (tokeny 8192)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Meta-Llama-3.1-8B-Poinstruowanie kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 8192)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Meta-Llama-3.1-405B-Poinstruowanie kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 8192)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Meta-Llama-3.1-70B-Instruct (przestarzały) kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 8192)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Meta-Llama-3-8B-Instruct (przestarzałe) kompletacja czatu - Dane wejściowe: tekst (8192 tokeny)
- Dane wyjściowe: tekst (tokeny 8192)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Meta-Llama-3-70B-Instruct (przestarzałe) kompletacja czatu - Dane wejściowe: tekst (8192 tokeny)
- Dane wyjściowe: tekst (tokeny 8192)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst

Zobacz tę kolekcję modeli w katalogu modeli AI platformy Azure.

Przykłady wnioskowania: Meta Llama

Aby uzyskać więcej przykładów używania modeli Meta Llama, zobacz następujące przykłady:

Opis Język Przykład
Żądanie CURL Bash Łącze
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka C# C# Łącze
Pakiet wnioskowania usługi Azure AI dla języka JavaScript JavaScript Łącze
Pakiet wnioskowania usługi Azure AI dla języka Python Pyton Łącze
Żądania internetowe języka Python Pyton Łącze
OpenAI SDK (eksperymentalny) Pyton Łącze
LangChain Pyton Łącze
LiteLLM Pyton Łącze

Microsoft

Modele firmy Microsoft obejmują różne grupy modeli, takie jak modele MAI, modele Phi, modele sztucznej inteligencji dla opieki zdrowotnej i inne. Aby wyświetlić wszystkie dostępne modele firmy Microsoft, wyświetl kolekcję modeli firmy Microsoft w portalu usługi Azure AI Foundry.

Model Typ Możliwości
MAI-DS-R1 uzupełnianie czatu zawartością analityczną - Dane wejściowe: tekst (163 840 tokenów)
- Dane wyjściowe: tekst (163 840 tokenów)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst.
Phi-4-rozumowanie uzupełnianie czatu zawartością analityczną - Dane wejściowe: tekst (tokeny 32768)
- Dane wyjściowe: tekst (tokeny 32768)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-4-mini-rozumowanie uzupełnianie czatu zawartością analityczną - Wejście: tekst (128 000 tokenów)
- Dane wyjściowe: tekst (128 000 tokenów)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-4-multimodal-instrukcja uzupełnianie czatu (z zawartością obrazu i dźwięku) - Dane wejściowe: tekst, obrazy i dźwięk (tokeny 131 072)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-4-mini-instrukcja kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-4 kompletacja czatu - Dane wejściowe: tekst (16 384 tokenów)
- Dane wyjściowe: tekst (16,384 tokenów)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-3.5-mini-poinstruowanie kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-3.5-MoE-poinstruowanie kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-3.5-vision-instrukcja zakończenie czatu (z obrazami) - Dane wejściowe: tekst i obraz (tokeny 131 072)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-3-mini-128k-instrukcja kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-3-mini-4k-poinstruowanie kompletacja czatu - Dane wejściowe: tekst (tokeny 4096)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-3-small-128k-poinstruowanie kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-3-small-8k-poinstruowanie kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-3-medium-128k-instruct kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Phi-3-medium-4k-instrukcja kompletacja czatu - Dane wejściowe: tekst (tokeny 4096)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst

Przykłady wnioskowania: modele firmy Microsoft

Aby uzyskać więcej przykładów używania modeli firmy Microsoft, zobacz następujące przykłady:

Opis Język Przykład
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka C# C# Łącze
Pakiet wnioskowania usługi Azure AI dla języka JavaScript JavaScript Łącze
Pakiet wnioskowania usługi Azure AI dla języka Python Pyton Łącze
LangChain Pyton Łącze
Llama-Index Pyton Łącze

Zobacz kolekcję modeli firmy Microsoft w katalogu modeli AI platformy Azure.

Mistral Sztuczna Inteligencja

Mistral AI oferuje dwie kategorie modeli, a mianowicie:

  • Modele Premium: są to modele Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) i Ministral 3B, dostępne jako interfejsy API bez serwera z rozliczeniami opartymi na użyciu tokenów.
  • Otwarte modele: należą do nich Mistral-small-2503, Codestral i Mistral Nemo (które są dostępne jako bezserwerowe interfejsy API z rozliczeniami opartymi na tokenach płatności zgodnie z rzeczywistym użyciem) i Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 i Mistral-7B-v01 (które są dostępne do pobierania i uruchamiania na własnych zarządzanych punktach końcowych).
Model Typ Możliwości
Codestral-2501 kompletacja czatu - Dane wejściowe: tekst (tokeny 262 144)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst
Ministral-3B kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON
Mistral-Nemo kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON
Mistral-Large-2411 kompletacja czatu - Wejście: tekst (128 000 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON
Mistral-large-2407
(przestarzałe)
kompletacja czatu - Dane wejściowe: tekst (131 072 tokenów)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON
Mistral-large
(przestarzałe)
kompletacja czatu - Dane wejściowe: tekst (tokeny 32 768)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON
Mistral-medium-2505 kompletacja czatu - Dane wejściowe: tekst (128 000 tokenów), obraz
- Dane wyjściowe: tekst (128 000 tokenów)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: Tekst, JSON
Mistral-OCR-2503 obraz do tekstu - Dane wejściowe: obrazy lub strony PDF (1,000 stron, maksymalnie plik PDF 50 MB)
- Dane wyjściowe: tekst
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: Text, JSON, Markdown
Mistral-small-2503 zakończenie czatu (z obrazami) - Dane wejściowe: tekst i obrazy (tokeny 131 072),
Tokeny graficzne mają rozmiar 16x16px
bloki oryginalnych obrazów
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON
Mistral-small kompletacja czatu - Dane wejściowe: tekst (tokeny 32 768)
- Dane wyjściowe: tekst (tokeny 4096)
- Wywoływanie narzędzi: Tak
- Formaty odpowiedzi: Tekst, JSON

Zobacz tę kolekcję modeli w katalogu modeli AI platformy Azure.

Przykłady wnioskowania: Mistral

Aby uzyskać więcej przykładów używania modeli Mistral, zobacz następujące przykłady i samouczki:

Opis Język Przykład
Żądanie CURL Bash Łącze
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka C# C# Łącze
Pakiet wnioskowania usługi Azure AI dla języka JavaScript JavaScript Łącze
Pakiet wnioskowania usługi Azure AI dla języka Python Pyton Łącze
Żądania internetowe języka Python Pyton Łącze
OpenAI SDK (eksperymentalny) Pyton Mistral — przykład zestawu OpenAI SDK
LangChain Pyton Mistral: Przykład LangChain
Mistral Sztuczna Inteligencja Pyton Mistral — przykład „Mistral AI”
LiteLLM Pyton Mistral — przykład LiteLLM

Nixtla

TimeGEN-1 firmy Nixtla to wstępnie wytrenowany model prognozowania i wykrywania anomalii dla danych szeregów czasowych. TimeGEN-1 może generować dokładne prognozy dla nowych szeregów czasowych bez trenowania, używając tylko wartości historycznych i kowariantów egzogennych jako danych wejściowych.

Aby przeprowadzić wnioskowanie, funkcja TimeGEN-1 wymaga użycia niestandardowego interfejsu API wnioskowania Nixtla.

Model Typ Możliwości Interfejs API wnioskowania
TimeGEN-1 Prognozowanie - Wejście: Dane szeregów czasowych jako dane JSON lub ramki danych (z obsługą wejściowych wielowymiarowych)
- Wyjście: Dane szeregów czasowych jako dane JSON
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: JSON
Klient do prognozowania w celu interakcji z interfejsem API Nixtla

Szacowanie wymaganej liczby tokenów

Przed utworzeniem wdrożenia TimeGEN-1 warto oszacować liczbę tokenów, które planujesz zużyć i za które zostaniesz obciążony kosztami. Jeden token odpowiada jednemu punktowi danych w wejściowym zestawie danych lub wyjściowym zestawie danych.

Załóżmy, że masz następujący wejściowy zestaw danych szeregów czasowych:

Unikalny_id Sygnatura czasowa Zmienna docelowa Zmienna egzogenna 1 Zmienna egzogenna 2
BYĆ 2016-10-22 00:00:00 70.00 49593.0 57253,0
BYĆ 2016-10-22 01:00:00 37.10 46073.0 51887,0

Aby określić liczbę tokenów, należy pomnożyć liczbę wierszy (w tym przykładzie dwa) i liczbę kolumn używanych do prognozowania — nie licząc kolumn unique_id i sygnatur czasowych (w tym przykładzie trzy), aby uzyskać łącznie sześć tokenów.

Biorąc pod uwagę następujący wyjściowy zestaw danych:

Unikalny_id Sygnatura czasowa Prognozowana zmienna docelowa
BYĆ 2016-10-22 02:00:00 46.57
BYĆ 2016-10-22 03:00:00 48.57

Można również określić liczbę tokenów, zliczając liczbę punktów danych zwracanych po prognozowaniu danych. W tym przykładzie liczba tokenów to dwa.

Szacowanie cen na podstawie tokenów

Istnieją cztery mierniki cen, które określają cenę, którą płacisz. Te mierniki są następujące:

Miernik cen Opis
tokeny wejściowe inferencji paygo Koszty skojarzone z tokenami używanymi jako dane wejściowe do wnioskowania, gdy finetune_steps = 0
paygo-inference-output-tokens (żetony wynikowe inferencji paygo) Koszty skojarzone z tokenami używanymi jako dane wyjściowe do wnioskowania, gdy finetune_steps = 0
żetony-wejściowe-modelu-dostrajanie-finansowe-na-żądanie-inferencji Koszty skojarzone z tokenami używanymi jako dane wejściowe do wnioskowania, gdy finetune_steps> 0
model-wytrenowany-za-pomoca-paygo-wynik-inferencji-tokenow Koszty skojarzone z tokenami używanymi jako dane wyjściowe do wnioskowania, gdy finetune_steps> 0

Zobacz kolekcję modeli Nixtla w katalogu modeli usługi Azure AI.

NTT DATA

tsuzumi to zoptymalizowany do autoregresywnych języków model transformera. Dostrojone wersje używają nadzorowanego dostrajania (SFT). Tsuzumi z dużą wydajnością obsługuje zarówno język japoński, jak i angielski.

Model Typ Możliwości
tsuzumi-7b kompletacja czatu - Dane wejściowe: tekst (8192 tokeny)
- Dane wyjściowe: tekst (tokeny 8192)
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: tekst

Stabilność sztucznej inteligencji

Kolekcja modeli generowania obrazów Stability AI obejmuje Stable Image Core, Stable Image Ultra i Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large umożliwia wprowadzanie obrazu i tekstu.

Model Typ Możliwości
Stable Diffusion Large 3.5 Generowanie obrazu - Dane wejściowe: tekst i obraz (1000 tokenów i 1 obraz)
- Dane wyjściowe: 1 obraz
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: Obraz (PNG i JPG)
Stabilny rdzeń obrazu Generowanie obrazu - Dane wejściowe: tekst (tokeny 1000)
- Dane wyjściowe: 1 obraz
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: Obraz (PNG i JPG)
Ultra Stabilny Obraz Generowanie obrazu - Dane wejściowe: tekst (tokeny 1000)
- Dane wyjściowe: 1 obraz
- Wywoływanie narzędzi: Nie
- Formaty odpowiedzi: Obraz (PNG i JPG)

Przykłady wnioskowania: Stabilność AI

Modele stabilne AI wdrożone w standardowych wdrożeniach implementują interfejs API wnioskowania na platformie Azure AI na ścieżce /image/generations. Aby zobaczyć, jak używać modeli Stability AI, zobacz poniższe przykłady.