Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Katalog modeli sztucznej inteligencji platformy Azure oferuje duży wybór modeli rozwiązania Azure AI Foundry od wielu dostawców. Dostępne są różne opcje wdrażania modeli z katalogu modeli. W tym artykule wymieniono modele usługi Azure AI Foundry, które można wdrożyć za pośrednictwem bezserwerowego wdrażania interfejsu API. W przypadku niektórych z tych modeli można je również hostować w infrastrukturze na potrzeby wdrażania za pośrednictwem zarządzanych zasobów obliczeniowych.
Ważne
Modele, które są w wersji zapoznawczej, są oznaczone jako wersja zapoznawcza na kartach modeli w wykazie modeli.
Aby przeprowadzić wnioskowanie z modelami, niektóre modele, takie jak TimeGEN-1 firmy Nixtla i Cohere rerank wymagają używania niestandardowych interfejsów API od dostawców modelu. Inne obsługują wnioskowanie za pomocą interfejsu API Model Inference. Więcej szczegółów na temat poszczególnych modeli można znaleźć, przeglądając karty modeli w katalogu modeli dla portalu usługi Azure AI Foundry.
Laboratoria AI21
Modele rodziny Jamba to duże modele językowe (LLM) klasy produkcyjnej AI21, oparte na Mamba i wykorzystujące hybrydową architekturę Mamba-Transformer AI21. Jest to wersja dostosowana do instrukcji hybrydowego strukturalnego modelu przestrzeni stanów (SSM) transformatora Jamba od AI21. Modele rodziny Jamba są tworzone pod kątem niezawodnego użytku komercyjnego w odniesieniu do jakości i wydajności.
Model | Typ | Możliwości |
---|---|---|
AI21-Jamba-1.5-Mini | kompletacja czatu |
-
Dane wejściowe: tekst (tokeny 262 144) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą |
AI21-Jamba-1.5-Large | kompletacja czatu |
-
Dane wejściowe: tekst (tokeny 262 144) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą |
Zobacz tę kolekcję modeli w portalu azure AI Foundry.
Azure OpenAI
Usługa Azure OpenAI w modelach foundry oferuje zróżnicowany zestaw modeli z różnymi możliwościami i punktami cenowymi. Te modele obejmują:
- Najnowocześniejsze modele zaprojektowane do rozwiązywania zadań związanych z rozumowaniem i rozwiązywaniem problemów z większą koncentracją i zwiększonymi możliwościami.
- Modele, które mogą zrozumieć i wygenerować język naturalny i kod
- Modele, które mogą transkrybować i tłumaczyć mowę na tekst
Model | Typ | Możliwości |
---|---|---|
o3-mini | kompletacja czatu |
-
Dane wejściowe: tekst i obraz (200 000 tokenów) - Dane wyjściowe: tekst (100 000 tokenów) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą |
o1 | zakończenie rozmowy (z obrazami) |
-
Dane wejściowe: tekst i obraz (200 000 tokenów) - Dane wyjściowe: tekst (100 000 tokenów) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą |
o1-preview | kompletacja czatu |
-
Wejście: tekst (128 000 tokenów) - Dane wyjściowe: tekst (tokeny 32 768) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą |
o1-mini | kompletacja czatu |
-
Wejście: tekst (128 000 tokenów) - Dane wyjściowe: tekst (tokeny 65 536) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
gpt-4o-realtime-preview | czasie rzeczywistym |
-
Dane wejściowe: kontrolka, tekst i dźwięk (tokeny 131 072) - Dane wyjściowe: tekst i dźwięk (tokeny 16 384) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
gpt-4o | uzupełnianie czatu (z zawartością obrazu i dźwięku) |
-
Dane wejściowe: tekst, obraz i dźwięk (tokeny 131 072) - Dane wyjściowe: tekst (16 384 tokenów) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą |
gpt-4o-mini | uzupełnianie czatu (z zawartością obrazu i dźwięku) |
-
Dane wejściowe: tekst, obraz i dźwięk (tokeny 131 072) - Dane wyjściowe: tekst (16 384 tokenów) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: tekst, JSON, dane wyjściowe ze strukturą |
osadzanie tekstu —3 — duże | osadzanie |
-
Dane wejściowe: tekst (8 191 tokenów) - Wyjście: Wektor (3072 wym.) |
osadzanie tekstu-3-small | osadzanie |
-
Dane wejściowe: tekst (8 191 tokenów) - Wyjście: Wektor (1,536 wym.) |
Zobacz tę kolekcję modeli w portalu azure AI Foundry.
Spójność
Rodzina modeli Cohere obejmuje różne modele zoptymalizowane pod kątem różnych przypadków użycia, w tym ponowne sortowanie, uzupełnianie czatów i modele osadzania.
Cohere komenda i osadzanie
W poniższej tabeli wymieniono modele Cohere, które można wnioskować za pośrednictwem interfejsu API wnioskowania modelu.
Model | Typ | Możliwości |
---|---|---|
Cohere-command-A | kompletacja czatu |
-
Dane wejściowe: tekst (256 000 tokenów) - Dane wyjściowe: tekst (8000 tokenów) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: tekst |
Cohere-command-r-plus-08-2024 | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
Cohere-command-r-08-2024 | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
Cohere-command-r-plus (przestarzałe) |
kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
Cohere-command-r (przestarzałe) |
kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
Cohere-embed-v-4 |
osadzanie osadzanie obrazów |
-
Dane wejściowe: obraz, tekst - Dane wyjściowe: obraz, tekst (128 000 tokenów) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: obraz, tekst |
Cohere-embed-v3-english |
osadzanie osadzanie obrazów |
-
Dane wejściowe: tekst (tokeny 512) - Wyjście: Wektor (1,024 wym.). |
Cohere-embed-v3-wielojęzyczny |
osadzanie osadzanie obrazów |
-
Dane wejściowe: tekst (tokeny 512) - Wyjście: Wektor (1,024 wym.). |
Przykłady wnioskowania: komenda Cohere i embedding
Aby uzyskać więcej przykładów używania modeli Cohere, zobacz następujące przykłady:
Opis | Język | Przykład |
---|---|---|
Żądania internetowe | Bash |
Command-RCommand-R+ cohere-embed.ipynb |
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka C# | C# | Łącze |
Pakiet wnioskowania usługi Azure AI dla języka JavaScript | JavaScript | Łącze |
Pakiet wnioskowania usługi Azure AI dla języka Python | Pyton | Łącze |
OpenAI SDK (eksperymentalny) | Pyton | Łącze |
LangChain | Pyton | Łącze |
Cohere SDK | Pyton |
Polecenie Osadź |
LiteLLM SDK | Pyton | Łącze |
Generowanie wspomagane odzyskiwaniem (RAG) i wykorzystanie narzędzi: przykłady komend Cohere i integrowania
Opis | Pakiety | Przykład |
---|---|---|
Stwórz lokalny indeks wektorów do wyszukiwania podobieństw, używając Facebook AI (FAISS) z osadzeniami Cohere - Langchain |
langchain , langchain_cohere |
cohere_faiss_langchain_embed.ipynb |
Użyj polecenia Cohere R/R+, aby odpowiedzieć na pytania z danych w lokalnym indeksie wektorów FAISS — Langchain |
langchain , langchain_cohere |
command_faiss_langchain.ipynb |
Użyj polecenia Cohere R/R+, aby odpowiedzieć na pytania z danych w indeksie wektora wyszukiwania sztucznej inteligencji — Langchain |
langchain , langchain_cohere |
cohere-aisearch-langchain-rag.ipynb |
Użyj Cohere Command R/R+, aby odpowiedzieć na pytania dotyczące danych w indeksie wyszukiwania wektorowego AI — Cohere SDK |
cohere , azure_search_documents |
cohere-aisearch-rag.ipynb |
Wywoływanie narzędzia/funkcji Command R+ z użyciem LangChain |
cohere , langchain langchain_cohere |
command_tools-langchain.ipynb |
Cohere ponowne uporządkowanie
W poniższej tabeli wymieniono modele Cohere rerank. Aby przeprowadzić wyciąganie wniosków przy użyciu tych modeli ponownego klasyfikowania, musisz użyć niestandardowych interfejsów API Cohere do ponownego klasyfikowania, wymienionych w tabeli.
Model | Typ | Interfejs API wnioskowania |
---|---|---|
Cohere-rerank-v3.5 | ponowne klasyfikowanie klasyfikacja tekstu |
Cohere API v2/rerank |
Cohere-rerank-v3-angielski (przestarzałe) |
ponowne klasyfikowanie klasyfikacja tekstu |
Cohere API v2/rerank API Cohere v1/rerank |
Cohere-rerank-v3-wielojęzyczny (przestarzałe) |
ponowne klasyfikowanie klasyfikacja tekstu |
Cohere API v2/rerank API Cohere v1/rerank |
Cennik modeli do ponownego rangowania Cohere
Zapytania, które nie należy mylić z zapytaniem użytkownika, to miernik cen, który odnosi się do kosztów skojarzonych z tokenami używanymi jako dane wejściowe dla wnioskowania modelu Cohere Rerank. Cohere zlicza pojedynczą jednostkę wyszukiwania jako zapytanie z maksymalnie 100 dokumentami do sklasyfikowania. Dokumenty dłuższe niż 500 tokenów (dla Cohere-rerank-v3.5) lub dłuższe niż 4096 tokenów (dla Cohere-rerank-v3-English i Cohere-rerank-v3-wielojęzyczne) w przypadku uwzględnienia długości zapytania wyszukiwania są podzielone na wiele fragmentów, gdzie każdy fragment jest liczone jako pojedynczy dokument.
Zobacz kolekcję modeli Cohere w portalu usługi Azure AI Foundry.
Core42
Core42 zawiera autoregresywne, dwujęzyczne modele językowe (LLM) dla języka arabskiego i angielskiego z najnowocześniejszymi możliwościami dla języka arabskiego.
Model | Typ | Możliwości |
---|---|---|
jais-30b-chat | kompletacja czatu |
-
Dane wejściowe: tekst (8192 tokeny) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
Zobacz tę kolekcję modeli w portalu azure AI Foundry.
Przykłady wnioskowania: Core42
Aby uzyskać więcej przykładów używania modeli Jais, zobacz następujące przykłady:
Opis | Język | Przykład |
---|---|---|
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka C# | C# | Łącze |
Pakiet wnioskowania usługi Azure AI dla języka JavaScript | JavaScript | Łącze |
Pakiet wnioskowania usługi Azure AI dla języka Python | Pyton | Łącze |
DeepSeek
Rodzina modeli DeepSeek obejmuje DeepSeek-R1, który wyróżnia się w zadaniach wymagających rozumowania, korzystając ze stopniowego procesu treningowego, takich jak język, rozumowanie naukowe i zadania związane z kodowaniem, DeepSeek-V3-0324, model językowy z mieszanką ekspertów (MoE) i inne.
Model | Typ | Możliwości |
---|---|---|
DeepSeek-R1-0528 |
uzupełnianie czatu zawartością analityczną |
-
Dane wejściowe: tekst (163 840 tokenów) - Dane wyjściowe: tekst (163 840 tokenów) - Języki: en i zh - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
DeekSeek-V3-0324 | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: (131 072 tokeny) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: Tekst, JSON |
DeepSeek-V3 Dziedzictwo |
kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 131 072) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: Tekst, JSON |
DeepSeek-R1 | uzupełnianie czatu zawartością analityczną |
-
Dane wejściowe: tekst (163 840 tokenów) - Dane wyjściowe: tekst (163 840 tokenów) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst. |
Aby zapoznać się z samouczkiem dotyczącym DeepSeek-R1, zobacz Samouczek: jak zacząć pracę z modelem rozumowania DeepSeek-R1 w Foundry Models.
Zobacz tę kolekcję modeli w portalu azure AI Foundry.
Przykłady wnioskowania: DeepSeek
Aby uzyskać więcej przykładów używania modeli DeepSeek, zobacz następujące przykłady:
Opis | Język | Przykład |
---|---|---|
Pakiet wnioskowania usługi Azure AI dla języka Python | Pyton | Łącze |
Pakiet wnioskowania usługi Azure AI dla języka JavaScript | JavaScript | Łącze |
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka C# | C# | Łącze |
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka Java | Jawa | Łącze |
Meta
Modele i narzędzia Meta Llama to kolekcja wstępnie wytrenowanych i dostrojonych modeli generowania tekstu i rozumowania obrazów sztucznej inteligencji. Zakres modeli metadanych jest skalowany w celu uwzględnienia:
- Modele językowe o małej skali (SLM), takie jak modele 1B i 3B Base oraz Instruct do wnioskowania na urządzeniach i urządzeniach brzegowych.
- Średniej wielkości duże modele językowe (LLM) takie jak modele bazowe i instruktażowe o rozmiarach 7B, 8B i 70B
- Wysoce wydajne modele, takie jak Meta Llama 3.1-405B Instruct, do generowania syntetycznych danych i przypadków użycia destylacji.
- Wysokowydajne, natywnie multimodalne modele, Llama 4 Scout i Llama 4 Maverick, wykorzystują architekturę mieszaną ekspertów, aby zapewnić wiodącą na rynku wydajność w zrozumieniu tekstu i obrazu.
Model | Typ | Możliwości |
---|---|---|
Llama-4-Scout-17B-16E-Instrukcja | kompletacja czatu |
-
Dane wejściowe: tekst i obraz (128 000 tokenów) - Dane wyjściowe: tekst (tokeny 8192) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Llama 4-Maverick-17B-128E-Instruct-FP8 | kompletacja czatu |
-
Dane wejściowe: tekst i obraz (128 000 tokenów) - Dane wyjściowe: tekst (tokeny 8192) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Llama-3.3-70B-Instrukcja | kompletacja czatu |
-
Wejście: tekst (128 000 tokenów) - Dane wyjściowe: tekst (tokeny 8192) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Llama-3.2-90B-Vision-Instrukcja | zakończenie rozmowy (z obrazami) |
-
Dane wejściowe: tekst i obraz (128 000 tokenów) - Dane wyjściowe: tekst (tokeny 8192) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Llama-3.2-11B-Vision-Instruktaż | zakończenie rozmowy (z obrazami) |
-
Dane wejściowe: tekst i obraz (128 000 tokenów) - Dane wyjściowe: tekst (tokeny 8192) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Meta-Llama-3.1-8B-Instrukcje | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 8192) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Meta-Llama-3.1-405B-Instrukcja | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 8192) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Meta-Llama-3.1-70B-Instruct (przestarzały) | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 8192) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Meta-Llama-3-8B-Instruct (przestarzały) | kompletacja czatu |
-
Dane wejściowe: tekst (8192 tokeny) - Dane wyjściowe: tekst (tokeny 8192) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Meta-Llama-3-70B-Instruct (przestarzały) | kompletacja czatu |
-
Dane wejściowe: tekst (8192 tokeny) - Dane wyjściowe: tekst (tokeny 8192) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Zobacz tę kolekcję modeli w portalu azure AI Foundry.
Przykłady wnioskowania: Meta Llama
Aby uzyskać więcej przykładów używania modeli Meta Llama, zobacz następujące przykłady:
Opis | Język | Przykład |
---|---|---|
Żądanie CURL | Bash | Łącze |
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka C# | C# | Łącze |
Pakiet wnioskowania usługi Azure AI dla języka JavaScript | JavaScript | Łącze |
Pakiet wnioskowania usługi Azure AI dla języka Python | Pyton | Łącze |
Żądania internetowe języka Python | Pyton | Łącze |
OpenAI SDK (eksperymentalny) | Pyton | Łącze |
LangChain | Pyton | Łącze |
LiteLLM | Pyton | Łącze |
Microsoft
Modele firmy Microsoft obejmują różne grupy modeli, takie jak modele MAI, modele Phi, modele sztucznej inteligencji dla opieki zdrowotnej i inne. Aby wyświetlić wszystkie dostępne modele firmy Microsoft, wyświetl kolekcję modeli firmy Microsoft w portalu usługi Azure AI Foundry.
Model | Typ | Możliwości |
---|---|---|
MAI-DS-R1 | uzupełnianie czatu zawartością analityczną |
-
Dane wejściowe: tekst (163 840 tokenów) - Dane wyjściowe: tekst (163 840 tokenów) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst. |
Phi-4-rozumowanie | uzupełnianie czatu zawartością analityczną |
-
Dane wejściowe: tekst (tokeny 32768) - Dane wyjściowe: tekst (tokeny 32768) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-4-mini-rozumowanie | uzupełnianie czatu zawartością analityczną |
-
Wejście: tekst (128 000 tokenów) - Dane wyjściowe: tekst (128 000 tokenów) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-4-multimodal-instrukcja | uzupełnianie czatu (z zawartością obrazu i dźwięku) |
-
Dane wejściowe: tekst, obrazy i dźwięk (tokeny 131 072) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-4-mini-instrukcja | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-4 | kompletacja czatu |
-
Dane wejściowe: tekst (16 384 tokenów) - Dane wyjściowe: tekst (16 384 tokenów) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-3.5-mini-instrukt | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-3.5-MoE-instruct | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-3.5-wizja-instrukcja | zakończenie rozmowy (z obrazami) |
-
Dane wejściowe: tekst i obraz (tokeny 131 072) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-3-mini-128k-instrukcja | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-3-mini-4k-instrukcja | kompletacja czatu |
-
Dane wejściowe: tekst (tokeny 4096) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-3-small-128k-instrukcja | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-3-small-8k-instrukcja | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-3-medium-128k-instrukcja | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Phi-3-medium-4k-instrukcja | kompletacja czatu |
-
Dane wejściowe: tekst (tokeny 4096) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Przykłady wnioskowania: modele firmy Microsoft
Aby uzyskać więcej przykładów używania modeli firmy Microsoft, zobacz następujące przykłady:
Opis | Język | Przykład |
---|---|---|
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka C# | C# | Łącze |
Pakiet wnioskowania usługi Azure AI dla języka JavaScript | JavaScript | Łącze |
Pakiet wnioskowania usługi Azure AI dla języka Python | Pyton | Łącze |
LangChain | Pyton | Łącze |
Llama-Index | Pyton | Łącze |
Zobacz kolekcję modeli firmy Microsoft w portalu usługi Azure AI Foundry.
Mistral Sztuczna Inteligencja
Mistral AI oferuje dwie kategorie modeli, a mianowicie:
- Modele Premium: są to modele Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) i Ministral 3B, dostępne jako interfejsy API bez serwera z rozliczeniami opartymi na użyciu tokenów.
- Otwarte modele: należą do nich Mistral-small-2503, Codestral i Mistral Nemo (które są dostępne jako bezserwerowe interfejsy API z rozliczeniami opartymi na tokenach płatności zgodnie z rzeczywistym użyciem) i Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 i Mistral-7B-v01 (które są dostępne do pobierania i uruchamiania na własnych zarządzanych punktach końcowych).
Model | Typ | Możliwości |
---|---|---|
Codestral-2501 | kompletacja czatu |
-
Dane wejściowe: tekst (tokeny 262 144) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Ministral-3B | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
Mistral-Nemo | kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
Mistral-Large-2411 | kompletacja czatu |
-
Wejście: tekst (128 000 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
Mistral-large-2407 (przestarzałe) |
kompletacja czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
Mistral-large (przestarzałe) |
kompletacja czatu |
-
Dane wejściowe: tekst (tokeny 32 768) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
Mistral-medium-2505 | kompletacja czatu |
-
Dane wejściowe: tekst (128 000 tokenów), obraz - Dane wyjściowe: tekst (128 000 tokenów) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: Tekst, JSON |
Mistral-OCR-2503 | obraz do tekstu |
-
Dane wejściowe: obrazy lub strony PDF (1,000 stron, maksymalnie plik PDF 50 MB) - Dane wyjściowe: tekst - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: Text, JSON, Markdown |
Mistral-small-2503 | zakończenie rozmowy (z obrazami) |
-
Dane wejściowe: tekst i obrazy (tokeny 131 072), Tokeny graficzne mają rozmiar 16x16px bloki oryginalnych obrazów - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
Mistral-small | kompletacja czatu |
-
Dane wejściowe: tekst (tokeny 32 768) - Dane wyjściowe: tekst (tokeny 4096) - Wywoływanie narzędzi: Tak - Formaty odpowiedzi: Tekst, JSON |
Zobacz tę kolekcję modeli w portalu azure AI Foundry.
Przykłady wnioskowania: Mistral
Aby uzyskać więcej przykładów używania modeli Mistral, zobacz następujące przykłady i samouczki:
Opis | Język | Przykład |
---|---|---|
Żądanie CURL | Bash | Łącze |
Pakiet wnioskowania sztucznej inteligencji platformy Azure dla języka C# | C# | Łącze |
Pakiet wnioskowania usługi Azure AI dla języka JavaScript | JavaScript | Łącze |
Pakiet wnioskowania usługi Azure AI dla języka Python | Pyton | Łącze |
Żądania internetowe języka Python | Pyton | Łącze |
OpenAI SDK (eksperymentalny) | Pyton | Mistral — przykład zestawu OpenAI SDK |
LangChain | Pyton | Mistral: Przykład LangChain |
Mistral Sztuczna Inteligencja | Pyton | Mistral — przykład „Mistral AI” |
LiteLLM | Pyton | Mistral — przykład LiteLLM |
Nixtla
TimeGEN-1 firmy Nixtla to wstępnie wytrenowany model prognozowania i wykrywania anomalii dla danych szeregów czasowych. TimeGEN-1 może generować dokładne prognozy dla nowych szeregów czasowych bez trenowania, używając tylko wartości historycznych i kowariantów egzogennych jako danych wejściowych.
Aby przeprowadzić wnioskowanie, funkcja TimeGEN-1 wymaga użycia niestandardowego interfejsu API wnioskowania Nixtla.
Model | Typ | Możliwości | Interfejs API wnioskowania |
---|---|---|---|
TimeGEN-1 | Prognozowanie |
-
Wejście: Dane szeregów czasowych jako dane JSON lub ramki danych (z obsługą wejściowych wielowymiarowych) - Wyjście: Dane szeregów czasowych jako dane JSON - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: JSON |
Klient do prognozowania w celu interakcji z interfejsem API Nixtla |
Szacowanie wymaganej liczby tokenów
Przed utworzeniem wdrożenia TimeGEN-1 warto oszacować liczbę tokenów, które planujesz zużyć i za które zostaniesz obciążony kosztami. Jeden token odpowiada jednemu punktowi danych w wejściowym zestawie danych lub wyjściowym zestawie danych.
Załóżmy, że masz następujący wejściowy zestaw danych szeregów czasowych:
Unikalny_id | Sygnatura czasowa | Zmienna docelowa | Zmienna egzogeniczna 1 | Zmienna egzogeniczna 2 |
---|---|---|---|---|
BYĆ | 2016-10-22 00:00:00 | 70.00 | 49593.0 | 57253,0 |
BYĆ | 2016-10-22 01:00:00 | 37.10 | 46073.0 | 51887,0 |
Aby określić liczbę tokenów, należy pomnożyć liczbę wierszy (w tym przykładzie dwa) i liczbę kolumn używanych do prognozowania — nie licząc kolumn unique_id i sygnatur czasowych (w tym przykładzie trzy), aby uzyskać łącznie sześć tokenów.
Biorąc pod uwagę następujący wyjściowy zestaw danych:
Unikalny_id | Sygnatura czasowa | Prognozowana zmienna docelowa |
---|---|---|
BYĆ | 2016-10-22 02:00:00 | 46.57 |
BYĆ | 2016-10-22 03:00:00 | 48.57 |
Można również określić liczbę tokenów, zliczając liczbę punktów danych zwracanych po prognozowaniu danych. W tym przykładzie liczba tokenów to dwa.
Szacowanie cen na podstawie tokenów
Istnieją cztery mierniki cen, które określają cenę, którą płacisz. Te mierniki są następujące:
Miernik cen | Opis |
---|---|
tokeny wejściowe inferencji paygo | Koszty skojarzone z tokenami używanymi jako dane wejściowe do wnioskowania, gdy finetune_steps = 0 |
paygo-inference-output-tokens (żetony wynikowe inferencji paygo) | Koszty skojarzone z tokenami używanymi jako dane wyjściowe do wnioskowania, gdy finetune_steps = 0 |
żetony-wejściowe-modelu-dostrajanie-finansowe-na-żądanie-inferencji | Koszty skojarzone z tokenami używanymi jako dane wejściowe do wnioskowania, gdy finetune_steps> 0 |
model-wytrenowany-za-pomoca-paygo-wynik-inferencji-tokenow | Koszty skojarzone z tokenami używanymi jako dane wyjściowe do wnioskowania, gdy finetune_steps> 0 |
Zobacz kolekcję modeli Nixtla w portalu usługi Azure AI Foundry.
DANE NTT
tsuzumi to zoptymalizowany do autoregresywnych języków model transformera. Dostrojone wersje używają nadzorowanego dostrajania (SFT). Tsuzumi z dużą wydajnością obsługuje zarówno język japoński, jak i angielski.
Model | Typ | Możliwości |
---|---|---|
tsuzumi-7b | kompletacja czatu |
-
Dane wejściowe: tekst (8192 tokeny) - Dane wyjściowe: tekst (tokeny 8192) - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: tekst |
Stabilność sztucznej inteligencji
Kolekcja modeli generowania obrazów Stability AI obejmuje Stable Image Core, Stable Image Ultra i Stable Diffusion 3.5 Large. Stable Diffusion 3.5 Large umożliwia wprowadzanie obrazu i tekstu.
Model | Typ | Możliwości |
---|---|---|
Stabilna dyfuzja 3,5 duża | Generowanie obrazu |
-
Dane wejściowe: tekst i obraz (1000 tokenów i 1 obraz) - Dane wyjściowe: 1 obraz - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: Obraz (PNG i JPG) |
Stabilny rdzeń obrazu | Generowanie obrazu |
-
Dane wejściowe: tekst (tokeny 1000) - Dane wyjściowe: 1 obraz - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: Obraz (PNG i JPG) |
Ultra Stabilny Obraz | Generowanie obrazu |
-
Dane wejściowe: tekst (tokeny 1000) - Dane wyjściowe: 1 obraz - Wywoływanie narzędzi: Nie - Formaty odpowiedzi: Obraz (PNG i JPG) |
xAI
Modele Grok 3 i Grok 3 Mini firmy xAI zostały zaprojektowane tak, aby wyróżniały się w różnych domenach przedsiębiorstwa. Grok 3, wstępnie wytrenowany przez centrum danych Colossus, jest dostosowany do biznesowych przypadków użycia, takich jak wyodrębnianie danych, kodowanie i podsumowywanie tekstu, z wyjątkowymi zdolnościami do wykonywania instrukcji. Obsługuje on okno kontekstowe tokenu 131 072, co umożliwia obsługę rozbudowanych danych wejściowych przy zachowaniu spójności i głębokości, a także jest szczególnie biegły w tworzeniu połączeń między domenami i językami. Z drugiej strony, Grok 3 Mini to lekki model rozumowania wyszkolony do rozwiązywania problemów związanych z agentyką, kodowaniem, matematyką i głębokimi naukami przy użyciu obliczeń wykonywanych w czasie testów. Obsługuje również okno kontekstowe 131 072 tokenów do zrozumienia baz kodu i dokumentów przedsiębiorstwa, a także wyróżnia się przy użyciu narzędzi do rozwiązywania złożonych problemów logicznych w nowych środowiskach, oferując nieprzetworzone ślady rozumowania do inspekcji przez użytkowników z regulowanymi przez użytkownika budżetami myślenia.
Model | Typ | Możliwości |
---|---|---|
grok-3 | kompletowanie czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 131 072) - Języki: en - Wywoływanie narzędzi: tak - Formaty odpowiedzi: tekst |
grok-3-mini | kompletowanie czatu |
-
Dane wejściowe: tekst (131 072 tokenów) - Dane wyjściowe: tekst (tokeny 131 072) - Języki: en - Wywoływanie narzędzi: tak - Formaty odpowiedzi: tekst |
Przykłady wnioskowania: Stability AI
Modele stabilnej sztucznej inteligencji wdrożone za pośrednictwem bezserwerowego wdrożenia interfejsu API implementują interfejs API wnioskowania modelu na trasie /image/generations
.
Aby zobaczyć, jak używać modeli Stability AI, zobacz poniższe przykłady.
- Użyj OpenAI SDK z modelami Stability AI do przekształcania tekstu w obrazy
- Używanie biblioteki Requests z modelami Stability AI do konwersji tekstu na obrazy
- Użyj biblioteki Requests z modelem Stable Diffusion 3.5 Large do przetwarzania żądań obrazów na obrazy
- Przykład w pełni zakodowanej odpowiedzi generowania obrazu