Freigeben über


Empfohlene Modelle des Azure AI-Modellkatalogs

Der Azure AI-Modellkatalog bietet eine große Auswahl an Modellen aus einer Vielzahl von Anbietern. Sie haben verschiedene Optionen zum Bereitstellen von Modellen aus dem Modellkatalog. In diesem Artikel werden empfohlene Modelle im Modellkatalog aufgeführt, die über Standardbereitstellungen auf Microsoft-Servern bereitgestellt und gehostet werden können. Einige dieser Modelle können Sie auch auf Ihrer Infrastruktur hosten, um sie über verwaltetes Compute bereitzustellen. Unter "Verfügbare Modelle für unterstützte Bereitstellungsoptionen " finden Sie Modelle im Katalog, die für die Bereitstellung über verwaltete Compute- oder Standardbereitstellungen verfügbar sind.

Um Rückschlüsse mit den Modellen durchzuführen, erfordern einige Modelle wie TimeGEN-1 von Nixtla und Cohere rerank die Verwendung benutzerdefinierter APIs der Modellanbieter. Andere unterstützen das Ableiten von Ableitungen mithilfe des Azure AI-Modells. Weitere Details zu einzelnen Modellen finden Sie, indem Sie ihre Modellkarten im Azure AI-Modellkatalog überprüfen.

Eine Animation mit dem Azure AI Foundry-Modellkatalogabschnitt und den verfügbaren Modellen.

AI21 Labs

Jamba-Familienmodelle sind auf Mamba basierende, produktionstaugliche Large Language Models (LLM) von AI21, die die hybride Mamba-Transformer-Architektur von AI21 nutzen. Es ist eine anweisungsoptimierte Version des hybriden strukturierten Zustandsraummodells (State Space Model, SSM) des Jamba-Transformer-Modells von AI21. Im Hinblick auf Qualität und Leistung sind die Jamba-Familienmodelle auf die zuverlässige kommerzielle Nutzung ausgerichtet.

Modell Typ Fähigkeiten
AI21-Jamba-1.5-Mini chat-completion - Eingabe: Text (262.144 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
AI21-Jamba-1.5-Groß chat-completion - Eingabe: Text (262.144 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben

Sehen Sie sich diese Modellsammlung im Azure AI-Modellkatalog an.

Azure OpenAI

Azure OpenAI in Azure AI Foundry Models bietet eine Vielzahl von Modellen mit unterschiedlichen Funktionen und Preispunkten. Zu diesen Modellen gehören folgende:

  • Modernste Modelle, die für die Behandlung von Schlussfolgerungs- und Problemlösungsaufgaben mit erhöhtem Fokus und mehr Funktionalität konzipiert sind
  • Modelle, die natürliche Sprache und Code verstehen und generieren können
  • Modelle, die Sprache transkribieren und in Text übersetzen können
Modell Typ Fähigkeiten
o3-mini chat-completion - Eingabe: Text und Bild (200.000 Token)
- Ausgabe: Text (100.000 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
o1 Chatabschluss (mit Bildern) - Eingabe: Text und Bild (200.000 Token)
- Ausgabe: Text (100.000 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
o1-Vorschau chat-completion - Eingabe: Text (128.000 Token)
- Ausgabe: Text (32.768 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
o1-mini chat-completion - Eingabe: Text (128.000 Token)
- Ausgabe: Text (65.536 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
gpt-4o-realtime-preview Echtzeit - Eingabe: Steuerelement, Text und Audio (131.072 Token)
- Ausgabe: Text und Audio (16.384 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
gpt-4o Chatabschluss (mit Bild- und Audioinhalten) - Eingabe: Text, Bild und Audio (131.072 Token)
- Ausgabe: Text (16,384 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
gpt-4o-mini Chatabschluss (mit Bild- und Audioinhalten) - Eingabe: Text, Bild und Audio (131.072 Token)
- Ausgabe: Text (16,384 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
text-embedding-3-large Einbettungen - Eingabe: Text (8.191 Token)
- Ausgabe: Vektor (3.072 Dim.)
Texteinbettung-3-klein Einbettungen - Eingabe: Text (8.191 Token)
- Ausgabe: Vektor (1.536 Dim.)

Sehen Sie sich diese Modellsammlung im Azure AI-Modellkatalog an.

Kohärent sein

Die Cohere-Modellfamilie umfasst verschiedene Modelle, die für unterschiedliche Anwendungsfälle optimiert sind, darunter Reranking, Chat-Fertigstellungen und Einbettungsmodelle.

Cohere-Befehl und Einbetten

In der folgenden Tabelle sind die Cohere-Modelle aufgeführt, die Sie über das Azure AI-Modell inference ableiten können.

Modell Typ Fähigkeiten
Cohere-command-A Chat-Beendigung - Eingabe: Text (256.000 Token)
- Ausgabe: Text (8 000 Token)
- Toolaufrufe: Ja
- Antwortformate: Text
Cohere-command-r-plus-08-2024 chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-command-r-08-2024 chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-command-r-plus
(veraltet)
chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-command-r
(veraltet)
chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-embed-4 Einbettungen
Bildeinbettungen
- Eingabe: Bild, Text
- Ausgabe: Bild, Text (128.000 Token)
- Toolaufrufe: Ja
- Antwortformate: Bild, Text
Cohere-embed-v3-english Einbettungen
Bildeinbettungen
- Eingabe: Text (512 Token)
- Ausgabe: Vektor (1.024 Dim.)
Cohere-embed-v3-multilingual Einbettungen
Bildeinbettungen
- Eingabe: Text (512 Token)
- Ausgabe: Vektor (1.024 Dim.)

Rückschlussbeispiele: Cohere-Befehl und Einbetten

Weitere Beispiele für die Verwendung von Cohere-Modellen finden Sie in den folgenden Beispielen:

BESCHREIBUNG Sprache Beispiel
Webanfragen Bash Command-RCommand-R+
cohere-embed.ipynb
Azure KI-Rückschlusspaket für C# C# Verbinden
Azure KI-Rückschlusspaket für JavaScript JavaScript Verbinden
Azure KI-Inferenzpaket für Python Python Verbinden
OpenAI SDK (experimentell) Python Verbinden
LangChain Python Verbinden
Cohere-SDK Python Befehl
Einbinden
LiteLLM SDK Python Verbinden

Retrieval Augmented Generation (RAG) und Toolbeispielen: Befehle und Einbetten

BESCHREIBUNG Pakete Beispiel
Erstellen eines lokalen FAISS-Vektorindex (Facebook AI Similarity Search) mithilfe von Cohere-Einbettungen: Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Verwenden von Cohere Command R/R+ zum Beantworten von Fragen mit Daten im lokalen FAISS-Vektorindex: Langchain langchain, langchain_cohere command_faiss_langchain.ipynb
Verwenden von Cohere Command R/R+ zum Beantworten von Fragen mit Daten im KI-Suchvektorindex: Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Verwenden von Cohere Command R/R+ zum Beantworten von Fragen mit Daten im KI-Suchvektorindex: Cohere SDK cohere, azure_search_documents cohere-aisearch-rag.ipynb
Aufrufen von Command R+-Tools/-Funktionen mit LangChain cohere, langchainlangchain_cohere command_tools-langchain.ipynb

Cohere Rerank

In der folgenden Tabelle sind die Cohere-Neurankungsmodelle aufgeführt. Um Schlussfolgerungen mit diesen Rerank-Modellen zu ziehen, müssen Sie die benutzerdefinierten Rerank-APIs von Cohere verwenden, die in der Tabelle aufgeführt sind.

Modell Typ Rückschluss-API
Cohere-rerank-v3.5 Neuklassifizierung
Textklassifizierung
Cohere v2/rerank API
Cohere-rerank-v3-english
(veraltet)
Neuklassifizierung
Textklassifizierung
Cohere v2/rerank API
Coheres v1/rerank-API
Cohere-rerank-v3-multilingual
(veraltet)
Neuklassifizierung
Textklassifizierung
Cohere v2/rerank API
Coheres v1/rerank-API

Preise für Cohere Rerank-Modelle

Abfragen, die nicht mit der Abfrage eines Benutzers verwechselt werden sollen, ist ein Preismesser, der sich auf die Kosten bezieht, die mit den Token verbunden sind, die als Eingabe für die Ableitung eines Cohere Rerank-Modells verwendet werden. Cohere zählt eine einzelne Sucheinheit als Abfrage mit bis zu 100 Dokumenten, die bewertet werden sollen. Dokumente, die zusammen mit der Länge der Suchanfrage länger als 500 Token (für Cohere-rerank-v3.5) oder länger als 4096 Token (für Cohere-rerank-v3-English und Cohere-rerank-v3-multilingual) sind, werden in mehrere Abschnitte aufgeteilt, wobei jeder Abschnitt als ein einzelnes Dokument zählt.

Siehe die Cohere-Modellsammlung im Azure AI-Modellkatalog.

Core42

Core42 umfasst autoregressive bilinguale LLMs für Arabisch und Englisch mit modernsten Funktionen in Arabisch.

Modell Typ Fähigkeiten
jais-30b-chat chat-completion - Eingabe: Text (8.192 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON

Sehen Sie sich diese Modellsammlung im Azure AI-Modellkatalog an.

Ableitungsbeispiele: Core42

Weitere Beispiele für die Verwendung von Jais-Modellen finden Sie in den folgenden Beispielen:

BESCHREIBUNG Sprache Beispiel
Azure KI-Rückschlusspaket für C# C# Verbinden
Azure KI-Rückschlusspaket für JavaScript JavaScript Verbinden
Azure KI-Inferenzpaket für Python Python Verbinden

DeepSeek

Die DeepSeek-Modellfamilie umfasst DeepSeek-R1, das sich bei Aufgaben wie Sprachverständnis, wissenschaftlichem Denken und Codierungsaufgaben durch einen schrittweisen Schulungsprozess auszeichnet, DeepSeek-V3-0324, einem Mix-of-Experts (MoE)-Sprachmodell, und vieles mehr.

Modell Typ Fähigkeiten
DeekSeek-V3-0324 chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: (131.072 Token)
- Toolaufrufe: Nein
- Antwortformate: Text, JSON
DeepSeek-V3
(Erbe)
chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (131.072 Token)
- Toolaufrufe: Nein
- Antwortformate: Text, JSON
DeepSeek-R1 Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (163.840 Token)
- Ausgabe: Text (163.840 Token)
- Toolaufrufe: Nein
- Antwortformate: Text.

Ein Lernprogramm zu DeepSeek-R1 finden Sie im Lernprogramm: Erste Schritte mit DeepSeek-R1 Schlussfolgerungsmodell in Azure AI-Modellinferenz.

Sehen Sie sich diese Modellsammlung im Azure AI-Modellkatalog an.

Beispiele für Inference: DeepSeek

Weitere Beispiele für die Verwendung von DeepSeek-Modellen finden Sie in den folgenden Beispielen:

BESCHREIBUNG Sprache Beispiel
Azure KI-Inferenzpaket für Python Python Verbinden
Azure KI-Rückschlusspaket für JavaScript JavaScript Verbinden
Azure KI-Rückschlusspaket für C# C# Verbinden
Azure KI-Rückschlusspaket für Java Java Verbinden

Meta

Meta Llama-Modelle und -Tools sind eine Sammlung vortrainierter und optimierter Text- und Bildbegründungsmodelle mit generativer KI. Die Palette der Meta-Modelle umfasst Folgendes:

  • Kleine Sprachmodelle (Small Language Models, SLMs) wie 1B- und 3B-Basismodelle und -Instruct-Modelle für Rückschlüsse auf dem Gerät und am Edge
  • Mittlere große Sprachmodelle (LLMs) wie 7B-, 8B- und 70B-Basis- und Instruct-Modelle
  • Hochleistungsfähige Modelle wie Meta Llama 3.1 405B Instruct für synthetische Datengenerierung und Destillation
  • Leistungsstarke, systemeigene multimodale Modelle, Llama 4 Scout und Llama 4 Maverick, nutzen eine Mischung aus Expertenarchitektur, um branchenführende Leistung im Text- und Bildverständnis zu bieten.
Modell Typ Fähigkeiten
Llama-4-Scout-17B-16E-Instruct chat-completion - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Ja
- Antwortformate: Text
Llama 4-Maverick-17B-128E-Instruct-FP8 chat-completion - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Ja
- Antwortformate: Text
Llama-3.3-70B-Instruct chat-completion - Eingabe: Text (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Llama-3.2-90B-Vision-Instruct Chatabschluss (mit Bildern) - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Llama-3.2-11B-Vision-Instruct Chatabschluss (mit Bildern) - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3.1-8B-Instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3.1-405B-Instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3.1-70B-Instruct (veraltet) chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3-8B-Instruct (veraltet) chat-completion - Eingabe: Text (8.192 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3-70B-Anleitung (veraltet) chat-completion - Eingabe: Text (8.192 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text

Sehen Sie sich diese Modellsammlung im Azure AI-Modellkatalog an.

Ableitungsbeispiele: Meta Llama

Weitere Beispiele für die Verwendung von Meta-Llama-Modellen finden Sie in den folgenden Beispielen:

BESCHREIBUNG Sprache Beispiel
cURL-Anforderung Bash Verbinden
Azure KI-Rückschlusspaket für C# C# Verbinden
Azure KI-Rückschlusspaket für JavaScript JavaScript Verbinden
Azure KI-Inferenzpaket für Python Python Verbinden
Python-Webanforderungen Python Verbinden
OpenAI SDK (experimentell) Python Verbinden
LangChain Python Verbinden
LiteLLM Python Verbinden

Microsoft

Microsoft-Modelle umfassen verschiedene Modellgruppen wie MAI-Modelle, Phi-Modelle, KI-Modelle im Gesundheitswesen und vieles mehr. Um alle verfügbaren Microsoft-Modelle anzuzeigen, zeigen Sie die Microsoft-Modellsammlung im Azure AI Foundry-Portal an.

Modell Typ Fähigkeiten
MAI-DS-R1 Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (163.840 Token)
- Ausgabe: Text (163.840 Token)
- Toolaufrufe: Nein
- Antwortformate: Text.
Phi-4-Begründung Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (32768-Token)
- Ausgabe: Text (32768-Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4-Mini-Logik Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (128.000 Token)
- Ausgabe: Text (128.000 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4-multimodal-instruct Chatabschluss (mit Bild- und Audioinhalten) - Eingabe: Text, Bilder und Audio (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4-mini-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4 chat-completion - Eingabe: Text (16.384 Token)
- Ausgabe: Text (16,384 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3.5-mini-instruction chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3.5-MoE-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3.5-vision-instruct Chatabschluss (mit Bildern) - Eingabe: Text und Bild (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-mini-128k-Anweisung chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-mini-4k-instruct chat-completion - Eingabe: Text (4.096 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-small-128k-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-small-8k-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-medium-128k-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-medium-4k-instruct chat-completion - Eingabe: Text (4.096 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text

Rückschlussbeispiele: Microsoft-Modelle

Weitere Beispiele für die Verwendung von Microsoft-Modellen finden Sie in den folgenden Beispielen:

BESCHREIBUNG Sprache Beispiel
Azure KI-Rückschlusspaket für C# C# Verbinden
Azure KI-Rückschlusspaket für JavaScript JavaScript Verbinden
Azure KI-Inferenzpaket für Python Python Verbinden
LangChain Python Verbinden
Llama-Index Python Verbinden

Weitere Informationen finden Sie in der Microsoft-Modellsammlung im Azure AI-Modellkatalog.

Mistral KI

Mistral AI bietet zwei Modellkategorien:

  • Premiummodelle: Dazu gehören Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) und Ministral 3B Modelle und sind als serverlose APIs mit kostenpflichtiger tokenbasierter Abrechnung verfügbar.
  • Offene Modelle: Dazu gehören Mistral-small-2503, Codestral und Mistral Nemo (die als serverlose APIs mit pay-as-you-go tokenbasierte Abrechnung verfügbar sind) und Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 und Mistral-7B-v01(die zum Herunterladen und Ausführen auf selbst gehosteten verwalteten Endpunkten verfügbar sind).
Modell Typ Fähigkeiten
Codestral-2501 chat-completion - Eingabe: Text (262.144 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Ministral-3B chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-Nemo chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-Large-2411 chat-completion - Eingabe: Text (128.000 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-large-2407
(veraltet)
chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-Large
(veraltet)
chat-completion - Eingabe: Text (32.768 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-medium-2505 chat-completion - Eingabe: Text (128.000 Token), Bild
- Ausgabe: Text (128.000 Token)
- Toolaufrufe: Nein
- Antwortformate: Text, JSON
Mistral-OCR-2503 Bild in Text - Eingabe: Bild- oder PDF-Seiten (1.000 Seiten, max. 50 MB PDF-Datei)
- Ausgabe: Text
- Toolaufrufe: Nein
- Antwortformate: Text, JSON, Markdown
Mistral-small-2503 Chatabschluss (mit Bildern) - Eingabe: Text und Bilder (131.072 Token),
Bildbasierte Token sind 16px x 16px
Blöcke der Originalimages
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-klein chat-completion - Eingabe: Text (32.768 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON

Sehen Sie sich diese Modellsammlung im Azure AI-Modellkatalog an.

Rückschlussbeispiele: Mistral

Weitere Beispiele für die Verwendung von Mistral-Modellen finden Sie in den folgenden Beispielen und Tutorials:

BESCHREIBUNG Sprache Beispiel
cURL-Anforderung Bash Verbinden
Azure KI-Rückschlusspaket für C# C# Verbinden
Azure KI-Rückschlusspaket für JavaScript JavaScript Verbinden
Azure KI-Inferenzpaket für Python Python Verbinden
Python-Webanforderungen Python Verbinden
OpenAI SDK (experimentell) Python Mistral - OpenAI SDK-Beispiel
LangChain Python Mistral - LangChain-Beispiel
Mistral KI Python Mistral - Mistral AI-Beispiel
LiteLLM Python Mistral - LiteLLM-Beispiel

Nixtla

Nixtlas TimeGEN-1 ist ein generatives vortrainiertes Prognose- und Anomalieerkennungsmodell für Zeitreihendaten. TimeGEN-1 kann genaue Prognosen für neue Zeitreihen ohne Training generieren, wobei nur Verlaufswerte und exogene Kovariate als Eingaben verwendet werden.

Zum Durchführen der Ableitung erfordert TimeGEN-1, dass Sie die benutzerdefinierte Ableitungs-API von Nixtla verwenden.

Modell Typ Fähigkeiten Rückschluss-API
TimeGEN-1 Prognose - Eingabe: Zeitreihendaten als JSON oder Datenrahmen (mit Unterstützung für multivariate Eingaben)
- Ausgabe: Zeitreihendaten als JSON
- Toolaufrufe: Nein
- Antwortformate: JSON
Prognoseclient für die Interaktion mit der Nixtla-API

Schätzen der Anzahl der benötigten Tokens

Bevor Sie eine TimeGEN-1-Bereitstellung erstellen, empfiehlt es sich, die Anzahl der Token zu schätzen, die Sie nutzen und abrechnen möchten. Ein Token entspricht einem Datenpunkt in Ihrem Eingabedataset oder Ausgabedataset.

Angenommen, Sie verwenden das folgende Eingabedataset für Zeitreihen:

Unique_id Zeitstempel Zielvariable Exogene Variable 1 Exogene Variable 2
SEIN 2016-10-22 00:00:00 70.00 49593.0 57.253,0
SEIN 2016-10-22 01:00:00 37.10 46073.0 51887,0

Um die Anzahl der Tokens zu ermitteln, multiplizieren Sie die Anzahl der Zeilen (in diesem Beispiel „2“) mit der Anzahl der Spalten, die für die Vorhersage verwendet werden (in diesem Beispiel „3“), um insgesamt sechs Tokens zu erhalten. Die Spalten „unique_id“ und „timestamp“ werden hierbei nicht berücksichtigt.

Angesichts des folgenden Ausgabedatasets:

Unique_id Zeitstempel Prognostizierte Zielvariable
SEIN 2016-10-22 02:00:00 46.57
SEIN 2016-10-22 03:00:00 48.57

Sie können auch die Anzahl der Tokens ermitteln, indem Sie die Anzahl der nach der Datenvorhersage zurückgegebenen Datenpunkte zählen. In diesem Beispiel entspricht die Anzahl der Tokens „2“.

Schätzen der Preise basierend auf Tokens

Es gibt vier Preismetriken, die den Preis bestimmen, den Sie zahlen. Diese Preismetriken lauten wie folgt:

Preismetrik BESCHREIBUNG
paygo-inference-input-tokens Kosten für Tokens, die als Eingabe für Rückschlüsse verwendet werden, wenn finetune_steps = 0
paygo-inference-output-tokens Kosten im Zusammenhang mit den Tokens, die als Ausgabe für Rückschlüsse verwendet werden, wenn finetune_steps = 0
paygo-finetuned-model-inference-input-tokens Kosten für Tokens, die als Eingabe für Rückschlüsse verwendet werden, wenn finetune_steps> 0
paygo-finetuned-model-inference-output-tokens Kosten für Tokens, die als Ausgabe für Rückschlüsse verwendet werden, wenn finetune_steps> 0

Siehe die Nixtla-Modellsammlung im Azure AI-Modellkatalog.

NTT-DATEN

Tsuzumi ist ein autoregressiver sprachoptimierter Transformator. Die optimierten Versionen verwenden die überwachte Optimierung (Supervised Fine-Tuning, SFT). tsuzumi verarbeitet sowohl Japanisch als auch Englisch mit hoher Effizienz.

Modell Typ Fähigkeiten
tsuzumi-7b chat-completion - Eingabe: Text (8.192 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text

Stabilitäts-KI

Die Stabilitäts-KI-Sammlung von Bildgenerierungsmodellen umfasst Stable Image Core, Stable Image Ultra und Stable Diffusion 3.5 Large. Stabile Diffusion 3.5 Large ermöglicht eine Bild- und Texteingabe.

Modell Typ Fähigkeiten
Stable Diffusion 3.5 Large Bildgenerierung - Eingabe: Text und Bild (1000 Token und 1 Bild)
- Ausgabe: 1 Bild
- Toolaufrufe: Nein
- Antwortformate: Bild (PNG und JPG)
Stable Image Core Bildgenerierung - Eingabe: Text (1000 Token)
- Ausgabe: 1 Bild
- Toolaufrufe: Nein
- Antwortformate: Bild (PNG und JPG)
Stabiles Image Ultra Bildgenerierung - Eingabe: Text (1000 Token)
- Ausgabe: 1 Bild
- Toolaufrufe: Nein
- Antwortformate: Bild (PNG und JPG)

Rückschlussbeispiele: Stability AI

Stabilitäts-KI-Modelle, die für Standardbereitstellungen bereitgestellt werden, implementieren die Azure AI-Modell-Ableitungs-API auf der Route /image/generations. Beispiele für die Verwendung von Stabilitäts-KI-Modellen finden Sie in den folgenden Beispielen: