Freigeben über


Azure AI Foundry Models verfügbar für die Standardbereitstellung

Der Azure AI-Modellkatalog bietet eine große Auswahl an Azure AI Foundry Models aus einer Vielzahl von Anbietern. Sie haben verschiedene Optionen zum Bereitstellen von Modellen aus dem Modellkatalog. In diesem Artikel werden Azure AI Foundry-Modelle aufgeführt, die über die Standardbereitstellung bereitgestellt werden können. Einige dieser Modelle können Sie auch auf Ihrer Infrastruktur hosten, um sie über verwaltetes Compute bereitzustellen.

Wichtig

Modelle, die sich in der Vorschau befinden, werden auf ihren Modellkarten im Modellkatalog als Vorschau gekennzeichnet.

Um Rückschlüsse mit den Modellen durchzuführen, erfordern einige Modelle wie TimeGEN-1 von Nixtla und Cohere rerank die Verwendung benutzerdefinierter APIs der Modellanbieter. Andere unterstützen die Ableitung mithilfe der Foundry Models-API. Weitere Details zu einzelnen Modellen finden Sie, indem Sie ihre Modellkarten im Modellkatalog für das Azure AI Foundry-Portal überprüfen.

Eine Animation mit dem Azure AI Foundry-Modellkatalogabschnitt und den verfügbaren Modellen.

AI21 Labs

Jamba-Familienmodelle sind auf Mamba basierende, produktionstaugliche Large Language Models (LLM) von AI21, die die hybride Mamba-Transformer-Architektur von AI21 nutzen. Es ist eine anweisungsoptimierte Version des hybriden strukturierten Zustandsraummodells (State Space Model, SSM) des Jamba-Transformer-Modells von AI21. Im Hinblick auf Qualität und Leistung sind die Jamba-Familienmodelle auf die zuverlässige kommerzielle Nutzung ausgerichtet.

Modell Typ Fähigkeiten
AI21-Jamba-1.5-Mini chat-completion - Eingabe: Text (262.144 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
AI21-Jamba-1.5-Groß chat-completion - Eingabe: Text (262.144 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben

Weitere Informationen finden Sie in dieser Modellsammlung im Azure AI Foundry-Portal.

Azure OpenAI

Azure OpenAI in Foundry Models bietet eine vielzahl von Modellen mit unterschiedlichen Funktionen und Preispunkten. Zu diesen Modellen gehören folgende:

  • Modernste Modelle, die für die Behandlung von Schlussfolgerungs- und Problemlösungsaufgaben mit erhöhtem Fokus und mehr Funktionalität konzipiert sind
  • Modelle, die natürliche Sprache und Code verstehen und generieren können
  • Modelle, die Sprache transkribieren und in Text übersetzen können
Modell Typ Fähigkeiten
o3-mini chat-completion - Eingabe: Text und Bild (200.000 Token)
- Ausgabe: Text (100.000 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
o1 Chatabschluss (mit Bildern) - Eingabe: Text und Bild (200.000 Token)
- Ausgabe: Text (100.000 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
o1-Vorschau chat-completion - Eingabe: Text (128.000 Token)
- Ausgabe: Text (32.768 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
o1-mini chat-completion - Eingabe: Text (128.000 Token)
- Ausgabe: Text (65.536 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
gpt-4o-realtime-preview Echtzeit - Eingabe: Steuerelement, Text und Audio (131.072 Token)
- Ausgabe: Text und Audio (16.384 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
gpt-4o Chatabschluss (mit Bild- und Audioinhalten) - Eingabe: Text, Bild und Audio (131.072 Token)
- Ausgabe: Text (16,384 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
gpt-4o-mini Chatabschluss (mit Bild- und Audioinhalten) - Eingabe: Text, Bild und Audio (131.072 Token)
- Ausgabe: Text (16,384 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
text-embedding-3-large Einbettungen - Eingabe: Text (8.191 Token)
- Ausgabe: Vektor (3.072 Dim.)
Texteinbettung-3-klein Einbettungen - Eingabe: Text (8.191 Token)
- Ausgabe: Vektor (1.536 Dim.)

Weitere Informationen finden Sie in dieser Modellsammlung im Azure AI Foundry-Portal.

Kohärent sein

Die Cohere-Modellfamilie umfasst verschiedene Modelle, die für unterschiedliche Anwendungsfälle optimiert sind, darunter Reranking, Chat-Fertigstellungen und Einbettungsmodelle.

Cohere-Befehl und Einbetten

In der folgenden Tabelle sind die Cohere-Modelle aufgeführt, die Sie über die Foundry Models-API ableiten können.

Modell Typ Fähigkeiten
Cohere-command-A chat-completion - Eingabe: Text (256.000 Token)
- Ausgabe: Text (8.000 Zeichen)
- Toolaufrufe: Ja
- Antwortformate: Text
Cohere-command-r-plus-08-2024 chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-command-r-08-2024 chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-command-r-plus
(veraltet)
chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-command-r
(veraltet)
chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-embed-v-4 Einbettungen
Bildeinbettungen
- Eingabe: Bild, Text
- Ausgabe: Bild, Text (128.000 Token)
- Toolaufrufe: Ja
- Antwortformate: Bild, Text
Cohere-embed-v3-english Einbettungen
Bildeinbettungen
- Eingabe: Text (512 Token)
- Ausgabe: Vektor (1.024 Dim.)
Cohere-embed-v3-multilingual Einbettungen
Bildeinbettungen
- Eingabe: Text (512 Token)
- Ausgabe: Vektor (1.024 Dim.)

Rückschlussbeispiele: Cohere-Befehl und Einbetten

Weitere Beispiele für die Verwendung von Cohere-Modellen finden Sie in den folgenden Beispielen:

BESCHREIBUNG Sprache Beispiel
Webanfragen Bash Command-RCommand-R+
cohere-embed.ipynb
Azure KI-Rückschlusspaket für C# C# Verbinden
Azure KI-Rückschlusspaket für JavaScript JavaScript Verbinden
Azure KI-Inferenzpaket für Python Python Verbinden
OpenAI SDK (experimentell) Python Verbinden
LangChain Python Verbinden
Cohere-SDK Python Befehl
Einbinden
LiteLLM SDK Python Verbinden

Retrieval Augmented Generation (RAG) und Toolbeispielen: Befehle und Einbetten

BESCHREIBUNG Pakete Beispiel
Erstellen eines lokalen FAISS-Vektorindex (Facebook AI Similarity Search) mithilfe von Cohere-Einbettungen: Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Verwenden von Cohere Command R/R+ zum Beantworten von Fragen mit Daten im lokalen FAISS-Vektorindex: Langchain langchain, langchain_cohere command_faiss_langchain.ipynb
Verwenden von Cohere Command R/R+ zum Beantworten von Fragen mit Daten im KI-Suchvektorindex: Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Verwenden von Cohere Command R/R+ zum Beantworten von Fragen mit Daten im KI-Suchvektorindex: Cohere SDK cohere, azure_search_documents cohere-aisearch-rag.ipynb
Aufrufen von Command R+-Tools/-Funktionen mit LangChain cohere, langchainlangchain_cohere command_tools-langchain.ipynb

Cohere Rerank

In der folgenden Tabelle sind die Cohere-Neurankungsmodelle aufgeführt. Um Schlussfolgerungen mit diesen Rerank-Modellen zu ziehen, müssen Sie die benutzerdefinierten Rerank-APIs von Cohere verwenden, die in der Tabelle aufgeführt sind.

Modell Typ Rückschluss-API
Cohere-rerank-v3.5 Neuklassifizierung
Textklassifizierung
Cohere v2/rerank API
Cohere-rerank-v3-english
(veraltet)
Neuklassifizierung
Textklassifizierung
Cohere v2/rerank API
Coheres v1/rerank-API
Cohere-rerank-v3-multilingual
(veraltet)
Neuklassifizierung
Textklassifizierung
Cohere v2/rerank API
Coheres v1/rerank-API

Preise für Cohere Rerank-Modelle

Abfragen, die nicht mit der Abfrage eines Benutzers verwechselt werden sollen, ist ein Preismesser, der sich auf die Kosten bezieht, die mit den Token verbunden sind, die als Eingabe für die Ableitung eines Cohere Rerank-Modells verwendet werden. Cohere zählt eine einzelne Sucheinheit als Abfrage mit bis zu 100 Dokumenten, die bewertet werden sollen. Dokumente, die zusammen mit der Länge der Suchanfrage länger als 500 Token (für Cohere-rerank-v3.5) oder länger als 4096 Token (für Cohere-rerank-v3-English und Cohere-rerank-v3-multilingual) sind, werden in mehrere Abschnitte aufgeteilt, wobei jeder Abschnitt als ein einzelnes Dokument zählt.

Siehe die Cohere-Modellsammlung im Azure AI Foundry-Portal.

Core42

Core42 umfasst autoregressive bilinguale LLMs für Arabisch und Englisch mit modernsten Funktionen in Arabisch.

Modell Typ Fähigkeiten
jais-30b-chat chat-completion - Eingabe: Text (8.192 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON

Weitere Informationen finden Sie in dieser Modellsammlung im Azure AI Foundry-Portal.

Ableitungsbeispiele: Core42

Weitere Beispiele für die Verwendung von Jais-Modellen finden Sie in den folgenden Beispielen:

BESCHREIBUNG Sprache Beispiel
Azure KI-Rückschlusspaket für C# C# Verbinden
Azure KI-Rückschlusspaket für JavaScript JavaScript Verbinden
Azure KI-Inferenzpaket für Python Python Verbinden

DeepSeek

Die DeepSeek-Modellfamilie umfasst DeepSeek-R1, das sich bei Argumentationsaufgaben mithilfe eines schrittweisen Schulungsprozesses auszeichnet, wie etwa Sprach-, wissenschaftliche Denk- und Programmieraufgaben. Dazu gehört auch DeepSeek-V3-0324, ein Mix-of-Experts (MoE)-Sprachmodell, und vieles mehr.

Modell Typ Fähigkeiten
DeepSeek-R1-0528
Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (163.840 Token)
- Ausgabe: Text (163.840 Token)
- Sprachen:en und zh
- Toolaufrufe: Nein
- Antwortformate: Text
DeekSeek-V3-0324 chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: (131.072 Token)
- Toolaufrufe: Nein
- Antwortformate: Text, JSON
DeepSeek-V3
(Erbe)
chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (131.072 Token)
- Toolaufrufe: Nein
- Antwortformate: Text, JSON
DeepSeek-R1 Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (163.840 Token)
- Ausgabe: Text (163.840 Token)
- Toolaufrufe: Nein
- Antwortformate: Text.

Ein Lernprogramm zu DeepSeek-R1 finden Sie unter Tutorial: Erste Schritte mit DeepSeek-R1 Reasoning-Modell in Foundry Models.

Weitere Informationen finden Sie in dieser Modellsammlung im Azure AI Foundry-Portal.

Beispiele für Inference: DeepSeek

Weitere Beispiele für die Verwendung von DeepSeek-Modellen finden Sie in den folgenden Beispielen:

BESCHREIBUNG Sprache Beispiel
Azure KI-Inferenzpaket für Python Python Verbinden
Azure KI-Rückschlusspaket für JavaScript JavaScript Verbinden
Azure KI-Rückschlusspaket für C# C# Verbinden
Azure KI-Rückschlusspaket für Java Java Verbinden

Meta

Meta Llama-Modelle und -Tools sind eine Sammlung vortrainierter und optimierter Text- und Bildbegründungsmodelle mit generativer KI. Die Palette der Meta-Modelle umfasst Folgendes:

  • Kleine Sprachmodelle (Small Language Models, SLMs) wie 1B- und 3B-Basismodelle und -Instruct-Modelle für Rückschlüsse auf dem Gerät und am Edge
  • Mittlere große Sprachmodelle (LLMs) wie 7B-, 8B- und 70B-Basis- und Instruct-Modelle
  • Hochleistungsfähige Modelle wie Meta Llama 3.1 405B Instruct für synthetische Datengenerierung und Destillation
  • Leistungsstarke, systemeigene multimodale Modelle, Llama 4 Scout und Llama 4 Maverick, nutzen eine Mischung aus Expertenarchitektur, um branchenführende Leistung im Text- und Bildverständnis zu bieten.
Modell Typ Fähigkeiten
Llama-4-Scout-17B-16E-Instruct chat-completion - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Llama 4-Maverick-17B-128E-Instruct-FP8 chat-completion - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Llama-3.3-70B-Instruct chat-completion - Eingabe: Text (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Llama-3.2-90B-Vision-Instruct Chatabschluss (mit Bildern) - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Llama-3.2-11B-Vision-Instruct Chatabschluss (mit Bildern) - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3.1-8B-Instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3.1-405B-Instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3.1-70B-Instruct (veraltet) chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3-8B-Instruct (veraltet) chat-completion - Eingabe: Text (8.192 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3-70B-Anleitung (veraltet) chat-completion - Eingabe: Text (8.192 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text

Weitere Informationen finden Sie in dieser Modellsammlung im Azure AI Foundry-Portal.

Ableitungsbeispiele: Meta Llama

Weitere Beispiele für die Verwendung von Meta-Llama-Modellen finden Sie in den folgenden Beispielen:

BESCHREIBUNG Sprache Beispiel
cURL-Anforderung Bash Verbinden
Azure KI-Rückschlusspaket für C# C# Verbinden
Azure KI-Rückschlusspaket für JavaScript JavaScript Verbinden
Azure KI-Inferenzpaket für Python Python Verbinden
Python-Webanforderungen Python Verbinden
OpenAI SDK (experimentell) Python Verbinden
LangChain Python Verbinden
LiteLLM Python Verbinden

Microsoft

Microsoft-Modelle umfassen verschiedene Modellgruppen wie MAI-Modelle, Phi-Modelle, KI-Modelle im Gesundheitswesen und vieles mehr. Um alle verfügbaren Microsoft-Modelle anzuzeigen, zeigen Sie die Microsoft-Modellsammlung im Azure AI Foundry-Portal an.

Modell Typ Fähigkeiten
MAI-DS-R1 Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (163.840 Token)
- Ausgabe: Text (163.840 Token)
- Toolaufrufe: Nein
- Antwortformate: Text.
Phi-4-Begründung Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (32768-Token)
- Ausgabe: Text (32768-Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4-Mini-Logik Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (128.000 Token)
- Ausgabe: Text (128.000 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4-multimodal-instruct Chatabschluss (mit Bild- und Audioinhalten) - Eingabe: Text, Bilder und Audio (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4-mini-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4 chat-completion - Eingabe: Text (16.384 Token)
- Ausgabe: Text (16,384 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3.5-mini-anleitung chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3.5-MoE-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3.5-vision-instruct Chatabschluss (mit Bildern) - Eingabe: Text und Bild (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-mini-128k-Anweisung chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-mini-4k-instruct chat-completion - Eingabe: Text (4.096 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-small-128k-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-small-8k-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-medium-128k-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-medium-4k-instruct chat-completion - Eingabe: Text (4.096 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text

Rückschlussbeispiele: Microsoft-Modelle

Weitere Beispiele für die Verwendung von Microsoft-Modellen finden Sie in den folgenden Beispielen:

BESCHREIBUNG Sprache Beispiel
Azure KI-Rückschlusspaket für C# C# Verbinden
Azure KI-Rückschlusspaket für JavaScript JavaScript Verbinden
Azure KI-Inferenzpaket für Python Python Verbinden
LangChain Python Verbinden
Llama-Index Python Verbinden

Siehe die Microsoft-Modellsammlung im Azure AI Foundry-Portal.

Mistral KI

Mistral AI bietet zwei Modellkategorien:

  • Premiummodelle: Dazu gehören Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) und Ministral 3B Modelle und sind als serverlose APIs mit kostenpflichtiger tokenbasierter Abrechnung verfügbar.
  • Offene Modelle: Dazu gehören Mistral-small-2503, Codestral und Mistral Nemo (die als serverlose APIs mit pay-as-you-go tokenbasierte Abrechnung verfügbar sind) und Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 und Mistral-7B-v01(die zum Herunterladen und Ausführen auf selbst gehosteten verwalteten Endpunkten verfügbar sind).
Modell Typ Fähigkeiten
Codestral-2501 chat-completion - Eingabe: Text (262.144 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Ministral-3B chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-Nemo chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-Large-2411 chat-completion - Eingabe: Text (128.000 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-large-2407
(veraltet)
chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-Large
(veraltet)
chat-completion - Eingabe: Text (32.768 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-medium-2505 chat-completion - Eingabe: Text (128.000 Token), Bild
- Ausgabe: Text (128.000 Token)
- Toolaufrufe: Nein
- Antwortformate: Text, JSON
Mistral-OCR-2503 Bild in Text - Eingabe: Bild- oder PDF-Seiten (1.000 Seiten, max. 50 MB PDF-Datei)
- Ausgabe: Text
- Toolaufrufe: Nein
- Antwortformate: Text, JSON, Markdown
Mistral-small-2503 Chatabschluss (mit Bildern) - Eingabe: Text und Bilder (131.072 Token),
Bildbasierte Token sind 16px x 16px
Blöcke der Originalimages
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-klein chat-completion - Eingabe: Text (32.768 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON

Weitere Informationen finden Sie in dieser Modellsammlung im Azure AI Foundry-Portal.

Rückschlussbeispiele: Mistral

Weitere Beispiele für die Verwendung von Mistral-Modellen finden Sie in den folgenden Beispielen und Tutorials:

BESCHREIBUNG Sprache Beispiel
cURL-Anforderung Bash Verbinden
Azure KI-Rückschlusspaket für C# C# Verbinden
Azure KI-Rückschlusspaket für JavaScript JavaScript Verbinden
Azure KI-Inferenzpaket für Python Python Verbinden
Python-Webanforderungen Python Verbinden
OpenAI SDK (experimentell) Python Mistral - OpenAI SDK-Beispiel
LangChain Python Mistral - LangChain-Beispiel
Mistral KI Python Mistral - Mistral AI-Beispiel
LiteLLM Python Mistral - LiteLLM-Beispiel

Nixtla

Nixtlas TimeGEN-1 ist ein generatives vortrainiertes Prognose- und Anomalieerkennungsmodell für Zeitreihendaten. TimeGEN-1 kann genaue Prognosen für neue Zeitreihen ohne Training generieren, wobei nur Verlaufswerte und exogene Kovariate als Eingaben verwendet werden.

Zum Durchführen der Ableitung erfordert TimeGEN-1, dass Sie die benutzerdefinierte Ableitungs-API von Nixtla verwenden.

Modell Typ Fähigkeiten Rückschluss-API
TimeGEN-1 Prognose - Eingabe: Zeitreihendaten als JSON oder Datenrahmen (mit Unterstützung für multivariate Eingaben)
- Ausgabe: Zeitreihendaten als JSON
- Toolaufrufe: Nein
- Antwortformate: JSON
Prognoseclient für die Interaktion mit der Nixtla-API

Schätzen der Anzahl der benötigten Tokens

Bevor Sie eine TimeGEN-1-Bereitstellung erstellen, empfiehlt es sich, die Anzahl der Token zu schätzen, die Sie nutzen und abrechnen möchten. Ein Token entspricht einem Datenpunkt in Ihrem Eingabedataset oder Ausgabedataset.

Angenommen, Sie verwenden das folgende Eingabedataset für Zeitreihen:

Unique_id Zeitstempel Zielvariable Exogene Variable 1 Exogene Variable 2
BE 2016-10-22 00:00:00 70.00 49593.0 57.253,0
BE 2016-10-22 01:00:00 37.10 46073.0 51887,0

Um die Anzahl der Tokens zu ermitteln, multiplizieren Sie die Anzahl der Zeilen (in diesem Beispiel „2“) mit der Anzahl der Spalten, die für die Vorhersage verwendet werden (in diesem Beispiel „3“), um insgesamt sechs Tokens zu erhalten. Die Spalten „unique_id“ und „timestamp“ werden hierbei nicht berücksichtigt.

Angesichts des folgenden Ausgabedatasets:

Unique_id Zeitstempel Prognostizierte Zielvariable
BE 2016-10-22 02:00:00 46.57
BE 2016-10-22 03:00:00 48.57

Sie können auch die Anzahl der Tokens ermitteln, indem Sie die Anzahl der nach der Datenvorhersage zurückgegebenen Datenpunkte zählen. In diesem Beispiel entspricht die Anzahl der Tokens „2“.

Schätzen der Preise basierend auf Tokens

Es gibt vier Preismetriken, die den Preis bestimmen, den Sie zahlen. Diese Preismetriken lauten wie folgt:

Preismetrik BESCHREIBUNG
paygo-inference-input-tokens Kosten für Tokens, die als Eingabe für Rückschlüsse verwendet werden, wenn finetune_steps = 0
paygo-inference-output-tokens Kosten im Zusammenhang mit den Tokens, die als Ausgabe für Rückschlüsse verwendet werden, wenn finetune_steps = 0
paygo-finetuned-model-inference-input-tokens Kosten für Tokens, die als Eingabe für Rückschlüsse verwendet werden, wenn finetune_steps> 0
paygo-finetuned-model-inference-output-tokens Kosten für Tokens, die als Ausgabe für Rückschlüsse verwendet werden, wenn finetune_steps> 0

Siehe die Nixtla-Modellsammlung im Azure AI Foundry-Portal.

NTT-DATEN

Tsuzumi ist ein autoregressiver sprachoptimierter Transformator. Die optimierten Versionen verwenden die überwachte Optimierung (Supervised Fine-Tuning, SFT). tsuzumi verarbeitet sowohl Japanisch als auch Englisch mit hoher Effizienz.

Modell Typ Fähigkeiten
tsuzumi-7b chat-completion - Eingabe: Text (8.192 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text

Stabilitäts-KI

Die Stabilitäts-KI-Sammlung von Bildgenerierungsmodellen umfasst Stable Image Core, Stable Image Ultra und Stable Diffusion 3.5 Large. Stabile Diffusion 3.5 Large ermöglicht eine Bild- und Texteingabe.

Modell Typ Fähigkeiten
Stable Diffusion 3.5 Large Bildgenerierung - Eingabe: Text und Bild (1000 Token und 1 Bild)
- Ausgabe: 1 Bild
- Toolaufrufe: Nein
- Antwortformate: Bild (PNG und JPG)
Stable Image Core Bildgenerierung - Eingabe: Text (1000 Token)
- Ausgabe: 1 Bild
- Toolaufrufe: Nein
- Antwortformate: Bild (PNG und JPG)
Stable Image Ultra Bildgenerierung - Eingabe: Text (1000 Token)
- Ausgabe: 1 Bild
- Toolaufrufe: Nein
- Antwortformate: Bild (PNG und JPG)

xAI

Die Modelle Grok 3 und Grok 3 Mini von xAI sind darauf ausgelegt, in verschiedenen Unternehmensdomänen zu excelieren. Grok 3, ein Nicht-Reasoning-Modell, das vom Colossus-Rechenzentrum vortrainiert wurde, ist auf Geschäftsanwendungsfälle wie Datenextraktion, Codierung und Textzusammenfassung mit außergewöhnlichen Funktionen für die Anweisungsfolge zugeschnitten. Es unterstützt ein 131.072 Tokenkontextfenster, das es ermöglicht, umfangreiche Eingaben zu verarbeiten und gleichzeitig Kohärenz und Tiefe aufrechtzuerhalten, und ist insbesondere beim Zeichnen von Verbindungen zwischen Domänen und Sprachen sehr gut. Andererseits ist Grok 3 Mini ein einfaches Grundmodell, das trainiert wurde, agentisch, codieren, mathematisch und tiefgehende Wissenschaftsprobleme mit der Testzeitberechnung anzugehen. Es unterstützt außerdem ein Kontextfenster von 131.072 Token für das Verständnis von Codebasen und Unternehmensdokumenten und überzeugt bei der Verwendung von Tools zur Lösung komplexer logischer Probleme in neuartigen Umgebungen und bietet rohe Argumentationsverläufe für die Benutzerüberprüfung mit anpassbaren Gedankenbudgets.

Modell Typ Fähigkeiten
grok-3 chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (131.072 Token)
- Sprachen:en
- Toolaufrufe: Ja
- Antwortformate: Text
grok-3-mini chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (131.072 Token)
- Sprachen:en
- Toolaufrufe: Ja
- Antwortformate: Text

Rückschlussbeispiele: Stability AI

Stabilitäts-KI-Modelle, die über die Standardbereitstellung bereitgestellt werden, implementieren die Foundry Models-API auf der Route /image/generations. Beispiele für die Verwendung von Stabilitäts-KI-Modellen finden Sie in den folgenden Beispielen: