Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Der Azure AI-Modellkatalog bietet eine große Auswahl an Azure AI Foundry Models aus einer Vielzahl von Anbietern. Sie haben verschiedene Optionen zum Bereitstellen von Modellen aus dem Modellkatalog. In diesem Artikel werden Azure AI Foundry-Modelle aufgeführt, die über die Standardbereitstellung bereitgestellt werden können. Einige dieser Modelle können Sie auch auf Ihrer Infrastruktur hosten, um sie über verwaltetes Compute bereitzustellen.
Wichtig
Modelle, die sich in der Vorschau befinden, werden auf ihren Modellkarten im Modellkatalog als Vorschau gekennzeichnet.
Um Rückschlüsse mit den Modellen durchzuführen, erfordern einige Modelle wie TimeGEN-1 von Nixtla und Cohere rerank die Verwendung benutzerdefinierter APIs der Modellanbieter. Andere unterstützen die Ableitung mithilfe der Foundry Models-API. Weitere Details zu einzelnen Modellen finden Sie, indem Sie ihre Modellkarten im Modellkatalog für das Azure AI Foundry-Portal überprüfen.
AI21 Labs
Jamba-Familienmodelle sind auf Mamba basierende, produktionstaugliche Large Language Models (LLM) von AI21, die die hybride Mamba-Transformer-Architektur von AI21 nutzen. Es ist eine anweisungsoptimierte Version des hybriden strukturierten Zustandsraummodells (State Space Model, SSM) des Jamba-Transformer-Modells von AI21. Im Hinblick auf Qualität und Leistung sind die Jamba-Familienmodelle auf die zuverlässige kommerzielle Nutzung ausgerichtet.
Modell | Typ | Fähigkeiten |
---|---|---|
AI21-Jamba-1.5-Mini | chat-completion | - Eingabe: Text (262.144 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON, strukturierte Ausgaben |
AI21-Jamba-1.5-Groß | chat-completion | - Eingabe: Text (262.144 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON, strukturierte Ausgaben |
Weitere Informationen finden Sie in dieser Modellsammlung im Azure AI Foundry-Portal.
Azure OpenAI
Azure OpenAI in Foundry Models bietet eine vielzahl von Modellen mit unterschiedlichen Funktionen und Preispunkten. Zu diesen Modellen gehören folgende:
- Modernste Modelle, die für die Behandlung von Schlussfolgerungs- und Problemlösungsaufgaben mit erhöhtem Fokus und mehr Funktionalität konzipiert sind
- Modelle, die natürliche Sprache und Code verstehen und generieren können
- Modelle, die Sprache transkribieren und in Text übersetzen können
Modell | Typ | Fähigkeiten |
---|---|---|
o3-mini | chat-completion | - Eingabe: Text und Bild (200.000 Token) - Ausgabe: Text (100.000 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON, strukturierte Ausgaben |
o1 | Chatabschluss (mit Bildern) | - Eingabe: Text und Bild (200.000 Token) - Ausgabe: Text (100.000 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON, strukturierte Ausgaben |
o1-Vorschau | chat-completion | - Eingabe: Text (128.000 Token) - Ausgabe: Text (32.768 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON, strukturierte Ausgaben |
o1-mini | chat-completion | - Eingabe: Text (128.000 Token) - Ausgabe: Text (65.536 Token) - Toolaufrufe: Nein - Antwortformate: Text |
gpt-4o-realtime-preview | Echtzeit | - Eingabe: Steuerelement, Text und Audio (131.072 Token) - Ausgabe: Text und Audio (16.384 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
gpt-4o | Chatabschluss (mit Bild- und Audioinhalten) | - Eingabe: Text, Bild und Audio (131.072 Token) - Ausgabe: Text (16,384 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON, strukturierte Ausgaben |
gpt-4o-mini | Chatabschluss (mit Bild- und Audioinhalten) | - Eingabe: Text, Bild und Audio (131.072 Token) - Ausgabe: Text (16,384 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON, strukturierte Ausgaben |
text-embedding-3-large | Einbettungen | - Eingabe: Text (8.191 Token) - Ausgabe: Vektor (3.072 Dim.) |
Texteinbettung-3-klein | Einbettungen | - Eingabe: Text (8.191 Token) - Ausgabe: Vektor (1.536 Dim.) |
Weitere Informationen finden Sie in dieser Modellsammlung im Azure AI Foundry-Portal.
Kohärent sein
Die Cohere-Modellfamilie umfasst verschiedene Modelle, die für unterschiedliche Anwendungsfälle optimiert sind, darunter Reranking, Chat-Fertigstellungen und Einbettungsmodelle.
Cohere-Befehl und Einbetten
In der folgenden Tabelle sind die Cohere-Modelle aufgeführt, die Sie über die Foundry Models-API ableiten können.
Modell | Typ | Fähigkeiten |
---|---|---|
Cohere-command-A | chat-completion | - Eingabe: Text (256.000 Token) - Ausgabe: Text (8.000 Zeichen) - Toolaufrufe: Ja - Antwortformate: Text |
Cohere-command-r-plus-08-2024 | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Cohere-command-r-08-2024 | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Cohere-command-r-plus (veraltet) |
chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Cohere-command-r (veraltet) |
chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Cohere-embed-v-4 | Einbettungen Bildeinbettungen |
- Eingabe: Bild, Text - Ausgabe: Bild, Text (128.000 Token) - Toolaufrufe: Ja - Antwortformate: Bild, Text |
Cohere-embed-v3-english | Einbettungen Bildeinbettungen |
- Eingabe: Text (512 Token) - Ausgabe: Vektor (1.024 Dim.) |
Cohere-embed-v3-multilingual | Einbettungen Bildeinbettungen |
- Eingabe: Text (512 Token) - Ausgabe: Vektor (1.024 Dim.) |
Rückschlussbeispiele: Cohere-Befehl und Einbetten
Weitere Beispiele für die Verwendung von Cohere-Modellen finden Sie in den folgenden Beispielen:
BESCHREIBUNG | Sprache | Beispiel |
---|---|---|
Webanfragen | Bash | Command-RCommand-R+ cohere-embed.ipynb |
Azure KI-Rückschlusspaket für C# | C# | Verbinden |
Azure KI-Rückschlusspaket für JavaScript | JavaScript | Verbinden |
Azure KI-Inferenzpaket für Python | Python | Verbinden |
OpenAI SDK (experimentell) | Python | Verbinden |
LangChain | Python | Verbinden |
Cohere-SDK | Python | Befehl Einbinden |
LiteLLM SDK | Python | Verbinden |
Retrieval Augmented Generation (RAG) und Toolbeispielen: Befehle und Einbetten
BESCHREIBUNG | Pakete | Beispiel |
---|---|---|
Erstellen eines lokalen FAISS-Vektorindex (Facebook AI Similarity Search) mithilfe von Cohere-Einbettungen: Langchain | langchain , langchain_cohere |
cohere_faiss_langchain_embed.ipynb |
Verwenden von Cohere Command R/R+ zum Beantworten von Fragen mit Daten im lokalen FAISS-Vektorindex: Langchain | langchain , langchain_cohere |
command_faiss_langchain.ipynb |
Verwenden von Cohere Command R/R+ zum Beantworten von Fragen mit Daten im KI-Suchvektorindex: Langchain | langchain , langchain_cohere |
cohere-aisearch-langchain-rag.ipynb |
Verwenden von Cohere Command R/R+ zum Beantworten von Fragen mit Daten im KI-Suchvektorindex: Cohere SDK | cohere , azure_search_documents |
cohere-aisearch-rag.ipynb |
Aufrufen von Command R+-Tools/-Funktionen mit LangChain | cohere , langchain langchain_cohere |
command_tools-langchain.ipynb |
Cohere Rerank
In der folgenden Tabelle sind die Cohere-Neurankungsmodelle aufgeführt. Um Schlussfolgerungen mit diesen Rerank-Modellen zu ziehen, müssen Sie die benutzerdefinierten Rerank-APIs von Cohere verwenden, die in der Tabelle aufgeführt sind.
Modell | Typ | Rückschluss-API |
---|---|---|
Cohere-rerank-v3.5 | Neuklassifizierung Textklassifizierung |
Cohere v2/rerank API |
Cohere-rerank-v3-english (veraltet) |
Neuklassifizierung Textklassifizierung |
Cohere v2/rerank API Coheres v1/rerank-API |
Cohere-rerank-v3-multilingual (veraltet) |
Neuklassifizierung Textklassifizierung |
Cohere v2/rerank API Coheres v1/rerank-API |
Preise für Cohere Rerank-Modelle
Abfragen, die nicht mit der Abfrage eines Benutzers verwechselt werden sollen, ist ein Preismesser, der sich auf die Kosten bezieht, die mit den Token verbunden sind, die als Eingabe für die Ableitung eines Cohere Rerank-Modells verwendet werden. Cohere zählt eine einzelne Sucheinheit als Abfrage mit bis zu 100 Dokumenten, die bewertet werden sollen. Dokumente, die zusammen mit der Länge der Suchanfrage länger als 500 Token (für Cohere-rerank-v3.5) oder länger als 4096 Token (für Cohere-rerank-v3-English und Cohere-rerank-v3-multilingual) sind, werden in mehrere Abschnitte aufgeteilt, wobei jeder Abschnitt als ein einzelnes Dokument zählt.
Siehe die Cohere-Modellsammlung im Azure AI Foundry-Portal.
Core42
Core42 umfasst autoregressive bilinguale LLMs für Arabisch und Englisch mit modernsten Funktionen in Arabisch.
Modell | Typ | Fähigkeiten |
---|---|---|
jais-30b-chat | chat-completion | - Eingabe: Text (8.192 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Weitere Informationen finden Sie in dieser Modellsammlung im Azure AI Foundry-Portal.
Ableitungsbeispiele: Core42
Weitere Beispiele für die Verwendung von Jais-Modellen finden Sie in den folgenden Beispielen:
BESCHREIBUNG | Sprache | Beispiel |
---|---|---|
Azure KI-Rückschlusspaket für C# | C# | Verbinden |
Azure KI-Rückschlusspaket für JavaScript | JavaScript | Verbinden |
Azure KI-Inferenzpaket für Python | Python | Verbinden |
DeepSeek
Die DeepSeek-Modellfamilie umfasst DeepSeek-R1, das sich bei Argumentationsaufgaben mithilfe eines schrittweisen Schulungsprozesses auszeichnet, wie etwa Sprach-, wissenschaftliche Denk- und Programmieraufgaben. Dazu gehört auch DeepSeek-V3-0324, ein Mix-of-Experts (MoE)-Sprachmodell, und vieles mehr.
Modell | Typ | Fähigkeiten |
---|---|---|
DeepSeek-R1-0528 |
Chatabschluss mit inhaltlicher Begründung | - Eingabe: Text (163.840 Token) - Ausgabe: Text (163.840 Token) - Sprachen: en und zh - Toolaufrufe: Nein - Antwortformate: Text |
DeekSeek-V3-0324 | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: (131.072 Token) - Toolaufrufe: Nein - Antwortformate: Text, JSON |
DeepSeek-V3 (Erbe) |
chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (131.072 Token) - Toolaufrufe: Nein - Antwortformate: Text, JSON |
DeepSeek-R1 | Chatabschluss mit inhaltlicher Begründung | - Eingabe: Text (163.840 Token) - Ausgabe: Text (163.840 Token) - Toolaufrufe: Nein - Antwortformate: Text. |
Ein Lernprogramm zu DeepSeek-R1 finden Sie unter Tutorial: Erste Schritte mit DeepSeek-R1 Reasoning-Modell in Foundry Models.
Weitere Informationen finden Sie in dieser Modellsammlung im Azure AI Foundry-Portal.
Beispiele für Inference: DeepSeek
Weitere Beispiele für die Verwendung von DeepSeek-Modellen finden Sie in den folgenden Beispielen:
BESCHREIBUNG | Sprache | Beispiel |
---|---|---|
Azure KI-Inferenzpaket für Python | Python | Verbinden |
Azure KI-Rückschlusspaket für JavaScript | JavaScript | Verbinden |
Azure KI-Rückschlusspaket für C# | C# | Verbinden |
Azure KI-Rückschlusspaket für Java | Java | Verbinden |
Meta
Meta Llama-Modelle und -Tools sind eine Sammlung vortrainierter und optimierter Text- und Bildbegründungsmodelle mit generativer KI. Die Palette der Meta-Modelle umfasst Folgendes:
- Kleine Sprachmodelle (Small Language Models, SLMs) wie 1B- und 3B-Basismodelle und -Instruct-Modelle für Rückschlüsse auf dem Gerät und am Edge
- Mittlere große Sprachmodelle (LLMs) wie 7B-, 8B- und 70B-Basis- und Instruct-Modelle
- Hochleistungsfähige Modelle wie Meta Llama 3.1 405B Instruct für synthetische Datengenerierung und Destillation
- Leistungsstarke, systemeigene multimodale Modelle, Llama 4 Scout und Llama 4 Maverick, nutzen eine Mischung aus Expertenarchitektur, um branchenführende Leistung im Text- und Bildverständnis zu bieten.
Modell | Typ | Fähigkeiten |
---|---|---|
Llama-4-Scout-17B-16E-Instruct | chat-completion | - Eingabe: Text und Bild (128.000 Token) - Ausgabe: Text (8.192 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Llama 4-Maverick-17B-128E-Instruct-FP8 | chat-completion | - Eingabe: Text und Bild (128.000 Token) - Ausgabe: Text (8.192 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Llama-3.3-70B-Instruct | chat-completion | - Eingabe: Text (128.000 Token) - Ausgabe: Text (8.192 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Llama-3.2-90B-Vision-Instruct | Chatabschluss (mit Bildern) | - Eingabe: Text und Bild (128.000 Token) - Ausgabe: Text (8.192 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Llama-3.2-11B-Vision-Instruct | Chatabschluss (mit Bildern) | - Eingabe: Text und Bild (128.000 Token) - Ausgabe: Text (8.192 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Meta-Llama-3.1-8B-Instruct | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (8.192 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Meta-Llama-3.1-405B-Instruct | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (8.192 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Meta-Llama-3.1-70B-Instruct (veraltet) | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (8.192 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Meta-Llama-3-8B-Instruct (veraltet) | chat-completion | - Eingabe: Text (8.192 Token) - Ausgabe: Text (8.192 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Meta-Llama-3-70B-Anleitung (veraltet) | chat-completion | - Eingabe: Text (8.192 Token) - Ausgabe: Text (8.192 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Weitere Informationen finden Sie in dieser Modellsammlung im Azure AI Foundry-Portal.
Ableitungsbeispiele: Meta Llama
Weitere Beispiele für die Verwendung von Meta-Llama-Modellen finden Sie in den folgenden Beispielen:
BESCHREIBUNG | Sprache | Beispiel |
---|---|---|
cURL-Anforderung | Bash | Verbinden |
Azure KI-Rückschlusspaket für C# | C# | Verbinden |
Azure KI-Rückschlusspaket für JavaScript | JavaScript | Verbinden |
Azure KI-Inferenzpaket für Python | Python | Verbinden |
Python-Webanforderungen | Python | Verbinden |
OpenAI SDK (experimentell) | Python | Verbinden |
LangChain | Python | Verbinden |
LiteLLM | Python | Verbinden |
Microsoft
Microsoft-Modelle umfassen verschiedene Modellgruppen wie MAI-Modelle, Phi-Modelle, KI-Modelle im Gesundheitswesen und vieles mehr. Um alle verfügbaren Microsoft-Modelle anzuzeigen, zeigen Sie die Microsoft-Modellsammlung im Azure AI Foundry-Portal an.
Modell | Typ | Fähigkeiten |
---|---|---|
MAI-DS-R1 | Chatabschluss mit inhaltlicher Begründung | - Eingabe: Text (163.840 Token) - Ausgabe: Text (163.840 Token) - Toolaufrufe: Nein - Antwortformate: Text. |
Phi-4-Begründung | Chatabschluss mit inhaltlicher Begründung | - Eingabe: Text (32768-Token) - Ausgabe: Text (32768-Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-4-Mini-Logik | Chatabschluss mit inhaltlicher Begründung | - Eingabe: Text (128.000 Token) - Ausgabe: Text (128.000 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-4-multimodal-instruct | Chatabschluss (mit Bild- und Audioinhalten) | - Eingabe: Text, Bilder und Audio (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-4-mini-instruct | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-4 | chat-completion | - Eingabe: Text (16.384 Token) - Ausgabe: Text (16,384 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-3.5-mini-anleitung | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-3.5-MoE-instruct | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-3.5-vision-instruct | Chatabschluss (mit Bildern) | - Eingabe: Text und Bild (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-3-mini-128k-Anweisung | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-3-mini-4k-instruct | chat-completion | - Eingabe: Text (4.096 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-3-small-128k-instruct | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-3-small-8k-instruct | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-3-medium-128k-instruct | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Phi-3-medium-4k-instruct | chat-completion | - Eingabe: Text (4.096 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Rückschlussbeispiele: Microsoft-Modelle
Weitere Beispiele für die Verwendung von Microsoft-Modellen finden Sie in den folgenden Beispielen:
BESCHREIBUNG | Sprache | Beispiel |
---|---|---|
Azure KI-Rückschlusspaket für C# | C# | Verbinden |
Azure KI-Rückschlusspaket für JavaScript | JavaScript | Verbinden |
Azure KI-Inferenzpaket für Python | Python | Verbinden |
LangChain | Python | Verbinden |
Llama-Index | Python | Verbinden |
Siehe die Microsoft-Modellsammlung im Azure AI Foundry-Portal.
Mistral KI
Mistral AI bietet zwei Modellkategorien:
- Premiummodelle: Dazu gehören Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) und Ministral 3B Modelle und sind als serverlose APIs mit kostenpflichtiger tokenbasierter Abrechnung verfügbar.
- Offene Modelle: Dazu gehören Mistral-small-2503, Codestral und Mistral Nemo (die als serverlose APIs mit pay-as-you-go tokenbasierte Abrechnung verfügbar sind) und Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 und Mistral-7B-v01(die zum Herunterladen und Ausführen auf selbst gehosteten verwalteten Endpunkten verfügbar sind).
Modell | Typ | Fähigkeiten |
---|---|---|
Codestral-2501 | chat-completion | - Eingabe: Text (262.144 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Ministral-3B | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Mistral-Nemo | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Mistral-Large-2411 | chat-completion | - Eingabe: Text (128.000 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Mistral-large-2407 (veraltet) |
chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Mistral-Large (veraltet) |
chat-completion | - Eingabe: Text (32.768 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Mistral-medium-2505 | chat-completion | - Eingabe: Text (128.000 Token), Bild - Ausgabe: Text (128.000 Token) - Toolaufrufe: Nein - Antwortformate: Text, JSON |
Mistral-OCR-2503 | Bild in Text | - Eingabe: Bild- oder PDF-Seiten (1.000 Seiten, max. 50 MB PDF-Datei) - Ausgabe: Text - Toolaufrufe: Nein - Antwortformate: Text, JSON, Markdown |
Mistral-small-2503 | Chatabschluss (mit Bildern) | - Eingabe: Text und Bilder (131.072 Token), Bildbasierte Token sind 16px x 16px Blöcke der Originalimages - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Mistral-klein | chat-completion | - Eingabe: Text (32.768 Token) - Ausgabe: Text (4.096 Token) - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Weitere Informationen finden Sie in dieser Modellsammlung im Azure AI Foundry-Portal.
Rückschlussbeispiele: Mistral
Weitere Beispiele für die Verwendung von Mistral-Modellen finden Sie in den folgenden Beispielen und Tutorials:
BESCHREIBUNG | Sprache | Beispiel |
---|---|---|
cURL-Anforderung | Bash | Verbinden |
Azure KI-Rückschlusspaket für C# | C# | Verbinden |
Azure KI-Rückschlusspaket für JavaScript | JavaScript | Verbinden |
Azure KI-Inferenzpaket für Python | Python | Verbinden |
Python-Webanforderungen | Python | Verbinden |
OpenAI SDK (experimentell) | Python | Mistral - OpenAI SDK-Beispiel |
LangChain | Python | Mistral - LangChain-Beispiel |
Mistral KI | Python | Mistral - Mistral AI-Beispiel |
LiteLLM | Python | Mistral - LiteLLM-Beispiel |
Nixtla
Nixtlas TimeGEN-1 ist ein generatives vortrainiertes Prognose- und Anomalieerkennungsmodell für Zeitreihendaten. TimeGEN-1 kann genaue Prognosen für neue Zeitreihen ohne Training generieren, wobei nur Verlaufswerte und exogene Kovariate als Eingaben verwendet werden.
Zum Durchführen der Ableitung erfordert TimeGEN-1, dass Sie die benutzerdefinierte Ableitungs-API von Nixtla verwenden.
Modell | Typ | Fähigkeiten | Rückschluss-API |
---|---|---|---|
TimeGEN-1 | Prognose | - Eingabe: Zeitreihendaten als JSON oder Datenrahmen (mit Unterstützung für multivariate Eingaben) - Ausgabe: Zeitreihendaten als JSON - Toolaufrufe: Nein - Antwortformate: JSON |
Prognoseclient für die Interaktion mit der Nixtla-API |
Schätzen der Anzahl der benötigten Tokens
Bevor Sie eine TimeGEN-1-Bereitstellung erstellen, empfiehlt es sich, die Anzahl der Token zu schätzen, die Sie nutzen und abrechnen möchten. Ein Token entspricht einem Datenpunkt in Ihrem Eingabedataset oder Ausgabedataset.
Angenommen, Sie verwenden das folgende Eingabedataset für Zeitreihen:
Unique_id | Zeitstempel | Zielvariable | Exogene Variable 1 | Exogene Variable 2 |
---|---|---|---|---|
BE | 2016-10-22 00:00:00 | 70.00 | 49593.0 | 57.253,0 |
BE | 2016-10-22 01:00:00 | 37.10 | 46073.0 | 51887,0 |
Um die Anzahl der Tokens zu ermitteln, multiplizieren Sie die Anzahl der Zeilen (in diesem Beispiel „2“) mit der Anzahl der Spalten, die für die Vorhersage verwendet werden (in diesem Beispiel „3“), um insgesamt sechs Tokens zu erhalten. Die Spalten „unique_id“ und „timestamp“ werden hierbei nicht berücksichtigt.
Angesichts des folgenden Ausgabedatasets:
Unique_id | Zeitstempel | Prognostizierte Zielvariable |
---|---|---|
BE | 2016-10-22 02:00:00 | 46.57 |
BE | 2016-10-22 03:00:00 | 48.57 |
Sie können auch die Anzahl der Tokens ermitteln, indem Sie die Anzahl der nach der Datenvorhersage zurückgegebenen Datenpunkte zählen. In diesem Beispiel entspricht die Anzahl der Tokens „2“.
Schätzen der Preise basierend auf Tokens
Es gibt vier Preismetriken, die den Preis bestimmen, den Sie zahlen. Diese Preismetriken lauten wie folgt:
Preismetrik | BESCHREIBUNG |
---|---|
paygo-inference-input-tokens | Kosten für Tokens, die als Eingabe für Rückschlüsse verwendet werden, wenn finetune_steps = 0 |
paygo-inference-output-tokens | Kosten im Zusammenhang mit den Tokens, die als Ausgabe für Rückschlüsse verwendet werden, wenn finetune_steps = 0 |
paygo-finetuned-model-inference-input-tokens | Kosten für Tokens, die als Eingabe für Rückschlüsse verwendet werden, wenn finetune_steps> 0 |
paygo-finetuned-model-inference-output-tokens | Kosten für Tokens, die als Ausgabe für Rückschlüsse verwendet werden, wenn finetune_steps> 0 |
Siehe die Nixtla-Modellsammlung im Azure AI Foundry-Portal.
NTT-DATEN
Tsuzumi ist ein autoregressiver sprachoptimierter Transformator. Die optimierten Versionen verwenden die überwachte Optimierung (Supervised Fine-Tuning, SFT). tsuzumi verarbeitet sowohl Japanisch als auch Englisch mit hoher Effizienz.
Modell | Typ | Fähigkeiten |
---|---|---|
tsuzumi-7b | chat-completion | - Eingabe: Text (8.192 Token) - Ausgabe: Text (8.192 Token) - Toolaufrufe: Nein - Antwortformate: Text |
Stabilitäts-KI
Die Stabilitäts-KI-Sammlung von Bildgenerierungsmodellen umfasst Stable Image Core, Stable Image Ultra und Stable Diffusion 3.5 Large. Stabile Diffusion 3.5 Large ermöglicht eine Bild- und Texteingabe.
Modell | Typ | Fähigkeiten |
---|---|---|
Stable Diffusion 3.5 Large | Bildgenerierung | - Eingabe: Text und Bild (1000 Token und 1 Bild) - Ausgabe: 1 Bild - Toolaufrufe: Nein - Antwortformate: Bild (PNG und JPG) |
Stable Image Core | Bildgenerierung | - Eingabe: Text (1000 Token) - Ausgabe: 1 Bild - Toolaufrufe: Nein - Antwortformate: Bild (PNG und JPG) |
Stable Image Ultra | Bildgenerierung | - Eingabe: Text (1000 Token) - Ausgabe: 1 Bild - Toolaufrufe: Nein - Antwortformate: Bild (PNG und JPG) |
xAI
Die Modelle Grok 3 und Grok 3 Mini von xAI sind darauf ausgelegt, in verschiedenen Unternehmensdomänen zu excelieren. Grok 3, ein Nicht-Reasoning-Modell, das vom Colossus-Rechenzentrum vortrainiert wurde, ist auf Geschäftsanwendungsfälle wie Datenextraktion, Codierung und Textzusammenfassung mit außergewöhnlichen Funktionen für die Anweisungsfolge zugeschnitten. Es unterstützt ein 131.072 Tokenkontextfenster, das es ermöglicht, umfangreiche Eingaben zu verarbeiten und gleichzeitig Kohärenz und Tiefe aufrechtzuerhalten, und ist insbesondere beim Zeichnen von Verbindungen zwischen Domänen und Sprachen sehr gut. Andererseits ist Grok 3 Mini ein einfaches Grundmodell, das trainiert wurde, agentisch, codieren, mathematisch und tiefgehende Wissenschaftsprobleme mit der Testzeitberechnung anzugehen. Es unterstützt außerdem ein Kontextfenster von 131.072 Token für das Verständnis von Codebasen und Unternehmensdokumenten und überzeugt bei der Verwendung von Tools zur Lösung komplexer logischer Probleme in neuartigen Umgebungen und bietet rohe Argumentationsverläufe für die Benutzerüberprüfung mit anpassbaren Gedankenbudgets.
Modell | Typ | Fähigkeiten |
---|---|---|
grok-3 | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (131.072 Token) - Sprachen: en - Toolaufrufe: Ja - Antwortformate: Text |
grok-3-mini | chat-completion | - Eingabe: Text (131.072 Token) - Ausgabe: Text (131.072 Token) - Sprachen: en - Toolaufrufe: Ja - Antwortformate: Text |
Rückschlussbeispiele: Stability AI
Stabilitäts-KI-Modelle, die über die Standardbereitstellung bereitgestellt werden, implementieren die Foundry Models-API auf der Route /image/generations
.
Beispiele für die Verwendung von Stabilitäts-KI-Modellen finden Sie in den folgenden Beispielen:
- Verwenden des OpenAI SDK mit Stability AI-Modellen für Anforderungen zur Umwandlung von Text in Bilder
- Verwenden der Bibliothek „Anforderungen“ mit Stability AI-Modellen für Text-zu-Bild-Anforderungen
- Verwenden Sie die Bibliothek „Anforderungen“ mit Stable Diffusion 3.5 Large für Bild-zu-Bild-Anforderungen.
- Beispiel für eine vollständig codierte Bildgenerierungsantwort