Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Dieser Artikel bezieht sich auf das Microsoft Foundry(klassische) Portal.
🔄 Wechseln Sie zur Microsoft Foundry-Dokumentation (neu), wenn Sie das neue Portal verwenden.
Hinweis
Dieser Artikel bezieht sich auf das Microsoft Foundry (neue) Portal.
In diesem Artikel werden die Funktionen für eine Auswahl von Microsoft Foundry Models von Partnern und Communitys aufgeführt. Die meisten Foundry-Modellanbieter sind vertrauenswürdige Drittanbieterorganisationen, Partner, Forschungslabore und Communitymitwirkende. Die Auswahl von Modellen, die Sie in Foundry sehen, hängt von der Art des verwendeten Projekts ab. Weitere Informationen zu Attributen von Foundry Models von Partnern und Communitys finden Sie unter Explore Foundry Models.
Hinweis
Eine Liste der Modelle, die direkt von Azure verkauft werden, finden Sie unter Direkt von Azure verkaufte Foundry Models-Instanzen.
Eine Liste der Azure OpenAI-Modelle, die vom Foundry Agent Service unterstützt werden, finden Sie unter Modelle, die vom Agent-Dienst unterstützt werden.
Anthropic
Das Flaggschiff-Produkt von Anthropic ist Claude, ein fortschrittliches KI-Modell, dem führende Unternehmen und Millionen von Benutzern weltweit für komplexe Aufgaben wie Programmierung, Agents, Finanzanalysen, Recherchen und Bürotätigkeiten vertrauen. Claude liefert außergewöhnliche Leistung und hält gleichzeitig hohe Sicherheitsstandards.
Informationen zum Arbeiten mit Claude-Modellen in Foundry finden Sie unter Bereitstellen und Verwenden von Claude-Modellen in Microsoft Foundry.
Von Bedeutung
Um Claude-Modelle in Microsoft Foundry zu verwenden, benötigen Sie ein kostenpflichtiges Azure-Abonnement mit einem Abrechnungskonto in einem Land oder einer Region , in dem Anthropic die Modelle zum Kauf anbietet. Die folgenden kostenpflichtigen Abonnementtypen sind derzeit eingeschränkt: Cloud Solution Providers (CSP), gesponserte Konten mit Azure-Gutschriften, Unternehmenskonten in Singapur und Südkorea und Microsoft-Konten.
Eine Liste allgemeiner Abonnementfehler finden Sie unter Allgemeine Fehlermeldungen und Lösungen.
| Model | Typ | Fähigkeiten | Projekttyp |
|---|---|---|---|
|
claude-opus-4-6 (Vorschau) |
Messages |
-
Eingabe: Text, Bild und Code - Ausgabe: Text, Bild und Code (maximal 128.000 Token) - Kontextfenster: 1.000.000 (Beta) - Sprachen: en, , fr, ar, zhja, ko, , , , eshi - Toolaufrufe: Ja (Dateisuche und Codeausführung) - Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen) |
Foundry, Hub-basiertes System |
|
claude-opus-4-5 (Vorschau) |
Messages |
-
Eingabe: Text, Bild und Code - Ausgabe: Text (maximal 64.000 Token) - Kontextfenster: 200.000 - Sprachen: en, , fr, ar, zhja, ko, , , , eshi - Toolaufrufe: Ja (Dateisuche und Codeausführung) - Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen) |
Foundry, Hub-basiertes System |
|
claude-opus-4-1 (Vorschau) |
Messages |
-
Eingabe: Text, Bild und Code - Ausgabe: Text (maximal 32.000 Token) - Kontextfenster: 200.000 - Sprachen: en, , fr, ar, zhja, ko, , , , eshi - Toolaufrufe: Ja (Dateisuche und Codeausführung) - Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen) |
Foundry, Hub-basiertes System |
|
claude-sonnet-4-6 (Vorschau) |
Messages |
-
Eingabe: Text, Bild und Code - Ausgabe: Text, Bild und Code (maximal 128.000 Token) - Kontextfenster: 1.000.000 (Beta) - Sprachen: en, , fr, ar, zhja, ko, , , , eshi - Toolaufrufe: Ja (Dateisuche und Codeausführung) - Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen) |
Foundry, Hub-basiertes System |
|
claude-sonnet-4-5 (Vorschau) |
Messages |
-
Eingabe: Text, Bild und Code - Ausgabe: Text (maximal 64.000 Token) - Kontextfenster: 200.000 - Sprachen: en, , fr, ar, zhja, ko, , , , eshi - Toolaufrufe: Ja (Dateisuche und Codeausführung) - Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen) |
Foundry, Hub-basiertes System |
|
claude-haiku-4-5 (Vorschau) |
Messages |
-
Eingabe: Text und Bild - Ausgabe: Text (maximal 64.000 Token) - Kontextfenster: 200.000 - Sprachen: en, , fr, ar, zhja, ko, , , , eshi - Toolaufrufe: Ja (Dateisuche und Codeausführung) - Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen) |
Foundry, Hub-basiertes System |
| Model | Typ | Fähigkeiten |
|---|---|---|
claude-opus-4-6 (Vorschau) |
Messages |
-
Eingabe: Text, Bild und Code - Ausgabe: Text, Bild und Code (maximal 128.000 Token) - Kontextfenster: 1.000.000 (Beta) - Sprachen: en, , fr, ar, zhja, ko, , , , eshi - Toolaufrufe: Ja (Dateisuche und Codeausführung) - Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen) |
claude-opus-4-5 (Vorschau) |
Messages |
-
Eingabe: Text, Bild und Code - Ausgabe: Text (maximal 64.000 Token) - Kontextfenster: 200.000 - Sprachen: en, , fr, ar, zhja, ko, , , , eshi - Toolaufrufe: Ja (Dateisuche und Codeausführung) - Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen) |
claude-opus-4-1 (Vorschau) |
Messages |
-
Eingabe: Text, Bild und Code - Ausgabe: Text (maximal 32.000 Token) - Kontextfenster: 200.000 - Sprachen: en, , fr, ar, zhja, ko, , , , eshi - Toolaufrufe: Ja (Dateisuche und Codeausführung) - Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen) |
claude-sonnet-4-6 (Vorschau) |
Messages |
-
Eingabe: Text, Bild und Code - Ausgabe: Text, Bild und Code (maximal 128.000 Token) - Kontextfenster: 1.000.000 (Beta) - Sprachen: en, , fr, ar, zhja, ko, , , , eshi - Toolaufrufe: Ja (Dateisuche und Codeausführung) - Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen) |
claude-sonnet-4-5 (Vorschau) |
Messages |
-
Eingabe: Text, Bild und Code - Ausgabe: Text (maximal 64.000 Token) - Kontextfenster: 200.000 - Sprachen: en, , fr, ar, zhja, ko, , , , eshi - Toolaufrufe: Ja (Dateisuche und Codeausführung) - Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen) |
claude-haiku-4-5 (Vorschau) |
Messages |
-
Eingabe: Text und Bild - Ausgabe: Text (maximal 64.000 Token) - Kontextfenster: 200.000 - Sprachen: en, , fr, ar, zhja, ko, , , , eshi - Toolaufrufe: Ja (Dateisuche und Codeausführung) - Antwortformate: Text in verschiedenen Formaten (z. B. Prose, Listen, Markdown-Tabellen, JSON, HTML, Code in verschiedenen Programmiersprachen) |
Siehe anthropische Modelle im Foundry-Portal.
Cohere
Die Cohere-Modellfamilie umfasst verschiedene Modelle, die für unterschiedliche Anwendungsfälle optimiert sind, einschließlich Chatvervollständigungen und Einbettungen. Cohere-Modelle sind für verschiedene Anwendungsfälle optimiert, die Gründe, Zusammenfassungen und Fragen und Antworten umfassen.
Informationen zum Bereitstellen von Cohere-Modellen in Foundry finden Sie unter Bereitstellen von Microsoft Foundry-Modellen im Foundry-Portal.
| Model | Typ | Fähigkeiten | Projekttyp |
|---|---|---|---|
| Cohere-command-r-plus-08-2024 | chat-completion |
-
Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Sprachen: en, fr, es, it, de, pt-br, ja, ko, zh-cn, und ar - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Foundry, Hub-basiertes System |
| Cohere-command-r-08-2024 | chat-completion |
-
Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Sprachen: en, fr, es, it, de, pt-br, ja, ko, zh-cn, und ar - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Foundry, Hub-basiertes System |
| Cohere-embed-v3-english | embeddings |
-
Eingabe: Text und Bilder (512 Token) - Ausgabe: Vektor (1024 dim.) - Sprachen: en |
Foundry, Hub-basiertes System |
| Cohere-embed-v3-multilingual | embeddings |
-
Eingabe: Text (512 Token) - Ausgabe: Vektor (1024 dim.) - Sprachen: en, fr, es, it, de, pt-br, ja, ko, zh-cn, und ar |
Foundry, Hub-basiertes System |
| Model | Typ | Fähigkeiten |
|---|---|---|
Cohere-command-r-plus-08-2024 |
chat-completion |
-
Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Sprachen: en, fr, es, it, de, pt-br, ja, ko, zh-cn, und ar - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Cohere-command-r-08-2024 |
chat-completion |
-
Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Sprachen: en, fr, es, it, de, pt-br, ja, ko, zh-cn, und ar - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Cohere-embed-v3-english |
embeddings |
-
Eingabe: Text und Bilder (512 Token) - Ausgabe: Vektor (1024 dim.) - Sprachen: en |
Cohere-embed-v3-multilingual |
embeddings |
-
Eingabe: Text (512 Token) - Ausgabe: Vektor (1024 dim.) - Sprachen: en, fr, es, it, de, pt-br, ja, ko, zh-cn, und ar |
Cohere Rerank
| Model | Typ | Fähigkeiten | API-Referenz | Projekttyp |
|---|---|---|---|---|
| Cohere-rerank-v3.5 | rerank text classification |
-
Eingabe: Text - Ausgabe: Text - Sprachen: Englisch, Chinesisch, Französisch, Deutsch, Indonesien, Italienisch, Portugiesisch, Russisch, Spanisch, Arabisch, Niederländisch, Hindi, Japanisch, Vietnamesisch |
Cohere v2/rerank API | Hub-basiert |
Weitere Informationen zur Preisgestaltung für Cohere Rerank-Modelle finden Sie unter Pricing for Cohere rerank models.
Siehe Cohere-Modelle im Foundry-Portal.
Meta
Meta Llama-Modelle und -Tools sind eine Sammlung vortrainierter und optimierter Text- und Bildbegründungsmodelle mit generativer KI. Metamodelle umfassen in ihrer Bandbreite:
- Kleine Sprachmodelle (Small Language Models, SLMs) wie 1B- und 3B-Basismodelle und -Instruct-Modelle für Rückschlüsse auf dem Gerät und am Edge
- Mittlere große Sprachmodelle (LLMs) wie 7B-, 8B- und 70B-Basis- und Instruct-Modelle
- Hochleistungsmodelle wie Meta Llama 3.1-405B sind für Anwendungsfälle der synthetischen Datengenerierung und -destillation vorgesehen.
Informationen zum Bereitstellen von Meta-Llama-Modellen in Foundry finden Sie unter Bereitstellen von Microsoft Foundry-Modellen im Foundry-Portal.
| Model | Typ | Fähigkeiten | Projekttyp |
|---|---|---|---|
| Llama-3.2-11B-Vision-Instruct | chat-completion |
-
Eingabe: Text und Bild (128.000 Token) - Ausgabe: Text (8.192 Token) - Sprachen: en - Toolaufrufe: Nein - Antwortformate: Text |
Foundry, Hub-basiertes System |
| Llama-3.2-90B-Vision-Instruct | chat-completion |
-
Eingabe: Text und Bild (128.000 Token) - Ausgabe: Text (8.192 Token) - Sprachen: en - Toolaufrufe: Nein - Antwortformate: Text |
Foundry, Hub-basiertes System |
| Meta-Llama-3.1-405B-Instruct | chat-completion |
-
Eingabe: Text (131.072 Token) - Ausgabe: Text (8.192 Token) - Sprachen: en, , de, fr, itpt, hi, , und esth - Toolaufrufe: Nein - Antwortformate: Text |
Foundry, Hub-basiertes System |
| Meta-Llama-3.1-8B-Instruct | chat-completion |
-
Eingabe: Text (131.072 Token) - Ausgabe: Text (8.192 Token) - Sprachen: en, , de, fr, itpt, hi, , und esth - Toolaufrufe: Nein - Antwortformate: Text |
Foundry, Hub-basiertes System |
| Llama-4-Scout-17B-16E-Instruct | chat-completion |
-
Eingabe: Text und Bild (128.000 Token) - Ausgabe: Text (8.192 Token) - Sprachen: en - Toolaufrufe: Nein - Antwortformate: Text |
Foundry, Hub-basiertes System |
| Model | Typ | Fähigkeiten |
|---|---|---|
Llama-3.2-11B-Vision-Instruct |
chat-completion |
-
Eingabe: Text und Bild (128.000 Token) - Ausgabe: Text (8.192 Token) - Sprachen: en - Toolaufrufe: Nein - Antwortformate: Text |
Llama-3.2-90B-Vision-Instruct |
chat-completion |
-
Eingabe: Text und Bild (128.000 Token) - Ausgabe: Text (8.192 Token) - Sprachen: en - Toolaufrufe: Nein - Antwortformate: Text |
Meta-Llama-3.1-405B-Instruct |
chat-completion |
-
Eingabe: Text (131.072 Token) - Ausgabe: Text (8.192 Token) - Sprachen: en, , de, fr, itpt, hi, , und esth - Toolaufrufe: Nein - Antwortformate: Text |
Meta-Llama-3.1-8B-Instruct |
chat-completion |
-
Eingabe: Text (131.072 Token) - Ausgabe: Text (8.192 Token) - Sprachen: en, , de, fr, itpt, hi, , und esth - Toolaufrufe: Nein - Antwortformate: Text |
Llama-4-Scout-17B-16E-Instruct |
chat-completion |
-
Eingabe: Text und Bild (128.000 Token) - Ausgabe: Text (8.192 Token) - Sprachen: en - Toolaufrufe: Nein - Antwortformate: Text |
Siehe Metamodelle im Foundry-Portal. Es gibt außerdem mehrere Metamodelle, die als direkt von Azure verkaufte Modelle verfügbar sind.
Microsoft
Microsoft-Modelle umfassen verschiedene Modellgruppen wie MAI-Modelle, Phi-Modelle, KI-Modelle im Gesundheitswesen und vieles mehr.
Informationen zum Bereitstellen von Microsoft-Modellen in Foundry finden Sie unter Bereitstellen von Microsoft Foundry-Modellen im Foundry-Portal.
| Model | Typ | Fähigkeiten | Projekttyp |
|---|---|---|---|
| Phi-4-mini-instruct | chat-completion |
-
Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Sprachen: ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, und uk - Toolaufrufe: Nein - Antwortformate: Text |
Foundry, Hub-basiertes System |
| Phi-4-multimodal-instruct | chat-completion |
-
Eingabe: Text, Bilder und Audio (131.072 Token) - Ausgabe: Text (4.096 Token) - Sprachen: ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, und uk - Toolaufrufe: Nein - Antwortformate: Text |
Foundry, Hub-basiertes System |
| Phi-4 | chat-completion |
-
Eingabe: Text (16.384 Token) - Ausgabe: Text (16,384 Token) - Languages: en, ar, bn, cs, da, de, el, es, fa, fi, fr, gu, ha, he, hi, hu, id, it, ja, jv, kn, ko, ml, mr, nl, no, or, pa, pl, ps, pt, ro, ru, sv, sw, ta, te, th, tl, tr, uk, ur, vi, yo, und zh - Toolaufrufe: Nein - Antwortformate: Text |
Foundry, Hub-basiertes System |
| Phi-4-reasoning | Chat-Vervollständigung mit logischem Denk-Inhalt |
-
Eingabe: Text (32.768 Token) - Ausgabe: Text (32.768 Token) - Sprachen: en - Toolaufrufe: Nein - Antwortformate: Text |
Foundry, Hub-basiertes System |
| Phi-4-mini-reasoning | Chat-Vervollständigung mit logischem Denk-Inhalt |
-
Eingabe: Text (128.000 Token) - Ausgabe: Text (128.000 Token) - Sprachen: en - Toolaufrufe: Nein - Antwortformate: Text |
Foundry, Hub-basiertes System |
| Model | Typ | Fähigkeiten |
|---|---|---|
Phi-4-mini-instruct |
chat-completion |
-
Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Sprachen: ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, und uk - Toolaufrufe: Nein - Antwortformate: Text |
Phi-4-multimodal-instruct |
chat-completion |
-
Eingabe: Text, Bilder und Audio (131.072 Token) - Ausgabe: Text (4.096 Token) - Sprachen: ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, und uk - Toolaufrufe: Nein - Antwortformate: Text |
Phi-4 |
chat-completion |
-
Eingabe: Text (16.384 Token) - Ausgabe: Text (16,384 Token) - Languages: en, ar, bn, cs, da, de, el, es, fa, fi, fr, gu, ha, he, hi, hu, id, it, ja, jv, kn, ko, ml, mr, nl, no, or, pa, pl, ps, pt, ro, ru, sv, sw, ta, te, th, tl, tr, uk, ur, vi, yo, und zh - Toolaufrufe: Nein - Antwortformate: Text |
Phi-4-reasoning |
Chat-Vervollständigung mit logischem Denk-Inhalt |
-
Eingabe: Text (32.768 Token) - Ausgabe: Text (32.768 Token) - Sprachen: en - Toolaufrufe: Nein - Antwortformate: Text |
Phi-4-mini-reasoning |
Chat-Vervollständigung mit logischem Denk-Inhalt |
-
Eingabe: Text (128.000 Token) - Ausgabe: Text (128.000 Token) - Sprachen: en - Toolaufrufe: Nein - Antwortformate: Text |
Siehe Microsoft-Modelle im Foundry-Portal. Microsoft-Modelle sind ebenfalls als direkt von Azure verkaufte Modelle verfügbar.
Mistral KI
Mistral AI bietet Modelle für die Codegenerierung, allgemeine Chats und multimodale Aufgaben, einschließlich Codestral, Ministral, Mistral Small und Mistral Medium.
Informationen zum Bereitstellen von Mistral AI-Modellen in Foundry finden Sie unter Bereitstellen von Microsoft Foundry Models im Foundry-Portal.
| Model | Typ | Fähigkeiten | Projekttyp |
|---|---|---|---|
| Codestral-2501 | chat-completion |
-
Eingabe: Text (262.144 Token) - Ausgabe: Text (4.096 Token) - Sprachen: en - Toolaufrufe: Nein - Antwortformate: Text |
Foundry, Hub-basiertes System |
| Ministral-3B | chat-completion |
-
Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Sprachen: fr, de, es, it und en - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Foundry, Hub-basiertes System |
| Mistral-small-2503 | chat-completion |
-
Eingabe: Text (32.768 Token) - Ausgabe: Text (4.096 Token) - Sprachen: fr, de, es, it und en - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Foundry, Hub-basiertes System |
| Mistral-medium-2505 | chat-completion |
-
Eingabe: Text (128.000 Token), Bild - Ausgabe: Text (128.000 Token) - Toolaufrufe: Nein - Antwortformate: Text, JSON |
Foundry, Hub-basiertes System |
| mistralai-Mistral-7B-Instruct-v01 | chat-completion |
-
Eingabe: Text - Ausgabe: Text - Sprachen: en - Antwortformate: Text |
Hub-basiert |
| mistralai-Mistral-7B-Instruct-v0-2 | chat-completion |
-
Eingabe: Text - Ausgabe: Text - Sprachen: en - Antwortformate: Text |
Hub-basiert |
| mistralai-Mixtral-8x7B-Instruct-v01 | chat-completion |
-
Eingabe: Text - Ausgabe: Text - Sprachen: en - Antwortformate: Text |
Hub-basiert |
| mistralai-Mixtral-8x22B-Instruct-v0-1 | chat-completion |
-
Eingabe: Text (64.000 Token) - Ausgabe: Text (4.096 Token) - Sprachen: fr, it, de, es, en - Antwortformate: Text |
Hub-basiert |
| Model | Typ | Fähigkeiten |
|---|---|---|
Codestral-2501 |
chat-completion |
-
Eingabe: Text (262.144 Token) - Ausgabe: Text (4.096 Token) - Sprachen: en - Toolaufrufe: Nein - Antwortformate: Text |
Ministral-3B |
chat-completion |
-
Eingabe: Text (131.072 Token) - Ausgabe: Text (4.096 Token) - Sprachen: fr, de, es, it und en - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Mistral-small-2503 |
chat-completion |
-
Eingabe: Text (32.768 Token) - Ausgabe: Text (4.096 Token) - Sprachen: fr, de, es, it und en - Toolaufrufe: Ja - Antwortformate: Text, JSON |
Mistral-medium-2505 |
chat-completion |
-
Eingabe: Text (128.000 Token), Bild - Ausgabe: Text (128.000 Token) - Toolaufrufe: Nein - Antwortformate: Text, JSON |
Siehe Mistral AI Modelle im Foundry-Portal. Mistral-Modelle sind auch als direkt von Azure verkaufte Modelle verfügbar.
Nixtla
Nixtlas TimeGEN-1 ist ein generatives vortrainiertes Prognose- und Anomalieerkennungsmodell für Zeitreihendaten. TimeGEN-1 generiert genaue Prognosen für neue Zeitreihen ohne Training, wobei nur Verlaufswerte und exogene Kovariate als Eingaben verwendet werden.
Informationen zum Bereitstellen von TimeGEN-1 in Foundry finden Sie unter Bereitstellen von Microsoft Foundry Models im Foundry-Portal.
Zum Durchführen der Ableitung erfordert TimeGEN-1, dass Sie die benutzerdefinierte Ableitungs-API von Nixtla verwenden.
| Model | Typ | Fähigkeiten | Rückschluss-API | Projekttyp |
|---|---|---|---|---|
| TimeGEN-1 | Forecasting |
-
Eingabe: Zeitreihendaten als JSON oder Datenrahmen (mit Unterstützung für multivariate Eingaben) - Ausgabe: Zeitreihendaten als JSON - Toolaufrufe: Nein - Antwortformate: JSON |
Prognoseclient für die Interaktion mit der Nixtla-API | Hub-basiert |
Weitere Informationen zu den Preisen für Nixtla-Modelle finden Sie unter Nixtla.
NTT-Daten
Tsuzumi ist ein autoregressiver sprachoptimierter Transformator. Die optimierten Versionen verwenden die überwachte Optimierung (Supervised Fine-Tuning, SFT). tsuzumi verarbeitet sowohl Japanisch als auch Englisch mit hoher Effizienz.
Um tsuzumi-7b in Foundry bereitzustellen, siehe Deploy Microsoft Foundry Models im Foundry-Portal.
| Model | Typ | Fähigkeiten | Projekttyp |
|---|---|---|---|
| tsuzumi-7b | chat-completion |
-
Eingabe: Text (8.192 Token) - Ausgabe: Text (8.192 Token) - Sprachen: en und jp - Toolaufrufe: Nein - Antwortformate: Text |
Hub-basiert |
Stabilitäts-KI
Die Stability AI-Sammlung von Bildgenerierungsmodelle umfasst Stable Image Core, Stable Image Ultra und Stable Diffusion 3.5 Large. Stabile Diffusion 3.5 Large akzeptiert sowohl Bild- als auch Texteingaben.
Um Stability AI-Modelle in Foundry bereitzustellen, siehe Bereitstellen von Microsoft Foundry-Modellen im Foundry-Portal.
| Model | Typ | Fähigkeiten | Projekttyp |
|---|---|---|---|
| Stable Diffusion 3.5 Large | Bildgenerierung |
-
Eingabe: Text und Bild (1.000 Token und 1 Bild) - Ausgabe: Ein Bild - Toolaufrufe: Nein - Antwortformate: Bild (PNG und JPG) |
Foundry, Hub-basiertes System |
| Stable Image Core | Bildgenerierung |
-
Eingabe: Text (1.000 Token) - Ausgabe: Ein Bild - Toolaufrufe: Nein - Antwortformate: Bild (PNG und JPG) |
Foundry, Hub-basiertes System |
| Ultra Stabiles Bild | Bildgenerierung |
-
Eingabe: Text (1.000 Token) - Ausgabe: Ein Bild - Toolaufrufe: Nein - Antwortformate: Bild (PNG und JPG) |
Foundry, Hub-basiertes System |
| Model | Typ | Fähigkeiten |
|---|---|---|
Stable Diffusion 3.5 Large |
Bildgenerierung |
-
Eingabe: Text und Bild (1.000 Token und 1 Bild) - Ausgabe: Ein Bild - Toolaufrufe: Nein - Antwortformate: Bild (PNG und JPG) |
Stable Image Core |
Bildgenerierung |
-
Eingabe: Text (1.000 Token) - Ausgabe: Ein Bild - Toolaufrufe: Nein - Antwortformate: Bild (PNG und JPG) |
Stable Image Ultra |
Bildgenerierung |
-
Eingabe: Text (1.000 Token) - Ausgabe: Ein Bild - Toolaufrufe: Nein - Antwortformate: Bild (PNG und JPG) |
Sehen Sie Stability AI-Modelle im Foundry-Portal.
Offene und benutzerdefinierte Modelle
Der Modellkatalog bietet eine größere Auswahl an Modellen von einer größeren Anzahl von Anbietern. Für diese Modelle können Sie die Option für die Standardbereitstellung in Microsoft Foundry-Ressourcen nicht verwenden, in denen Modelle als APIs bereitgestellt werden. Um die Bereitstellung dieser Modelle zu ermöglichen, müssen Sie sie möglicherweise auf Ihrer Infrastruktur hosten, einen KI-Hub erstellen und die erforderlichen Computekapazitäten bereitstellen, um die Modelle zu hosten.
Darüber hinaus können diese Modelle offen zugänglich oder IP-geschützt sein. In beiden Fällen müssen Sie sie in verwalteten Computeangeboten in Foundry bereitstellen. Informationen zu den ersten Schritten finden Sie unter How-to: Deploy to Managed compute.