Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Wichtig
Dieses Feature befindet sich in der Vorschau.
Azure KI Services unterstützen Entwickelnde und Organisationen bei der schnellen Erstellung intelligenter, hochmoderner, marktreifer und verantwortungsbewusster Anwendungen mit vorgefertigten und anpassbaren APIs und Modellen. Früher als Azure Cognitive Services bezeichnet, befähigen Azure KI Services Entwickelnde auch dann, wenn sie keine direkten KI- oder Data Science-Skills oder Wissen haben. Das Ziel von Azure KI Services ist es, Entwicklern zu helfen, Anwendungen zu entwickeln, die sehen, hören, sprechen, verstehen und sogar schlussfolgern können.
Fabric bietet zwei Optionen für die Verwendung von Azure KI Services:
Vorab erstellte KI-Modelle in Fabric (Vorschau)
Fabric ist nahtlos in Azure KI Services integriert, sodass Sie Ihre Daten ohne Voraussetzungen mit vorkonfigurierten KI-Modellen anreichern können. Wir empfehlen diese Option, da Sie Ihre Fabric-Authentifizierung für den Zugriff auf KI-Dienste verwenden können, und die gesamte Nutzung wird über Ihre Fabric-Kapazität abgerechnet. Diese Option befindet sich derzeit in der öffentlichen Vorschau mit eingeschränkten KI Services.
Fabric bietet Azure OpenAI Service, Text Analyticsund Azure AI Translator standardmäßig mit Unterstützung für SynapseML und die RESTful-API. Sie können auch die OpenAI Python Library verwenden, um auf den Azure OpenAI Service in Fabric zuzugreifen. Für weitere Informationen über verfügbare Modelle besuchen Sie unter vorkonfigurierte KI-Modelle in Fabric.
Bring Your Own Key (BYOK)
Sie können Ihre KI-Dienste in Azure bereitstellen und Ihren eigenen Schlüssel verwenden, um sie über Fabric zu nutzen. Wenn die vorgefertigten KI-Modelle die gewünschten KI-Dienste noch nicht unterstützen, können Sie BYOK (Bring Your Own Key) weiterhin verwenden.
Wenn Sie mehr darüber erfahren möchten, wie Sie Azure KI Services mit BYOK verwenden, besuchen Sie Azure KI Services in SynapseML mit eigenem Schlüssel.
Vorkonfigurierte KI-Modelle in Fabric (Vorschau)
Hinweis
Vorgefertigte KI-Modelle stehen derzeit in der Vorschau zur Verfügung und werden kostenlos angeboten, wobei die Anzahl der gleichzeitigen Anforderungen pro benutzende Person eingeschränkt ist. Bei OpenAI-Modellen beträgt der Grenzwert 20 Anforderungen pro Minute pro Benutzer.
Azure OpenAI-Dienst
REST-API, Python SDK. SynapseML
- gpt-4-Familie:
gpt-4o
undgpt-4o-mini
werden unterstützt. - text-embedding-ada-002 (Version 2), Einbettungsmodell, das mit Einbettungs-API-Anforderungen verwendet werden kann. Das maximal akzeptierte Anforderungstoken ist 8.191, und der zurückgegebene Vektor hat die Größe von 1.536.
Textanalyse
- Sprachenerkennung: Erkennt die Sprache des Eingabetexts.
- Stimmungsanalyse: Gibt einen Wert zwischen 0 und 1 zurück, der die Stimmung im Eingabetext angibt.
- Schlüsselbegriffserkennung: Identifiziert die wichtigsten Gesprächsthemen im Eingabetext.
- Entitätserkennung von personenbezogenen Informationen (Personally Identifiable Information, PII): Identifizieren, Kategorisieren und Redigieren von vertraulichen Informationen im Eingabetext.
- Erkennung benannter Entitäten: Identifiziert bekannte Entitäten und allgemeine benannte Entitäten im Eingabetext.
- Entitätsverknüpfung: Erkennt und bestimmt eindeutig die Identität von Entitäten im Text.
Azure KI Übersetzer
- Übersetzen: Übersetzt Text
- Transkribieren: Konvertiert Text in einer Sprache in einem Skript in ein anderes Skript.
Verfügbare Regionen
Verfügbare Regionen für Azure OpenAI Service
Eine Liste der Azure-Regionen, in denen jetzt vorgefertigte KI-Dienste in Fabric verfügbar sind, finden Sie im Abschnitt Verfügbare Regionen der des Artikels Übersicht über Copilot in Fabric und Power BI (Vorschau).
Verfügbare Regionen für Textanalyse und Azure KI Übersetzer
Vordefinierte Text-Analytics- und der Azure-KI-Translator- in Fabric sind jetzt für die öffentliche Vorschau in den in diesem Artikel aufgeführten Azure-Regionen verfügbar. Wenn Ihre Microsoft Fabric-Heimregion in diesem Artikel nicht aufgeführt ist, können Sie dennoch eine Microsoft Fabric-Kapazität in einer unterstützten Region erstellen. Weitere Informationen finden Sie unter Microsoft Fabric-Abonnement kaufen. Um Ihre Fabric-Heimregion zu ermitteln, besuchen Sie Finden Ihrer Fabric-Heimregion.
Asien-Pazifik | Europa | Amerika | Naher Osten und Afrika |
---|---|---|---|
Australien (Osten) | Nordeuropa | Brasilien Süd | Südafrika, Norden |
Australien, Südosten | Europa, Westen | Kanada, Mitte | Vereinigte Arabische Emirate, Norden |
Indien, Mitte | Frankreich, Mitte | Kanada, Osten | |
Asien, Osten | Norwegen, Osten | Ost-USA | |
Japan, Osten | Schweiz, Norden | USA (Ost) 2 | |
Korea, Mitte | Schweiz, Westen | USA Nord Mitte | |
Asien, Südosten | UK, Süden | USA Süd Mitte | |
Indien (Süden) | UK, Westen | USA (Westen) | |
USA, Westen 2 | |||
USA, Westen 3 |
Verbrauchsrate
Hinweis
Die Abrechnung für vorgefertigte KI-Dienste in Fabric wurde am 1. November 2024 als Teil Ihrer vorhandenen Power BI Premium- oder Fabric-Kapazität wirksam.
Eine Anforderung für vorgefertigte KI-Dienste verbraucht Fabric-Kapazitätseinheiten. In dieser Tabelle wird definiert, wie viele Kapazitätseinheiten (CU) verbraucht werden, wenn ein KI-Dienst verwendet wird.
Verbrauchsrate für OpenAI-Sprachmodelle
Modelle | Kontext (Token) | Eingabe (pro 1.000 Token) | Ausgabe (pro 1.000 Elemente) |
---|---|---|---|
GPT-4o-2024-05-13 Global | 128 K | 84,03 CU-Sekunden | 336,13 CU-Sekunden |
GPT-4o-mini-0718 Global | 128 K | 5,04 CU-Sekunden | 20,17 CU-Sekunden |
Verbrauchsrate für OpenAI-Einbettungsmodelle
Modelle | Vorgangseinheit | Verbrauchsrate |
---|---|---|
text-embedding-ada-002 | 1.000 Token | 3,36 CU-Sekunden |
Verbrauchsrate für Textanalyse
Vorgang | Vorgangseinheit | Verbrauchsrate |
---|---|---|
Sprachenerkennung | 1.000 Textdatensätze | 33.613,45 CU Sekunden |
Stimmungsanalyse | 1.000 Textdatensätze | 33.613,45 CU Sekunden |
Schlüsselphrasenextraktion | 1.000 Textdatensätze | 33.613,45 CU Sekunden |
Erkennung personenbezogener Informationen | 1.000 Textdatensätze | 33.613,45 CU Sekunden |
Erkennung benannter Entitäten | 1.000 Textdatensätze | 33.613,45 CU Sekunden |
Entitätsverknüpfung | 1.000 Textdatensätze | 33.613,45 CU Sekunden |
Zusammenfassung | 1.000 Textdatensätze | 67.226,89 CU Sekunden |
Verbrauchsrate für Textübersetzer
Vorgang | Vorgangseinheit | Verbrauchsrate |
---|---|---|
Übersetzen | 1 Mio. Zeichen | 336.134,45 CU Sekunden |
Transliterieren | 1 Mio. Zeichen | 336.134,45 CU Sekunden |
Änderungen bei der Verbrauchsrate von KI-Diensten in Fabric
Verbrauchsraten können sich jederzeit ändern. Microsoft unternimmt angemessene Anstrengungen, um eine Benachrichtigung per E-Mail oder über produktinterne Benachrichtigungen bereitzustellen. Änderungen gelten ab dem Datum, das in den Versionshinweisen von Microsoft oder dem Microsoft Fabric-Blog angegeben ist. Wenn eine Änderung an einem KI-Dienst in Fabric Consumption Rate die zu verwendenden Kapazitätseinheiten (CU) wesentlich erhöht, können Kunden die für die ausgewählte Zahlungsmethode verfügbaren Stornierungsoptionen verwenden.
Überwachung der Nutzung
Die Workload-Verbrauchseinheit, die dem Vorgang zugeordnet ist, bestimmt die Gebühren für vordefinierte KI-Dienste in Fabric. Wenn zum Beispiel die Nutzung eines KI-Dienstes von einer Spark-Workload abgeleitet wird, wird die KI-Nutzung zusammengefasst und unter dem Spark-Abrechnungszähler auf der Fabric-Kapazitätsmetriken-Appabgerechnet.
Beispiel
Der Inhabende eines Onlineshops verwendet SynapseML und Spark, um Millionen von Produkten in relevante Kategorien zu kategorisieren. Derzeit wendet der Shopbesitzer fest codierte Logik an, um den rohen "Produkttyp" den Kategorien zuzuordnen. Der Besitzer plant jedoch, auf die Verwendung der neuen nativen Fabric OpenAI LLM (Large Language Model)-Endpunkte umzusteigen. Die Daten werden für jede Zeile iterativ mit einem LLM verarbeitet, und die Produkte werden dann basierend auf ihren "Produktnamen", "Beschreibungen", "technischen Angaben" usw. kategorisiert.
Die erwarteten Kosten für die Verwendung von Spark betragen 1000 CUs. Die erwarteten Kosten für die Verwendung von OpenAI betragen etwa 300 CUs.
Um die neue Logik zu testen, führen Sie sie zuerst in einem interaktiven Spark-Notizbuchlauf aus. Verwenden Sie für den Operationsnamen des Laufs "Interaktive Notizbuchausführung". Der Besitzer erwartet, eine Gesamtnutzung von 1300 CUs für "Interaktive Notizbuchausführung" zu sehen, wobei der Spark-Abrechnungszähler die gesamte Nutzung erfasst.
Sobald der Shopbesitzer die Logik validiert, richtet er die reguläre Ausführung ein und erwartet, dass eine gesamte Nutzung von 1300 CUs unter dem Vorgangsnamen "Spark Job Scheduled Run" angezeigt wird, wobei der Spark-Abrechnungszähler die gesamte Nutzung erfasst.