Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Important
Nicht englische Übersetzungen werden nur zur Bequemlichkeit bereitgestellt. Bitte konsultieren Sie die EN-US Version dieses Dokuments für die endgültige Version.
Dieser Artikel enthält Einzelheiten dazu, wie die von Ihnen bereitgestellten Daten in Azure Direct Models der Azure AI Foundry verarbeitet, verwendet und gespeichert werden. Azure Direct Model bedeutet ein KI-Modell, das als "Azure Direct Model" in Azure AI Foundry festgelegt und bereitgestellt wird und Azure OpenAI-Modelle enthält. Azure Direct Models speichern und verarbeiten Daten, um den Dienst bereitzustellen und auf Verwendungen zu überwachen, die gegen die geltenden Produktbedingungen verstoßen. Siehe auch den Zusatz zum Datenschutz von Microsoft-Produkten und -Diensten, der die Datenverarbeitung durch Azure Direct Models regelt. Azure AI Foundry ist ein Azure-Dienst; erfahren Sie mehr über die anwendbaren Azure-Complianceangebote.
Important
Ihre Eingabeaufforderungen (Eingaben) und Fertigstellungen (Ausgaben), Ihre Einbettungen und Ihre Schulungsdaten:
- sind NICHT für andere Kunden verfügbar.
- sind nicht für OpenAI oder andere Azure Direct Model-Anbieter verfügbar.
- werden NICHT von Azure Direct Model-Anbietern verwendet, um ihre Modelle oder Dienste zu verbessern.
- werden NICHT verwendet, um generative AI Foundation-Modelle ohne Ihre Erlaubnis oder Anweisung zu trainieren.
Ihre fein abgestimmten Azure Direct Models sind ausschließlich für Ihre Verwendung verfügbar.
Azure AI Foundry ist ein Azure-Dienst; Microsoft hostt die Azure Direct Models in der Azure-Umgebung von Microsoft und Azure Direct Models interagieren nicht mit Diensten, die von Azure Direct Model-Anbietern betrieben werden, z. B. OpenAI (z. B. ChatGPT oder die OpenAI-API).
Welche Daten werden von Azure AI Foundry verarbeitet, um Azure Direct Models bereitzustellen?
Azure AI Foundry verarbeitet die folgenden Datentypen, um Azure Direct Models bereitzustellen:
- Eingabeaufforderungen und generierte Inhalte. Wenn Prompts vom Benutzer übermittelt werden, werden Inhalte vom Dienst über die Vervollständigungen, Chatabschlüsse, Bilder und Einbettungen generiert.
- Hochgeladene Daten. Sie können Ihre eigenen Daten für die Verwendung mit bestimmten Dienstfeatures (z. B. Feinabstimmung, Assistenten-API, Batchverarbeitung) mithilfe der Datei-API oder des Vektorspeichers hochladen.
- Daten für zustandsbehaftete Entitäten. Wenn Sie bestimmte optionale Features von Azure Direct Models und Agents verwenden, z. B. die Antwort-API, das Threads-Feature der Assistenten-API und gespeicherte Fertigstellungen, erstellt der Dienst einen Datenspeicher zum Speichern des Nachrichtenverlaufs und anderer Inhalte gemäß der Konfiguration des Features.
- Erweiterte Daten, die in oder über Eingabeaufforderungen enthalten sind. Wenn Sie Daten verwenden, die mit zustandsbehafteten Entitäten verknüpft sind, ruft der Dienst relevante Daten aus einem konfigurierten Datenspeicher ab und erweitert die Eingabeaufforderung, um Generationen zu erzeugen, die auf Basis Ihrer Daten erstellt werden. Eingabeaufforderungen können auch durch Daten erweitert werden, die aus einer Quelle abgerufen wurden, die in der Eingabeaufforderung selbst enthalten ist, z. B. eine URL.
- Schulungs- und Validierungsdaten. Sie können Ihre eigenen Schulungsdaten bereitstellen, die aus Eingabeaufforderungspaaren für die Feinabstimmung eines Modells bestehen.
Wie verarbeitet Azure AI Foundry Daten, um Azure Direct Models bereitzustellen?
Das folgende Diagramm veranschaulicht, wie Ihre Daten verarbeitet werden. Dieses Diagramm behandelt mehrere Arten von Verarbeitungen:
- Wie Azure AI Foundry Ihre Eingabeaufforderungen über die Ableitung mit Azure Direct Models verarbeitet, um Inhalte zu generieren (einschließlich, wenn zusätzliche Daten aus einer bestimmten Datenquelle zu einer Eingabeaufforderung hinzugefügt werden, die Azure OpenAI für Ihre Daten, Assistenten oder Batchverarbeitung verwendet).
- Wie die Funktion "Assistenten" Daten in Verbindung mit Nachrichten, Threads und Abläufen speichert.
- Wie das Feature "Antworten-API" Daten speichert, um den Nachrichtenverlauf beizubehalten.
- Wie die Batchfunktion Ihre hochgeladenen Daten verarbeitet.
- Wie Azure AI Foundry ein fein abgestimmtes (benutzerdefiniertes) Modell mit Ihren hochgeladenen Daten erstellt.
- Wie Azure AI Foundry und Microsoft-Mitarbeiter Aufforderungen und Fertigstellungen (Text und Bild) auf schädliche Inhalte und Muster analysieren, die die Verwendung des Diensts auf eine Weise vorschlagen, die gegen den Verhaltenskodex oder andere anwendbare Produktbedingungen verstößt.
Wie im obigen Diagramm dargestellt, können verwaltete Kunden sich bewerben, um die Missbrauchsüberwachung zu ändern.
Generieren von Vervollständigungen, Bildern oder Einbettungen durch Ableitung
Azure-Direct-Modelle (Basis- oder Feinabstimmung), die in Ihrer Azure AI Foundry-Ressource bereitgestellt werden, verarbeiten Ihre Eingabeaufforderungen und generieren Antworten in Form von Text, Bildern oder Einbettungen. Kundeninteraktionen mit dem Modell werden logisch isoliert und gesichert, indem technische Maßnahmen verwendet werden, einschließlich, aber nicht beschränkt auf die Transportverschlüsselung von TLS1.2 oder höher, Sicherheitsumgebung, Tokenisierung von Texten und exklusiven Zugriff auf den zugewiesenen GPU-Speicher. Aufforderungen und Fertigstellungen werden in Echtzeit für schädliche Inhaltstypen ausgewertet, und die Inhaltsgenerierung wird basierend auf konfigurierten Schwellenwerten gefiltert. Weitere Informationen finden Sie in der Übersicht über die Inhaltsfilterung.
Aufforderungen und Antworten werden innerhalb der vom Kunden angegebenen Geografie verarbeitet (es sei denn, Sie verwenden einen Global- oder DataZone-Bereitstellungstyp), können jedoch zwischen Regionen innerhalb der Geografie zu betrieblichen Zwecken (einschließlich Leistung und Kapazitätsverwaltung) verarbeitet werden. Informationen zum Verarbeitungsort bei Verwendung eines globalen oder DataZone-Bereitstellungstyps finden Sie unten.
Die Modelle sind zustandslos: Es werden keine Eingabeaufforderungen oder Vervollständigungen im Modell gespeichert. Darüber hinaus werden Aufforderungen und Vervollständigungen nicht verwendet, um die Basismodelle zu trainieren, neu zu trainieren oder zu verbessern.
Grundlegendes zum Standort der Verarbeitung für die Bereitstellungstypen "Global" und "Datenzone"
Zusätzlich zu Standardbereitstellungen bietet Azure AI Foundry Azure Direct Model Bereitstellungsoptionen, die als "Global" und "DataZone" bezeichnet werden. Für alle Bereitstellungstypen mit der Bezeichnung "Global", können Eingabeaufforderungen und Antworten in jeder Geografie verarbeitet werden, in der das relevante Azure Direct-Modell bereitgestellt wird (weitere Informationen zur Verfügbarkeit von Regionen von Modellen). Für alle Bereitstellungstypen, die als „DataZone“ bezeichnet werden, können Prompts und Antworten in jeder Geografie innerhalb der angegebenen Datenzone verarbeitet werden, wie von Microsoft definiert. Wenn Sie eine DataZone-Bereitstellung in einer Azure AI Foundry-Ressource in den VEREINIGTEN Staaten erstellen, werden Eingabeaufforderungen und Antworten möglicherweise überall in den VEREINIGTEN Staaten verarbeitet. Wenn Sie eine DataZone-Bereitstellung in einer Azure AI Foundry-Ressource erstellen, die sich in einem Mitgliedsstaat der Europäischen Union befindet, können Aufforderungen und Antworten in diesem oder einem anderen Mitglied der Europäischen Union verarbeitet werden. Für die Bereitstellungstypen "Global" und "DataZone" werden alle ruhenden Daten, z. B. hochgeladene Daten, und einschließlich des Missbrauchsüberwachungsdatenspeichers, der für globale und DataZone-Bereitstellungen erstellt wurde, in der vom Kunden festgelegten Geografie gespeichert. Nur der Verarbeitungsort ist betroffen, wenn ein Kunde einen globalen Bereitstellungstyp oder einen DataZone-Bereitstellungstyp in Azure Direct Models verwendet; Azure-Datenverarbeitungs- und Complianceverpflichtungen bleiben anwendbar.
Das Erweitern von Eingabeaufforderungen, um die generierten Ergebnisse anhand Ihrer Daten zu verankern
Mit der Azure OpenAI-Funktion „auf Ihren Daten“ können Sie Datenquellen verbinden, um die generierten Ergebnisse mit Ihren Daten abzustimmen. Die Daten bleiben in der datenquelle und am von Ihnen angegebenen Speicherort gespeichert; Azure OpenAI erstellt keinen doppelten Datenspeicher. Wenn eine Benutzeraufforderung empfangen wird, ruft der Dienst relevante Daten aus der verbundenen Datenquelle ab und erweitert die Eingabeaufforderung. Das Modell verarbeitet diese erweiterte Eingabeaufforderung und der generierte Inhalt wird wie oben beschrieben zurückgegeben. Erfahren Sie mehr darüber, wie Sie das Feature "On Your Data" sicher verwenden.
Datenspeicher für Azure Direct Models-Features
Einige Azure Direct Models-Features speichern Daten im Dienst. Diese Daten werden entweder vom Kunden mithilfe der Dateien-API oder des Vektorspeichers hochgeladen oder automatisch in Verbindung mit bestimmten zustandsbehafteten Entitäten wie der Antwort-API, dem Threads-Feature der Assistenten-API und gespeicherten Fertigstellungen gespeichert. Für solche Features gespeicherte Daten:
- Wird im Ruhezustand in der Azure AI Foundry-Ressource im Azure-Mandanten des Kunden innerhalb derselben Geografie wie die Ressource gespeichert.
- Ist standardmäßig mit der AES-256-Verschlüsselung von Microsoft immer verschlüsselt, mit der Möglichkeit, einen vom Kunden verwalteten Schlüssel zu verwenden (bestimmte Vorschaufeatures unterstützen möglicherweise keine vom Kunden verwalteten Schlüssel). Von Microsoft verwaltete Schlüssel werden immer verwendet, um die Basisplanverschlüsselung für alle gespeicherten Daten sicherzustellen.
- Kann jederzeit vom Kunden gelöscht werden.
Note
Modelle oder Features in der Vorschau unterstützen möglicherweise nicht alle oben genannten Bedingungen.
Gespeicherte Daten können mit den folgenden Dienstfeatures/-funktionen verwendet werden:
- Erstellen eines angepassten (fein abgestimmten) Modells. Erfahren Sie mehr über die Funktionsweise der Feinabstimmung. Feinabgestimmte Modelle sind ausschließlich für den Kunden verfügbar, deren Daten zur Erstellung des fine-tuned Modells verwendet wurden, sind im Ruhezustand verschlüsselt (wenn nicht zur Ableitung bereitgestellt) und können jederzeit vom Kunden gelöscht werden. Schulungsdaten, die zur Feinabstimmung hochgeladen werden, werden nicht verwendet, um generative AI Foundation-Modelle ohne Ihre Erlaubnis oder Anweisung zu trainieren.
- Batchverarbeitung: Erfahren Sie mehr darüber , wie die Batchverarbeitung funktioniert. Batchverarbeitung ist ein globaler Bereitstellungstyp. Ruhende Daten verbleiben in der vorgesehenen Azure-Geografie, bis die Verarbeitungskapazität verfügbar ist. Die Verarbeitung kann in jeder Geografie erfolgen, in der das entsprechende Azure Direct Model bereitgestellt ist (weitere Informationen zur Modellverfügbarkeit in Regionen).
- Antwort-API. Erfahren Sie mehr darüber, wie die Antwort-API funktioniert. Diese API speichert den Nachrichtenverlauf und andere Inhalte im Zusammenhang mit dem Nachrichtenverlauf. Dies ist für mehrstufige Unterhaltungen und Workflows erforderlich.
- Assistenten-API (Vorschau) Erfahren Sie mehr darüber , wie die Assistenten-API funktioniert. Einige Features von Assistenten, z. B. Threads, Speichern des Nachrichtenverlaufs und anderer Inhalte.
- Gespeicherte Fertigstellungen (Vorschau) Gespeicherte Abschlüsse speichern Eingabe-/Ausgabepaare aus von Kunden bereitgestellten Azure OpenAI-Modellen wie GPT-4o, die über die Chat-Abschlüsse-API verarbeitet werden, und zeigen die Paare im Azure AI Foundry-Portal an. Auf diese Weise können Kunden Datasets mit ihren Produktionsdaten erstellen, die dann zur Auswertung oder Feinabstimmung von Modellen (wie in den geltenden Produktbedingungen zulässig) verwendet werden können.
Verhindern von Missbrauch
Um das Risiko einer missbräuchlichen oder schädlichen Verwendung zu verringern, umfasst Azure Direct Models Missbrauchsüberwachungsfeatures. Weitere Informationen zur Überwachung von Missbrauch finden Sie unter "Missbrauchsüberwachung".
Sicherheitsbewertungen fein abgestimmter Modelle bewerten ein fein abgestimmtes Modell für potenziell schädliche Reaktionen mithilfe der Risiko- und Sicherheitsmetriken von Azure. Nur die daraus resultierende Bewertung (bereitstellbar oder nicht bereitstellbar) wird vom Dienst protokolliert.
Das Azure Direct Models-Missbrauchsüberwachungssystem wurde entwickelt, um Instanzen von wiederkehrenden Inhalten und/oder Verhaltensweisen zu erkennen und zu mindern, die die Verwendung des Diensts auf eine Weise vorschlagen, die gegen den Verhaltensregeln oder andere anwendbare Produktbedingungen verstoßen kann. Wie hier beschrieben, verwendet das System Algorithmen und Heuristiken, um Indikatoren für potenziellen Missbrauch zu erkennen. Wenn diese Indikatoren erkannt werden, kann eine Stichprobe der Aufforderungen und Fertigstellungen des Kunden zur Überprüfung ausgewählt werden. Die Überprüfung erfolgt durch automatisierte Mittel, einschließlich von KI-Modellen wie LLMs standardmäßig, mit zusätzlichen Überprüfungen durch menschliche Prüfer bei Bedarf. Detaillierte Informationen zur automatisierten Überprüfung und zur menschlichen Überprüfung finden Sie bei der Missbrauchsüberwachung.
Zur automatisierten Überprüfung werden die Aufforderungen und Fertigstellungen des Kunden nicht vom System gespeichert oder zum Trainieren der KI-Modelle oder anderer Systeme verwendet. Der Informationsspeicher zur Missbrauchsüberwachung, in dem Aufforderungen und Fertigstellungen für die menschliche Überprüfung gespeichert werden, wird logisch durch die Kundenressource getrennt (jede Anforderung enthält die Ressourcen-ID der Azure AI Foundry-Ressource des Kunden). Ein separater Datenspeicher befindet sich in jeder Geografie, in der das Azure Direct Model verfügbar ist, und die Eingabeaufforderungen und generierten Inhalte eines Kunden werden in der Azure-Geografie gespeichert, in der die Azure AI Foundry-Ressource des Kunden bereitgestellt wird, innerhalb der Azure Direct Models-Dienstgrenze. Menschliche Prüfer, die potenziellen Missbrauch bewerten, können nur dann auf Eingabeaufforderungen und Abschlussdaten zugreifen, wenn diese Daten bereits vom Missbrauchsüberwachungssystem gekennzeichnet wurden oder wenn die Eingabeaufforderungen und -vervollständigungen Teil eines potenziell missbräuchlichen Nutzungsmusters sind. Die menschlichen Prüfer sind autorisierte Microsoft-Mitarbeiter, die mithilfe von Anforderungs-IDs, Secure Access Workstations (SAWs) und Just-In-Time (JIT) auf die Daten zugreifen, die von Teammanagern erteilt wurden. Für Azure Direct Models, die im europäischen Wirtschaftsraum bereitgestellt werden, befinden sich die autorisierten Microsoft-Mitarbeiter im europäischen Wirtschaftsraum.
Wenn der Kunde für die geänderte Missbrauchsüberwachung genehmigt wurde (weitere Informationen bei der Missbrauchsüberwachung)), erfolgt die oben beschriebene Datenspeicherung und die menschliche Überprüfung nicht. Die automatische Überprüfung kann jedoch weiterhin durchgeführt werden, wobei Algorithmen, wie z. B. KI-Modelle, genutzt werden, die Prompts und Vervollständigungen zum Zeitpunkt der Bereitstellung oder Generierung überprüfen, sofern zutreffend. Wenn eine solche automatisierte Überprüfung Inhalte erkennt, die potenziell schwerwiegende oder wiederkehrende Missbrauch im Abonnement des Kunden angeben, kann der Kunde einschränkungen des Zugriffs unterliegen, wie in den Produktbedingungen für die verantwortungsvolle Nutzung von Microsoft AI Services angegeben. Der Kunde kann auch aufgefordert werden, der Einrichtung und Aktivierung der Überwachungsfunktion mit menschlicher Überprüfung zuzustimmen, um das Risiko zukünftiger Einschränkungen des Zugriffs zu verringern (z. B. Drosselung und/oder Aussetzung des Kontos oder Abonnements, wo Missbrauch festgestellt wurde).
Note
Azure Preview-Features, einschließlich Azure Direct Models in der Vorschau, können verschiedene Datenschutzpraktiken verwenden, einschließlich in Bezug auf die Missbrauchsüberwachung. Vorschauen unterliegen möglicherweise ergänzenden Bedingungen unter: Ergänzende Nutzungsbedingungen für Microsoft Azure Previews.
Verhindern der Generierung schädlicher Inhalte
Azure Direct Models enthalten ein System, das entwickelt wurde, um die Ausgabe schädlicher Inhalte zu erkennen und zu verhindern. Weitere Informationen zur Inhaltsfilterung finden Sie unter "Inhaltsfilterung".
Inhaltsfilterung erfolgt synchron, während der Dienst Eingabeaufforderungen verarbeitet, um wie oben und hier beschrieben Inhalte zu generieren. Es werden keine Eingabeaufforderungen oder generierten Inhalte in den Inhaltsklassifizierermodellen gespeichert, und Aufforderungen und Ausgaben werden nicht verwendet, um generative AI Foundation-Modelle ohne Ihre Berechtigung oder Anweisung zu trainieren.
Wie kann ein Kunde überprüfen, ob die Datenspeicherung für die Missbrauchsüberwachung deaktiviert ist?
Es gibt zwei Möglichkeiten für Kunden, nachdem sie die Missbrauchsüberwachung deaktiviert haben, um zu überprüfen, ob die Datenspeicherung für die Missbrauchsüberwachung in ihrem genehmigten Azure-Abonnement deaktiviert wurde:
- Verwenden des Azure-Portals oder
- Azure CLI (oder eine beliebige Verwaltungs-API).
Note
Der Wert von "false" für das Attribut "ContentLogging" wird nur angezeigt, wenn die Datenspeicherung für die Missbrauchsüberwachung deaktiviert ist. Andernfalls wird diese Eigenschaft nicht im Azure-Portal oder in der Azure CLI-Ausgabe angezeigt.
Prerequisites
- Anmelden bei Azure
- Wählen Sie das Azure-Abonnement aus, in dem die Azure AI Foundry-Ressource gehostet wird.
- Navigieren Sie zur Übersichtsseite der Azure AI Foundry-Ressource.
Zur Seite "Ressourcenübersicht" wechseln
Klicken Sie auf den JSON-Ansichtslink in der oberen rechten Ecke, wie in der abbildung unten dargestellt.
In der Liste "Fähigkeiten" wird ein Wert namens "ContentLogging" angezeigt, der auf FALSE festgelegt wird, wenn die Protokollierung zur Missbrauchsüberwachung deaktiviert ist.
{
"name":"ContentLogging",
"value":"false"
}
Weitere Informationen zu den Datenschutz- und Sicherheitsverpflichtungen von Microsoft finden Sie im Microsoft Trust Center.
Änderungsprotokoll
| Date | Changes |
|---|---|
| 3. Oktober 2025 | Erweitertes Dokument zu Azure Direct Models; Abschnitte zur Filterung von getrennten Inhalten und zur Überwachung von Missbrauch; Es wurden Klarstellungen zur Überwachung von Missbrauch und schwerem oder wiederkehrendem Missbrauch hinzugefügt. |
| 17. Dezember 2024 | Informationen zur Datenverarbeitung und -speicherung in Verbindung mit dem neuen Feature "Gespeicherte Vervollständigungen" wurden hinzugefügt; erläuternde Sprache wurde hinzugefügt, um klarzustellen, dass die Azure OpenAI-Features in der Vorschau möglicherweise nicht alle Bedingungen zur Datenspeicherung unterstützen; die Bezeichnung "Vorschau" für die Batchverarbeitung wurde entfernt. |
| 18. November 2024 | Informationen zum Speicherort der Datenverarbeitung für neue Bereitstellungstypen der Datenzone wurden hinzugefügt; zusätzliche Informationen zur neuen KI-Überprüfung von Eingabeaufforderungen und -vervollständigungen im Rahmen der Verhinderung von Missbrauch und Generierung schädlicher Inhalte |
| 4. September 2024 | Zusätzliche Informationen (und überarbeiteten vorhandenen Text entsprechend) zur Datenverarbeitung für neue Features, einschließlich Assistenten-API (Vorschau), Batch (Vorschau) und globale Bereitstellungen; überarbeitete Sprache im Zusammenhang mit dem Speicherort der Datenverarbeitung gemäß den Grundsätzen der Azure-Datenbewahrung; Zusätzliche Informationen zur Datenverarbeitung für Sicherheitsbewertungen von fein abgestimmten Modellen; klargestellte Verpflichtungen im Zusammenhang mit der Verwendung von Eingabeaufforderungen und -vervollständigungen; kleinere Überarbeitungen zur Verbesserung der Klarheit |
| 23. Juni 2023 | Zusätzliche Informationen zur Datenverarbeitung für das neue "Azure on your data"-Feature hinzugefügt; Informationen zur Missbrauchsüberwachung entfernt, die nun unter Azure OpenAI Service Missbrauchsüberwachung verfügbar sind. Zusammenfassungsnotiz hinzugefügt. Aktualisierte und optimierte Inhalte und aktualisierte Diagramme zur weiteren Übersichtlichkeit. Änderungsprotokoll hinzugefügt |
Siehe auch
- Verhaltenskodex für Azure OpenAI-Dienstintegrationen
- Übersicht über verantwortungsvolle KI-Praktiken für Azure OpenAI-Modelle
- Transparenzhinweise und Anwendungsfälle für Azure OpenAI Service
- Datenresidenz in Azure
- Vergleichen von Azure OpenAI in Azure Government
- Eingeschränkter Zugriff auf Azure OpenAI Service
- Melden des Missbrauchs des Azure OpenAI-Diensts über das Portal "Missbrauch melden"
- Melden problematischer Inhalte an cscraireport@microsoft.com