Teilen über


Was ist Content Safety von Azure KI?

Azure KI Inhaltssicherheit ist ein KI-Dienst, der schädliche benutzergenerierte und KI-generierte Inhalte in Anwendungen und Diensten erkennt. Azure KI Content Safety enthält Text- und Bild-APIs für die Erkennung von schädlichem Material. Mit Content Safety Studio können Sie interaktiv Beispielcode für die Erkennung schädlicher Inhalte über verschiedene Modalitäten hinweg anzeigen, erkunden und ausprobieren.

Software zur Inhaltsfilterung kann Ihnen dabei helfen, mit Ihrer App gesetzliche Vorschriften einzuhalten oder Benutzer*innen die für sie beabsichtigte Umgebung zu bieten.

Diese Dokumentation enthält die folgenden Arten von Artikeln:

  • Die Artikel zu Konzepten enthalten ausführliche Erläuterungen der Dienstfunktionen und -features.
  • Schnellstarts sind Anleitungen zu den ersten Schritten, die Sie durch das Senden von Anforderungen an den Dienst führen.
  • Schrittanleitungen enthalten Anweisungen zur spezifischeren oder individuelleren Verwendung des Diensts.

Verwendung des Diensts

Im Anschluss finden Sie einige Szenarien, in denen ein Softwareentwickler oder Team einen Inhaltsmoderationsdienst benötigt:

  • Benutzerprompts, die an einen generativen KI-Dienst übermittelt werden.
  • Von generativen KI-Modellen produzierte Inhalte.
  • Onlinemarktplätze, die Produktkataloge und andere benutzergenerierte Inhalte moderieren
  • Gamingunternehmen, die benutzergenerierte Spielartefakte und Chatrooms moderieren
  • Messagingplattformen sozialer Medien, die von Benutzer*innen hinzugefügte Bilder und Texte moderieren
  • Medienunternehmen, die eine zentrale Moderation für ihre Inhalte implementieren
  • Anbieter im Bildungswesen, die unangemessene Inhalte für Schüler und Lehrer herausfiltern

Wichtig

Sie können Azure KI Content Safety nicht verwenden, um nach Bildern zu suchen, auf denen Kinder in nicht zulässiger Weise dargestellt sind.

Produktfeatures

Dieser Dienst macht verschiedene Arten von Analysen verfügbar. In der folgenden Tabelle werden die derzeit verfügbaren APIs beschrieben.

Funktion Funktionalität Konzeptleitfaden Erste Schritte
Promptschilde Scannt Text auf das Risiko eines Benutzereingabeangriffs mit einem Large Language Model. Prompt Shields-Konzepte Schnellstart
Groundedness-Erkennung (Vorschau) Erkennt, ob die Textantworten großer Sprachmodelle (LLMs) in den Quellmaterialien basieren, die von den Benutzern bereitgestellt werden. Groundedness-Erkennungskonzept Schnellstart
Geschützte Materialerkennung für Text Scannt KI-generierten Text auf bekannte Textinhalte (z. B. Songtexte, Artikel, Rezepte, ausgewählte Webinhalte). Konzept „Geschütztes Material“ Schnellstart
API für benutzerdefinierte Kategorien (Standard) (Vorschau) Mit dieser Option können Sie eigene benutzerdefinierte Inhaltskategorien erstellen und trainieren und Text nach Übereinstimmungen scannen. Konzepte für benutzerdefinierte Kategorien Schnellstart
API für benutzerdefinierte Kategorien (schnell) (Vorschau) Hier können Sie Muster für neue schädliche Inhalte definieren und Text und Bilder auf Übereinstimmungen überprüfen. Konzepte für benutzerdefinierte Kategorien Anleitung
Textanalyse-API Überprüft Text auf sexuelle Inhalte, Gewalt, Hass und Selbstverletzung (mit mehreren Schweregraden). Schadenskategorien Schnellstart
Bildanalyse-API Überprüft Bilder auf sexuelle Inhalte, Gewalt, Hass und Selbstverletzung (mit mehreren Schweregraden). Schadenskategorien Schnellstart

Content Safety Studio

Content Safety Studio von Azure KI ist ein Onlinetool, das entwickelt wurde, um potenziell anstößige, gefährliche oder unerwünschte Inhalte mithilfe modernster ML-Modelle für die Inhaltsmoderation zu verarbeiten. Es bietet Vorlagen und angepasste Workflows, mit denen Benutzer*innen ihr eigenes Inhaltsmoderationssystem wählen und erstellen können. Benutzer*innen können eigene Inhalte hochladen oder die bereitgestellten Beispielinhalte zum Testen verwenden.

Content Safety Studio enthält nicht nur vorkonfigurierte KI-Modelle, sondern auch die integrierten Begriffssperrlisten von Microsoft, um Obszönitäten zu kennzeichnen und neue Inhaltstrends zu berücksichtigen. Sie können auch Ihre eigenen Sperrlisten hochladen, um die Abdeckung schädlicher Inhalte zu verbessern, die speziell Ihren Anwendungsfall betreffen.

Darüber hinaus können Sie mit Studio einen Moderationsworkflow einrichten, in dem Sie die Leistung der Inhaltsmoderation kontinuierlich überwachen und verbessern können. Die Lösung kann Ihnen dabei helfen, Inhaltsanforderungen aus unterschiedlichsten Branchen zu erfüllen – von Gaming über Medien und Bildung bis hin zu E-Commerce. Unternehmen können ihre Dienste ganz einfach mit Studio verbinden und ihre Inhalte in Echtzeit moderieren lassen, unabhängig davon, ob es sich um nutzergenerierte oder KI-generierte Inhalte handelt.

Alle diese Funktionen werden von Studio und dem zugehörigen Back-End bereitgestellt. Kunden müssen sich nicht mit der Modellentwicklung befassen. Sie können ein Onboarding für Ihre Daten durchführen, um diese schnell zu überprüfen, und Ihre Key Performance Indicators (KPIs) entsprechend überwachen. Beispiele für KPIs sind technische Metriken (Wartezeit, Genauigkeit, Rückruf) oder Geschäftsmetriken (Sperrrate, Sperrumfang, Kategorieverhältnisse, Sprachverhältnisse und Ähnliches). Mit einfachen Vorgängen und Konfigurationen können Kunden schnell verschiedene Lösungen testen und die beste Lösung finden, anstatt Zeit dafür aufzuwenden, mit benutzerdefinierten Modellen zu experimentieren oder die Moderation manuell durchzuführen.

Features von Content Safety Studio

In Content Safety Studio stehen folgende Features von Azure KI Inhaltssicherheit zur Verfügung:

  • Moderieren von Textinhalten: Mit dem Textmoderationstool können Sie problemlos Tests für Textinhalte durchführen. Unser Tool bietet eine benutzerfreundliche Oberfläche, mit der Sie die Testergebnisse direkt im Portal bewerten können – ganz gleich, ob Sie einen einzelnen Satz oder ein gesamtes Dataset testen möchten. Sie können mit verschiedenen Empfindlichkeitsstufen experimentieren, um Ihre Inhaltsfilter und die Sperrlistenverwaltung zu konfigurieren. So können Sie sicherstellen, dass Ihre Inhalte immer exakt nach Ihren Spezifikationen moderiert werden. Außerdem haben Sie die Möglichkeit, den Code zu exportieren und das Tool direkt in Ihrer Anwendung zu implementieren, um Ihren Workflow zu optimieren und Zeit zu sparen.

  • Moderieren von Bildinhalten: Mit dem Bildmoderationstool können Sie problemlos Tests für Bilder durchführen, um sicherzustellen, dass sie Ihren Inhaltsstandards entsprechen. Über unsere benutzerfreundliche Benutzeroberfläche können Sie die Testergebnisse direkt im Portal auswerten und mit verschiedenen Empfindlichkeitsstufen experimentieren, um Ihre Inhaltsfilter zu konfigurieren. Nachdem Sie Ihre Einstellungen angepasst haben, können Sie den Code mühelos exportieren, um das Tool in Ihrer Anwendung zu implementieren.

  • Überwachen der Onlineaktivität: Mit der leistungsstarken Überwachungsseite können Sie problemlos die Nutzung und Trends Ihrer Moderations-API über verschiedene Modalitäten hinweg nachverfolgen. Dieses Feature ermöglicht den Zugriff auf detaillierte Antwortinformationen wie Kategorie- und Schweregradverteilung, Wartezeit, Fehler und Sperrlistenerkennung. Diese Informationen liefern einen umfassenden Überblick über die Leistung Ihrer Inhaltsmoderation, sodass Sie Ihren Workflow optimieren und sicherstellen können, dass Ihre Inhalte immer exakt nach Ihren Spezifikationen moderiert werden. Dank unserer benutzerfreundlichen Benutzeroberfläche können Sie schnell und einfach auf der Überwachungsseite navigieren und auf die Informationen zugreifen, die Sie benötigen, um fundierte Entscheidungen im Zusammenhang mit Ihrer Strategie für die Inhaltsmoderation zu treffen. Die bereitgestellten Tools helfen Ihnen dabei, den Überblick über die Leistung Ihrer Inhaltsmoderation zu behalten und Ihre Inhaltsziele zu erreichen.

Sicherheit

Verwenden von Microsoft Entra ID oder einer verwalteten Identität zur Zugriffsverwaltung

Für mehr Sicherheit können Sie Microsoft Entra ID oder eine verwaltete Identität (Managed Identity, MI) verwenden, um den Zugriff auf Ihre Ressourcen zu verwalten.

  • Managed Identity wird automatisch aktiviert, wenn Sie eine Content Safety-Ressource erstellen.
  • Microsoft Entra ID wird in API- und SDK-Szenarios unterstützt. Weitere Informationen finden Sie in der allgemeinen Richtlinie für KI-Dienste zur Authentifizierung mit Microsoft Entra ID. Sie können anderen Benutzer*innen in Ihrer Organisation Zugriff gewähren, indem Sie ihnen die Rollen Cognitive Services-Benutzer und Leser zuweisen. Weitere Informationen zur Gewährung von Benutzerzugriff auf Azure-Ressourcen über das Azure-Portal finden Sie im Leitfaden zur rollenbasierten Zugriffssteuerung.

Verschlüsselung für ruhende Daten

Informationen zur Behandlung der Ver- und Entschlüsselung Ihrer Daten durch Azure KI Content Safety finden Sie hier. Kundenseitig verwaltete Schlüssel (Customer-Managed Keys, CMK) werden auch als „Bring Your Own Key“ (BYOK) bezeichnet und bieten eine größere Flexibilität beim Erstellen, Rotieren, Deaktivieren und Widerrufen von Zugriffssteuerungen. Außerdem können Sie die zum Schutz Ihrer Daten verwendeten Verschlüsselungsschlüssel überwachen.

Preise

Derzeit sind für Azure KI Inhaltssicherheit die Tarife F0 und S0 verfügbar. Weitere Informationen finden Sie auf der Azure-Preisseite.

Diensteinschränkungen

Achtung

Hinweis zur eingestellten Unterstützung

Im Rahmen der Inhaltssicherheitsversionsverwaltung und Lebenszyklusverwaltung kündigen wir die Einstellung der Unterstützung bestimmter Public Preview- und GA-Versionen unserer Dienst-APIs an. Entsprechend unserer Richtlinien zur Einstellung der Unterstützung:

  • Öffentliche Vorschauversionen: Jede neue öffentliche Vorschauversion löst nach einem Zeitraum von 90 Tagen die Einstellung der Unterstützung der vorherigen Vorschauversion aus, sofern keine unterbrechungsfreien Änderungen eingeführt werden.
  • GA-Versionen: Wenn eine neue GA-Version veröffentlicht wird, wird die vorherige GA-Version nach einem Zeitraum von 90 Tagen nicht mehr unterstützt, wenn die Kompatibilität beibehalten wird.

Sehen Sie sich die Seite Neuerungen für bevorstehende Einstellungen von Unterstützungen an.

Eingabeanforderungen

In der folgenden Liste finden Sie die Eingabeanforderungen für jedes Feature.

  • Textanalyse-API:
    • Standardmäßige Maximallänge: 10 000 Zeichen (längere Texte nach Bedarf aufteilen).
  • Bildanalyse-API:
    • Maximale Bilddateigröße: 4 MB
    • Abmessungen zwischen 50 × 50 und 7.200 × 7200 Pixel.
    • Bilder können im JPEG-, PNG-, GIF-, BMP-, TIFF- oder WEBP-Format vorliegen.
  • Multimodalen API für die Analyse (Vorschau):
    • Standardmäßige maximale Textlänge: 1.000 Zeichen.
    • Maximale Bilddateigröße: 4 MB
    • Abmessungen zwischen 50 × 50 und 7.200 × 7200 Pixel.
    • Bilder können im JPEG-, PNG-, GIF-, BMP-, TIFF- oder WEBP-Format vorliegen.
  • Prompt Shields-API:
    • Maximale Eingabeaufforderungslänge: 10 000 Zeichen.
    • Bis zu fünf Dokumente mit insgesamt 10 000 Zeichen.
  • Groundedness-Erkennungs-API (Vorschau):
    • Maximale Länge für Erdungsquellen: 55 000 Zeichen (pro API-Aufruf).
    • Maximale Text- und Abfragelänge: 7500 Zeichen.
  • APIs für die geschützte Materialerkennung:
    • Standardmäßige Maximallänge: 1000 Zeichen.
    • Standardmäßige Mindestlänge: 110 Zeichen (zum Scannen von LLM-Vervollständigungen, nicht Benutzerprompts).
  • API für benutzerdefinierte Kategorien (Standard) (Vorschau):
    • Maximale Rückschlusseingabelänge: 1.000 Zeichen.

Sprachunterstützung

Die Azure KI Inhaltssicherheit-Modelle für geschützte Materialien, Groundedness-Erkennung und benutzerdefinierte Kategorien (Standard) funktionieren nur für die Sprache Englisch.

Andere Azure KI Inhaltssicherheit-Modelle wurden speziell für die folgenden Sprachen trainiert und getestet: Chinesisch, Englisch, Französisch, Deutsch, Spanisch, Italienisch, Japanisch und Portugiesisch. Diese Features funktionieren zwar für viele weitere Sprachen, die Qualität könnte jedoch variieren. In allen Fällen sollten Sie eigene Tests durchführen, um sicherzustellen, dass es für Ihre Anwendung funktioniert.

Weitere Informationen finden Sie unter Sprachunterstützung.

Regionale Verfügbarkeit

Um die Inhaltssicherheit-APIs verwenden zu können, müssen Sie Ihre Azure KI Inhaltssicherheit-Ressource in einer unterstützten Region erstellen. Derzeit sind die Inhaltssicherheitsfeatures in den folgenden Azure-Regionen mit verschiedenen API-Versionen verfügbar:

Region Benutzerdefinierte Kategorie Quellenübereinstimmung Abbildung Multimodal (Bild mit Text) Reaktion auf Vorfälle Prompt Shield Geschütztes Material (Text) Geschütztes Material (Code) Text Unified API
Australien (Osten)
Kanada, Osten
USA, Mitte
East US
USA (Ost) 2
Frankreich, Mitte
Japan, Osten
USA Nord Mitte
Polen, Mitte
USA Süd Mitte
Indien (Süden)
Schweden, Mitte
Schweiz, Norden
Schweiz, Westen
Vereinigte Arabische Emirate, Norden
UK, Süden
Europa, Westen
USA (Westen)
USA, Westen 2
USA, Westen 3
FairFax – USGovArizona
FairFax – USGovVirginia

Sollte Ihr Unternehmen weitere Regionen benötigen, können Sie sich gerne an uns wenden.

Abfrageraten

Inhaltssicherheitsfunktionen weisen Abfrageratenbeschränkungen in Anforderungen pro Sekunde (RPS) oder Anforderungen pro 10 Sekunden (RP10S) auf. In der folgenden Tabelle finden Sie die Ratenbegrenzungen für die einzelnen Funktionen.

Tarif Moderations-APIs
(Text und Bild)
Promptschilde Geschütztes Material
Erkennung
Quellenübereinstimmung
Erkennung (Vorschau)
Benutzerdefinierte Kategorien
(schnell) (Vorschau)
Benutzerdefinierte Kategorien
(Standard) (Vorschau)
Multimodal
F0 5 RPS 5 RPS 5 RPS N/V 5 RPS 5 RPS 5 RPS
S0 1.000 RP10S 1.000 RP10S 1.000 RP10S 50 RPS 1.000 RP10S 5 RPS 10 RPS

Bei Bedarf können Sie sich auch an uns wenden, um eine höhere Geschwindigkeit anzufordern.

Kontakt

Bei Problemen können Sie und eine E-Mail senden oder das Feedback-Widget unten auf einer beliebigen Microsoft Learn-Seite verwenden.

Nächste Schritte

Folgen Sie einem Schnellstart, um mit der Verwendung von Azure KI Content Safety in Ihrer Anwendung zu beginnen.