Teilen über


Schnellstart: Content Safety Studio von Azure KI

In diesem Artikel wird erläutert, wie Sie mit dem Azure KI Inhaltssicherheitsdienst mit Content Safety Studio in Ihrem Browser beginnen können.

Achtung

Einige der von Content Safety Studio bereitgestellten Beispielinhalte können anstößig sein. Beispielbilder sind standardmäßig verschwommen. Wir raten zu umsichtigem Vorgehen.

Voraussetzungen

  • Ein Azure-Konto. Falls Sie keines haben, können Sie kostenlos eines erstellen.
  • Eine Azure-Ressource vom Typ Content Safety.
  • Zuweisen der Rolle Cognitive Services-Benutzer zum eigenen Konto. Navigieren Sie zum Azure-Portal und dann zu Ihrer Ressource für Inhaltssicherheit oder für Azure KI Services, und wählen Sie auf der linken Navigationsleiste Zugriffssteuerung aus. Wählen Sie anschließend + Rollenzuweisung hinzufügen aus, wählen Sie die Rolle Cognitive Services-Benutzer und das Mitglied Ihres Kontos aus, dem Sie diese Rolle zuweisen müssen, überprüfen Sie die Auswahl, und nehmen Sie die Zuweisung vor. Es kann ein paar Minuten dauern, bis die Zuweisung wirksam wird.
  • Melden Sie sich mit Ihrem Azure-Abonnement und Ihrer Content Safety-Ressource bei Content Safety Studio an.

Wichtig

Sie müssen Ihrem Azure-Konto die Rolle Cognitive Services-Benutzer zuweisen, um die Studioumgebung verwenden zu können. Navigieren Sie zum Azure-Portal und dann zu Ihrer Ressource für Inhaltssicherheit oder für Azure KI Services, und wählen Sie auf der linken Navigationsleiste Zugriffssteuerung aus. Wählen Sie anschließend + Rollenzuweisung hinzufügen aus, wählen Sie die Rolle Cognitive Services-Benutzer und das Mitglied Ihres Kontos aus, dem Sie diese Rolle zuweisen müssen, überprüfen Sie die Auswahl, und nehmen Sie die Zuweisung vor. Es kann ein paar Minuten dauern, bis die Zuweisung wirksam wird.

Analysieren von Textinhalten

Auf der Seite Textinhalt moderieren können Sie schnell die Textmoderation ausprobieren.

Screenshot: Bereich für die Textanalyse

  1. Wählen Sie den Bereich Textinhalt moderieren aus.
  2. Fügen Sie dem Eingabefeld Text hinzu, oder wählen Sie Beispieltext aus den Bereichen auf der Seite aus.

    Tipp

    Textgröße und Granularität

    Informationen zu Einschränkungen für die maximale Textlänge finden Sie unter Eingabeanforderungen.

  3. Klicken Sie auf Test ausführen.

Der Dienst gibt alle erkannten Kategorien sowie jeweils einen Schweregrad zurück. Mögliche Schweregrade sind „0“ (sicher), „2“ (niedrig), „4“ (mittel) und „6“ (hoch). Außerdem wird basierend auf den von Ihnen konfigurierten Filtern ein binäres Ergebnis (Akzeptiert /Abgelehnt) zurückgegeben. Verwenden Sie die Matrix auf der Registerkarte Filter konfigurieren, um die zulässigen bzw. nicht zulässigen Schweregrade für die einzelnen Kategorien festzulegen. Anschließend können Sie die Textanalyse erneut ausführen, um zu sehen, wie der Filter funktioniert.

Auf der Registerkarte Sperrliste verwenden können Sie eine Sperrliste erstellen, bearbeiten und dem Moderationsworkflow hinzufügen. Wenn beim Ausführen des Tests eine Sperrliste aktiviert ist, wird unter Ergebnisse der Bereich Sperrlistenerkennung angezeigt. Dort werden Übereinstimmungen mit der Sperrliste gemeldet.

Erkennen von Benutzereingabeangriffen

Im Bereich Prompt Shields können Sie die Erkennung von Benutzereingaberisiken ausprobieren. Detect User Prompts, die darauf abzielen, ein Verhalten des generativen KI-Modells zu provozieren, für dessen Vermeidung es trainiert wurde, oder gegen die in der Systemnachricht festgelegten Regeln zu verstoßen. Diese Angriffe können von komplexem Rollenspiel bis hin zu subtiler Subversion des Sicherheitsziels variieren.

Screenshot des Inhaltssicherheitsstudios mit ausgewähltem Bereich „Prompt Shields“.

  1. Wählen Sie den Bereich Prompt Shields aus.
  2. Wählen Sie einen Beispieltext auf der Seite aus oder geben Sie Ihren eigenen Inhalt zum Testen ein. Sie können auch eine CSV-Datei hochladen, um einen Batchtest auszuführen.
  3. Klicken Sie auf Test ausführen.

Der Dienst gibt die Risikokennzeichnung und den Typ für jedes Beispiel zurück.

Weitere Informationen finden Sie im konzeptionellen Leitfaden zu Prompt Shields.

Analysieren von Bildinhalten

Auf der Seite Bildinhalt moderieren können Sie schnell die Bildmoderation ausprobieren.

Screenshot: Bereich für die Bildanalyse

  1. Wählen Sie den Bereich Bildinhalt moderieren aus.
  2. Wählen Sie über die Bereiche auf der Seite ein Beispielbild aus, oder laden Sie ein eigenes Bild hoch. Die maximale Größe für Bildübermittlungen beträgt 4 MB. Die Bildabmessungen müssen zwischen 50 × 50 Pixel und 2.048 × 2.048 Pixel liegen. Bilder können im JPEG-, PNG-, GIF-, BMP-, TIFF- oder WEBP-Format vorliegen.
  3. Klicken Sie auf Test ausführen.

Der Dienst gibt alle erkannten Kategorien sowie jeweils einen Schweregrad zurück. Mögliche Schweregrade sind „0“ (sicher), „2“ (niedrig), „4“ (mittel) und „6“ (hoch). Außerdem wird basierend auf den von Ihnen konfigurierten Filtern ein binäres Ergebnis (Akzeptiert /Abgelehnt) zurückgegeben. Verwenden Sie die Matrix auf der Registerkarte Filter konfigurieren auf der rechten Seite, um die zulässigen bzw. nicht zulässigen Schweregrade für die einzelnen Kategorien festzulegen. Anschließend können Sie die Textanalyse erneut ausführen, um zu sehen, wie der Filter funktioniert.

Anzeigen und Exportieren von Code

Das Feature Code anzeigen steht entweder auf der Seite Textinhalt analysieren oder auf der Seite Bildinhalt analysieren zur Verfügung und kann verwendet werden, um den Beispielcode anzuzeigen und zu kopieren. Dieser umfasst die Konfiguration für die Schweregradfilterung sowie Sperrlisten und Moderationsfunktionen. Anschließend können Sie den Code bei sich bereitstellen.

Screenshot des Codefensters zum Anzeigen.

Überwachen der Onlineaktivität

In dem Bereich Onlineaktivität überwachen können Sie sich Ihre API-Nutzung und -Trends ansehen.

Screenshot: Überwachungsbereich

Sie können auswählen, welcher Medientyp überwacht werden soll. Sie können auch Daten aus diesem Zeitraum anzeigen: auswählen, um den zu überprüfenden Zeitbereich anzugeben.

Im Diagramm Ablehnungsrate pro Kategorie können Sie außerdem die Schweregrad-Schwellenwerte für die einzelnen Kategorien anpassen.

Screenshot: Tabelle mit den Schweregrad-Schwellenwerten

Darüber hinaus können Sie Sperrlisten bearbeiten, wenn Sie einige Begriffe ändern möchten (basierend auf dem Diagramm Zehn am häufigsten blockierte Begriffe).

Verwalten Ihrer Ressource

Wenn Sie Ressourcendetails wie Name und Tarif anzeigen möchten, klicken Sie in der rechten oberen Ecke der Startseite von Content Safety Studio auf das Symbol Einstellungen, und wählen Sie die Registerkarte Ressource aus. Falls Sie Zugriff auf andere Ressourcen haben, können Sie hier auch zu einer anderen Ressource wechseln.

Screenshot: Ressourcenverwaltung

Bereinigen von Ressourcen

Wenn Sie eine Azure KI Services-Ressource bereinigen und entfernen möchten, können Sie die Ressource oder die Ressourcengruppe löschen. Wenn Sie die Ressourcengruppe löschen, werden auch alle anderen Ressourcen gelöscht, die ihr zugeordnet sind.

Nächster Schritt

Beginnen Sie als Nächstes mit der Verwendung von Azure KI Content Safety über die REST-APIs oder über ein Client-SDK, damit Sie den Dienst nahtlos in Ihre Anwendung integrieren können.