Udostępnij za pośrednictwem


Co to jest bezpieczeństwo zawartości usługi Azure AI?

Bezpieczeństwo zawartości usługi Azure AI wykrywa szkodliwą zawartość wygenerowaną przez użytkownika i wygenerowaną przez sztuczną inteligencję w aplikacjach i usługach. Bezpieczeństwo zawartości usługi Azure AI obejmuje interfejsy API tekstu i obrazu, które umożliwiają wykrywanie szkodliwych materiałów. Dysponujemy również interaktywnym programem Content Safety Studio, który umożliwia wyświetlanie, eksplorowanie i wypróbowanie przykładowego kodu do wykrywania szkodliwej zawartości w różnych modalnościach.

Oprogramowanie do filtrowania zawartości może pomóc aplikacji w przestrzeganiu przepisów lub zachowaniu zamierzonego środowiska dla użytkowników.

Ta dokumentacja zawiera następujące typy artykułów:

  • Przewodniki Szybki start to instrukcje wprowadzające, które ułatwiają wysyłanie żądań do usługi.
  • Przewodniki z instrukcjami zawierają instrukcje dotyczące korzystania z usługi w bardziej szczegółowy lub dostosowany sposób.
  • Pojęcia zawierają szczegółowe wyjaśnienia dotyczące funkcjonalności i funkcji usługi.

Miejsce użycia

Poniżej przedstawiono kilka scenariuszy, w których deweloper oprogramowania lub zespół wymaga usługi con tryb namiotu ration:

  • Platformy handlowe online, które moderowały katalogi produktów i inną zawartość wygenerowaną przez użytkownika.
  • Firmy zajmujące się grami, które moderowały artefakty gier generowane przez użytkownika i pokoje rozmów.
  • Platformy obsługi wiadomości społecznościowych, które moderują obrazy i tekst dodany przez użytkowników.
  • Przedsiębiorstwa medialne, które implementują scentralizowane moderowanie zawartości.
  • Dostawcy rozwiązań edukacyjnych K-12 odfiltrowuje zawartość nieodpowiednią dla uczniów i nauczycieli.

Ważne

W celu wykrywania nielegalnych obrazów wykorzystywania dzieci nie można użyć bezpieczeństwa zawartości usługi Azure AI.

Typy produktów

W tej usłudze są dostępne różne typy analiz. W poniższej tabeli opisano obecnie dostępne interfejsy API.

Typ Funkcje
Monitowanie osłon (wersja zapoznawcza) Skanuje tekst pod kątem ryzyka ataku wejściowego użytkownika na model dużego języka. Szybki start
Wykrywanie naziemności (wersja zapoznawcza) Wykrywa, czy odpowiedzi tekstowe dużych modeli językowych (LLM) są uziemione w materiałach źródłowych dostarczanych przez użytkowników. Szybki start
Wykrywanie tekstu chronionego materiału (wersja zapoznawcza) Skanuje tekst wygenerowany przez sztuczną inteligencję pod kątem znanej zawartości tekstowej (na przykład teksty piosenek, artykuły, przepisy, wybrana zawartość internetowa). Szybki start
Interfejs API kategorii niestandardowych (szybki) (wersja zapoznawcza) Umożliwia definiowanie pojawiających się szkodliwych wzorców zawartości oraz skanowanie tekstu i obrazów pod kątem dopasowań. Przewodnik z instrukcjami
Interfejs API analizowania tekstu Skanuje tekst pod kątem treści seksualnych, przemocy, nienawiści i samookaleczenia z wieloma poziomami ważności.
Analizowanie interfejsu API obrazu Skanuje obrazy pod kątem treści seksualnych, przemocy, nienawiści i samookaleczenia z wieloma poziomami ważności.

Content Safety Studio

Azure AI Content Safety Studio to narzędzie online przeznaczone do obsługi potencjalnie obraźliwych, ryzykownych lub niepożądanych treści przy użyciu nowoczesnych modeli uczenia maszynowego tryb namiotu ration. Udostępnia szablony i dostosowane przepływy pracy, umożliwiając użytkownikom wybieranie i tworzenie własnego systemu con tryb namiotu ration. Użytkownicy mogą przekazać własną zawartość lub wypróbować ją z udostępnioną przykładową zawartością.

Content Safety Studio nie tylko zawiera gotowe do użycia modele sztucznej inteligencji, ale także wbudowane listy zablokowanych firmy Microsoft , aby flagować wulgaryzmy i być na bieżąco z nowymi trendami. Możesz również przekazać własne listy zablokowanych, aby zwiększyć zakres szkodliwej zawartości specyficznej dla twojego przypadku użycia.

Program Studio umożliwia również skonfigurowanie przepływu pracy moderowania, w którym można stale monitorować i poprawiać wydajność con tryb namiotu ration. Może to pomóc w spełnieniu wymagań dotyczących zawartości ze wszystkich rodzajów branż, takich jak gry, media, edukacja, handel elektroniczny i inne. Firmy mogą łatwo połączyć swoje usługi z programem Studio i mieć ich con tryb namiotu rated w czasie rzeczywistym, niezależnie od tego, czy są generowane przez użytkownika, czy generowane przez sztuczną inteligencję.

Wszystkie te możliwości są obsługiwane przez program Studio i jego zaplecze; klienci nie muszą martwić się o tworzenie modeli. Możesz dołączyć dane w celu szybkiej weryfikacji i odpowiednio monitorować wskaźniki KPI, takie jak metryki techniczne (opóźnienie, dokładność, kompletność) lub metryki biznesowe (szybkość blokowania, ilość bloków, proporcje kategorii, proporcje języka i inne). Dzięki prostym operacjom i konfiguracjom klienci mogą szybko testować różne rozwiązania i znajdować najlepsze rozwiązanie, zamiast poświęcać czas na eksperymentowanie z modelami niestandardowymi lub ręczne moderowanie.

Funkcje programu Content Safety Studio

W programie Content Safety Studio dostępne są następujące funkcje usługi Bezpieczeństwa zawartości usługi Azure AI:

  • Moderowanie zawartości tekstu: za pomocą narzędzia moderowania tekstu można łatwo uruchamiać testy zawartości tekstowej. Niezależnie od tego, czy chcesz przetestować jedno zdanie, czy cały zestaw danych, nasze narzędzie oferuje przyjazny dla użytkownika interfejs, który umożliwia ocenę wyników testów bezpośrednio w portalu. Możesz eksperymentować z różnymi poziomami poufności, aby skonfigurować filtry zawartości i zarządzanie listami zablokowanymi, zapewniając, że zawartość jest zawsze moderowana zgodnie z dokładnymi specyfikacjami. Ponadto dzięki możliwości eksportowania kodu możesz zaimplementować narzędzie bezpośrednio w aplikacji, usprawniając przepływ pracy i oszczędzając czas.

  • Moderowanie zawartości obrazu: za pomocą narzędzia moderowania obrazów można łatwo uruchamiać testy na obrazach, aby upewnić się, że spełniają one standardy zawartości. Nasz przyjazny dla użytkownika interfejs umożliwia ocenę wyników testów bezpośrednio w portalu i eksperymentowanie z różnymi poziomami poufności w celu skonfigurowania filtrów zawartości. Po dostosowaniu ustawień można łatwo wyeksportować kod w celu zaimplementowania narzędzia w aplikacji.

  • Monitorowanie aktywności online: zaawansowana strona monitorowania umożliwia łatwe śledzenie użycia i trendów interfejsu API moderowania w różnych modalnościach. Dzięki tej funkcji można uzyskać dostęp do szczegółowych informacji o odpowiedzi, w tym dystrybucji kategorii i ważności, opóźnienia, błędu i wykrywania listy zablokowanych. Te informacje zawierają pełny przegląd wydajności con tryb namiotu ration, co umożliwia optymalizację przepływu pracy i zapewnienie, że zawartość jest zawsze moderowana zgodnie z dokładnymi specyfikacjami. Dzięki przyjaznemu dla użytkownika interfejsowi możesz szybko i łatwo nawigować po stronie monitorowania, aby uzyskać dostęp do informacji potrzebnych do podejmowania świadomych decyzji dotyczących strategii con tryb namiotu ration. Masz narzędzia, które należy zachować na bieżąco z wydajnością con tryb namiotu ration i osiągnąć cele zawartości.

Zabezpieczenia

Zarządzanie dostępem przy użyciu identyfikatora Entra firmy Microsoft lub tożsamości zarządzanej

W przypadku zwiększonych zabezpieczeń możesz użyć identyfikatora Entra firmy Microsoft lub tożsamości zarządzanej (MI) do zarządzania dostępem do zasobów.

  • Tożsamość zarządzana jest automatycznie włączana podczas tworzenia zasobu Bezpieczeństwo zawartości.
  • Identyfikator Entra firmy Microsoft jest obsługiwany zarówno w scenariuszach interfejsu API, jak i zestawu SDK. Zapoznaj się z ogólnymi wytycznymi usług sztucznej inteligencji w temacie Authenticating with Microsoft Entra ID (Uwierzytelnianie za pomocą identyfikatora Entra firmy Microsoft). Możesz również udzielić dostępu innym użytkownikom w organizacji, przypisując im role użytkowników i czytelnika usług Cognitive Services. Aby dowiedzieć się więcej na temat udzielania użytkownikom dostępu do zasobów platformy Azure przy użyciu witryny Azure Portal, zapoznaj się z przewodnikiem Kontrola dostępu oparta na rolach.

Szyfrowanie danych w stanie spoczynku

Dowiedz się, jak bezpieczeństwo zawartości usługi Azure AI obsługuje szyfrowanie i odszyfrowywanie danych. Klucze zarządzane przez klienta (CMK), znane również jako Bring Your Own Key (BYOK), zapewniają większą elastyczność tworzenia, obracania, wyłączania i odwoływanie kontroli dostępu. Możesz również przeprowadzać inspekcję kluczy szyfrowania używanych do ochrony danych.

Cennik

Obecnie bezpieczeństwo zawartości usługi Azure AI ma warstwę cenową F0 i S0 . Aby uzyskać więcej informacji, zobacz stronę cennika platformy Azure.

Limity usługi

Wymagania dotyczące danych wejściowych

Zapoznaj się z poniższą listą wymagań dotyczących danych wejściowych dla każdej funkcji.

  • Interfejs API analizowania tekstu:
    • Domyślna maksymalna długość: 10 000 znaków (podziel dłuższe teksty zgodnie z potrzebami).
  • Interfejs API analizowania obrazów:
    • Maksymalny rozmiar pliku obrazu: 4 MB
    • Wymiary z zakresu od 50 x 50 do 2048 x 2048 pikseli.
    • Obrazy mogą być w formatach JPEG, PNG, GIF, BMP, TIFF lub WEBP.
  • Monitowanie osłon (wersja zapoznawcza):
    • Maksymalna długość monitu: 10 000 znaków.
    • Maksymalnie pięć dokumentów z łącznie 10 000 znaków.
  • Wykrywanie naziemności (wersja zapoznawcza):
    • Maksymalna długość źródeł uziemienia: 55 000 znaków (na wywołanie interfejsu API).
    • Maksymalna długość tekstu i zapytania: 7500 znaków.
  • Wykrywanie chronionych materiałów (wersja zapoznawcza):
    • Domyślna maksymalna długość: 1K znaków.
    • Minimalna długość: 111 znaków (w przypadku skanowania uzupełniania LLM, a nie monitów użytkownika).

Obsługa języków

Modele bezpieczeństwa zawartości zostały specjalnie przeszkolone i przetestowane w następujących językach: angielski, niemiecki, japoński, hiszpański, francuski, włoski, portugalski i chiński. Jednak usługa może działać w wielu innych językach, ale jakość może się różnić. We wszystkich przypadkach należy przeprowadzić własne testy, aby upewnić się, że działa ona w danym zastosowaniu.

Aby uzyskać więcej informacji, zobacz Obsługa języka.

Dostępność w regionach

Aby korzystać z interfejsów API bezpieczeństwa zawartości, należy utworzyć zasób Bezpieczeństwo zawartości usługi Azure AI w obsługiwanych regionach. Obecnie funkcje bezpieczeństwa zawartości są dostępne w następujących regionach świadczenia usługi Azure:

Region (Region) Interfejsy API moderowania Monitowanie osłon
(wersja zapoznawcza)
Materiał chroniony
wykrywanie (wersja zapoznawcza)
Uziemienie
wykrywanie (wersja zapoznawcza)
Kategorie niestandardowe
(szybkie) (wersja zapoznawcza)
Listy zablokowanych
East US
Wschodnie stany USA 2
Zachodnie stany USA
Zachodnie stany USA 2
Środkowe stany USA
Północno-środkowe stany USA
South Central US
Kanada Wschodnia
Szwajcaria Północna
Szwecja Środkowa
Południowe Zjednoczone Królestwo
Francja Środkowa
West Europe
Japan East
Australia Wschodnia

Możesz skontaktować się z nami , jeśli potrzebujesz innych regionów dla Twojej firmy.

Współczynniki zapytań

Funkcje bezpieczeństwa zawartości mają limity szybkości zapytań w żądaniach na 10 sekund. W poniższej tabeli przedstawiono limity szybkości dla każdej funkcji.

Warstwa cenowa Interfejsy API moderowania Monitowanie osłon
(wersja zapoznawcza)
Materiał chroniony
wykrywanie (wersja zapoznawcza)
Uziemienie
wykrywanie (wersja zapoznawcza)
Kategorie niestandardowe
(szybkie) (wersja zapoznawcza)
F0 1000 1000 1000 50 1000
S0 1000 1000 1000 50 1000

Jeśli potrzebujesz szybszej stawki, skontaktuj się z nami , aby poprosić.

Kontakt z nami

Jeśli utkniesz, wyślij nam wiadomość e-mail lub użyj widżetu opinii w dolnej części dowolnej strony usługi Microsoft Learn.

Następne kroki

Postępuj zgodnie z przewodnikiem Szybki start, aby rozpocząć korzystanie z bezpieczeństwa zawartości usługi Azure AI w aplikacji.