Azure Content Moderator nedir?

Önemli

Content Moderator Gözden Geçirme API'leri ve çevrimiçi Gözden Geçirme Aracı 31.12.2021 tarihinde kullanımdan kaldırılmıştır. Moderation API'leri hala kullanılabilir.

Azure Content Moderator rahatsız edici, riskli veya başka bir şekilde istenmeyen içeriği işlemenize olanak tanıyan bir yapay zeka hizmetidir. Metin, görüntü ve videoları tarayan ve içerik bayraklarını otomatik olarak uygulayan yapay zeka destekli içerik denetleme hizmetini içerir.

Düzenlemelere uymak veya kullanıcılarınız için hedeflenen ortamı korumak için uygulamanıza içerik filtreleme yazılımı oluşturmak isteyebilirsiniz.

Bu belge aşağıdaki makale türlerini içerir:

  • Hızlı başlangıçlar , hizmete istekte bulunma konusunda size yol gösteren başlangıç yönergeleridir.
  • Nasıl yapılır kılavuzları , hizmeti daha özel veya özelleştirilmiş yollarla kullanmaya yönelik yönergeler içerir.
  • Kavramlar , hizmet işlevselliği ve özellikleri hakkında ayrıntılı açıklamalar sağlar.
  • Öğreticiler , hizmeti daha geniş iş çözümlerinde bileşen olarak kullanmayı gösteren daha uzun kılavuzlardır.

Daha yapılandırılmış bir yaklaşım için Content Moderator eğitim modülünü izleyin.

Kullanıldığı yer

Aşağıda, bir yazılım geliştiricisinin veya takımının içerik denetleme hizmeti gerektirdiği birkaç senaryo vardır:

  • Ürün kataloglarını ve kullanıcı tarafından oluşturulan diğer içerikleri kontrol eden çevrimiçi marketler.
  • Kullanıcı tarafından oluşturulan oyun yapıtlarını ve sohbet odalarını kontrol eden oyun şirketleri.
  • Kullanıcıları tarafından eklenen görüntüleri, metinleri ve videoları kontrol eden sosyal mesajlaşma platformları.
  • İçerikleri için merkezi denetim uygulayan kurumsal medya şirketleri.
  • Öğrenciler ve eğitimciler için uygun olmayan içeriği filtreleyen K-12 eğitim çözümü sağlayıcıları.

Önemli

Content Moderator'ı geçersiz çocuk istismarı görüntülerini algılamak için kullanamazsınız. Ancak, nitelikli kuruluşlar bu tür içeriği görüntülemek için PhotoDNA Bulut Hizmeti'ni kullanabilir.

Neleri içerir

Content Moderator hizmeti hem REST çağrıları hem de .NET SDK'sı ile sunulan çeşitli web hizmeti API'lerinden oluşur.

Yönetim API’leri

Content Moderator hizmeti, içeriği uygunsuz veya uygunsuz olabilecek malzemeler için denetleyen Moderation API'leri içerir.

Content Moderator moderasyonu API'leri için blok diyagramı

Aşağıdaki tabloda farklı denetim API'leri türleri açıklanmaktadır.

API grubu Description
Metin denetimi Rahatsız edici içerik, cinsel içerik veya müstehcen içerik, küfür ve kişisel veriler için metni tarar.
Özel terim listeleri Metni, yerleşik terimlerle birlikte özel bir terim listesine göre tarar. İçerik ilkelerinize göre içerik engellemek veya izin vermek için özel listeler kullanabilirsiniz.
Görüntü denetimi Görüntülerde yetişkinlere yönelik veya müstehcen görüntü taraması yapar, Optik Karakter Tanıyıcı (OCR) ile görüntüdeki metinleri tanır ve yüzleri algılar.
Özel görüntü listeleri Görüntüleri özel görüntü listesine göre tarar. Özel görüntü listelerini kullanarak tekrar tekrar sınıflandırmak istemediğiniz yaygın içerik örneklerini filtreleyebilirsiniz.
Video denetimi Videolarda yetişkinlere yönelik veya müstehcen içerik taraması yapar ve bu içeriklerle ilgili zaman işaretçilerini döndürür.

Veri gizliliği ve güvenliği

Tüm Bilişsel Hizmetler'de olduğu gibi Content Moderator hizmetini kullanan geliştiricilerin de müşteri verileriyle ilgili Microsoft ilkelerinin farkında olması gerekir. Daha fazla bilgi edinmek için Microsoft Güven Merkezi'nin Bilişsel Hizmetler sayfasına bakın.

Sonraki adımlar

Web portalında Content Moderator'ı kullanmaya başlamak için Web'de Content Moderator'ı deneyin'i izleyin. Alternatif olarak, kodda temel senaryoları uygulamak için bir istemci kitaplığını veya REST API hızlı başlangıcını tamamlayın.