Documentatie voor Content Moderator

De Azure Content Moderator-API controleert tekst, afbeeldingen en video-inhoud op materiaal dat mogelijk aanstootgevend, riskant of anderszins ongewenst is. Content Moderator wordt in februari 2024 afgeschaft en wordt in februari 2027 buiten gebruik gesteld. Het wordt vervangen door Azure AI Content Safety, dat geavanceerde AI-functies en verbeterde prestaties biedt. Azure AI Content Safety is een uitgebreide oplossing die is ontworpen om schadelijke door de gebruiker gegenereerde en AI gegenereerde inhoud in toepassingen en services te detecteren. Azure AI Content Safety is geschikt voor veel scenario's, zoals online marketplaces, gamingbedrijven, platforms voor sociale berichten, zakelijke mediabedrijven en aanbieders van K-12-onderwijsoplossingen.

Azure AI-inhoudsveiligheid

Aan de slag

Aangepaste afbeeldingslijsten gebruiken

Snelstart

Instructies

Aangepaste begrippenlijsten gebruiken

Snelstart

Instructies

Video-inhoud analyseren

Instructies

video

Help en feedback

Referentie