Content Moderator-Dokumentation
Die Azure Content Moderator-API überprüft Text-, Bild- und Videoinhalte auf potenziell anstößiges, riskantes oder anderweitig unerwünschtes Material. Content Moderator wird im Februar 2024 als veraltet markiert und bis Februar 2027 eingestellt. Er wird durch den Dienst Azure KI Content Safety ersetzt, der erweiterte KI-Features und eine verbesserte Leistung bietet. Azure KI Inhaltssicherheit ist eine umfassende Lösung für die Erkennung benutzer- und KI-generierter Inhalte in Anwendungen und Diensten. Azure KI Inhaltssicherheit ist für zahlreiche Szenarien geeignet, z. B. für Online-Marketplaces, Spieleanbieter, Social Messaging-Plattformen, Medienunternehmen und Anbieter von Lösungen für den primären und sekundären Bildungsbereich.