Sugerencia
Si no encuentra respuesta a sus preguntas en estas P+F, plantéelas en la comunidad API de Cognitive Services en StackOverflow o póngase en contacto con Ayuda y soporte técnico en UserVoice
Para obtener referencias sobre cómo empezar a enviar texto e imágenes a Seguridad del contenido de Azure AI y ver las respuestas y los resultados del modelo, visite la página Portal de Azure AI Foundry. Puede usar la barra lateral para navegar por la página Seguridad.
¿Qué tipos de elementos multimedia pueden clasificar o moderar la Seguridad del contenido de Azure AI?
Nuestros modelos de clasificación de daños en el contenido admiten actualmente la moderación de texto, imágenes y multimodal (imágenes con texto + OCR). Los modelos de detección de material protegido, escudos de avisos y con fundamento funcionan con contenido de texto.
R: Generalmente cobramos por volumen. Por ejemplo, la API de Image tiene un precio basado en el número de imágenes enviadas. La API de Text se factura por el número de registros de texto enviados al servicio. Sin embargo, cada modelo tiene su propia tasa correspondiente. Consulte la página de precios de Azure para obtener más información sobre los planes de tarifa.
Azure Content Moderator está en desuso desde marzo de 2024. Microsoft recomienda que los usuarios de Azure Content Moderator migren a Seguridad del contenido de Azure AI porque:
- Azure AI Content Safety ofrece una detección más precisa y granular de contenido dañino en texto e imágenes mediante modelos de inteligencia artificial de última generación.
- Seguridad del contenido de Azure AI admite la moderación de contenido multilingüe (vea Compatibilidad con idiomas).
- Azure AI Content Safety permite prácticas de inteligencia artificial responsables mediante la supervisión del contenido generado por el usuario y generado por IA.
Las principales diferencias entre los dos servicios son:
- Azure Content Moderator usa una clasificación binaria para cada marca de contenido (como blasfemias o contenido adulto), mientras que Seguridad del contenido de Azure AI usa varios niveles de gravedad con las distintas clases (sexual, violenta, odio y autolesión).
- Seguridad del contenido de Azure AI admite la moderación de contenido multilingüe (vea Compatibilidad con idiomas), mientras que los clasificadores de la IA de Content Moderator solo admiten inglés.
- Azure Content Moderator tiene una lista de términos integrada y una característica de lista de términos personalizados, mientras que Seguridad del contenido de Azure AI no tiene una lista de términos integrada, pero se basa en modelos avanzados de lenguaje y visión para detectar contenido dañino. También proporciona una característica de lista de términos personalizada para la personalización.
- Azure AI Content Safety tiene un estudio interactivo para explorar y probar las funcionalidades del servicio, mientras que Azure Content Moderator no lo tiene.
No. La API de Seguridad de contenido de Azure AI devuelve metadatos de clasificación en función de las salidas del modelo. Nuestros resultados indican a los usuarios si el material de varias clases (sexual, violencia, odio, autolesión) está presente en el contenido de entrada, a través de un nivel de gravedad devuelto (como en la API de Text) o resultados binarios (como en la API de Prompt Shields).
Como usuario, usará esos resultados para informar a las acciones de cumplimiento adecuadas, como el etiquetado automático o la eliminación de contenido determinado, en función de sus propias directivas y prácticas.
El uso del servicio se limita si alcanza el límite de transacciones en el nivel Gratis.
¿Deberíamos enviar nuestro contenido a la API de Seguridad del contenido de forma sincrónica o asincrónica?
La API de Seguridad del contenido está optimizada para las necesidades de moderación en tiempo real. Los resultados del modelo se devuelven directamente en el mensaje de respuesta de la API.
¿Cuál es el límite actual de RPS (solicitudes por segundo) para cada API? Si quiero aumentar el RPS, ¿qué pasos debo seguir?
Consulte la información general sobre los límites actuales de RPS para cada API. Para solicitar un aumento de RPS, envíenos un correo electrónico con la justificación y una previsión de tráfico estimada.
Para decidir si se debe filtrar en el nivel de gravedad 0, 2, 4 o 6, le recomendamos encarecidamente que consulte los ejemplos descriptivos de cada nivel de gravedad enumerado en Categorías de daño. Por lo general, el texto que recibe la puntuación en el nivel de gravedad 0 puede hacer referencia a un tema confidencial, pero puede ser benigno. Decidir si se debe moderar en el nivel 2 o 4 dependerá de las directrices y la sensibilidad de la comunidad en torno a temas controvertidos.
En general, depende de los conjuntos de datos y sus propias directivas y tolerancia a riesgos. Se recomienda iniciar un nivel de gravedad de 4 para los nuevos proyectos. A continuación, puede ajustar el nivel de gravedad en función del rendimiento del modelo.
También estamos disponibles para ejecutar evaluaciones con sus datos con el fin de recomendar umbrales y puede usar nuestra evaluación por lotes de Estudio de Seguridad del contenido para obtener más información sobre los procedimientos recomendados.
El modelo no almacena ningún texto o imagen de entrada durante la detección (excepto las listas de bloqueo proporcionadas por el cliente, y las entradas de usuario no se usan para entrenar, volver a entrenar o mejorar los modelos de Seguridad del contenido de Azure AI).
Para obtener más información sobre los compromisos de privacidad y seguridad de Microsoft, visite Datos, privacidad y seguridad para Seguridad del contenido de Azure AI.
¿Los datos del cliente procesados por Seguridad del contenido de Azure AI se transmiten fuera del servicio de Seguridad del contenido de Azure AI o la región seleccionada?
No. Microsoft hospeda los modelos de Seguridad del contenido de Azure AI dentro de nuestra infraestructura de Azure. Todos los datos de los clientes enviados a Seguridad del contenido de Azure AI permanecen dentro de Seguridad del contenido de Azure AI durante el procesamiento y en la región que eligió y no se transmiten a otras regiones.
Las API de seguridad del contenido no admiten el procesamiento por lotes. Actualmente, las API de seguridad del contenido logran una alta simultaneidad en el procesamiento con límites de velocidad predeterminados generosos de 1000 por minuto, según el modelo. Aunque esto es suficiente para la mayoría de los usuarios, nos complace aumentar los límites de velocidad de los usuarios que procesan o buscan procesar volúmenes más altos.
Actualmente, podemos combinar varias clasificaciones en un único punto de conexión de API, lo que permite a los usuarios acceder a ambas salidas del modelo con una sola tarea, pero esta API está en versión preliminar privada; envíenos un correo electrónico para permitir la inscripción de su identificador de suscripción.
En nuestro proceso DSAT estándar, los usuarios deben crear un vale para enviarnos casos, ya que los correos electrónicos no iniciarán el proceso de evaluación de prioridades. Los usuarios pueden enviar casos a través de Azure Portal y el ingeniero de soporte técnico al cliente puede ayudarles a crear un vale de ICM.
Cree una solicitud de soporte técnico para enviarnos una incidencia:
- En Tipo de problema, seleccione Técnico.
- En Suscripción, seleccione la suscripción.
- En Servicio, seleccione Todos los servicios y, a continuación, seleccione Seguridad del contenido.
- En Resumen, agregue una descripción del problema.
El modelo requiere tiempo para iterar y volver a entrenar. Si crea una incidencia de soporte técnico a través de Azure Portal, un ingeniero de soporte técnico al cliente le ayudará a realizar el seguimiento del estado y a proporcionarle actualizaciones sobre su progreso. Sin embargo, el equipo de productos le anima a mitigar los problemas más rápidamente por su cuenta mediante nuestras herramientas recomendadas, como la lista de bloqueados. Consulte Mitigación de falsos resultados en Seguridad del contenido de Azure AI.
No. Actualmente, las tareas de moderación de texto están limitadas a envíos de 10 000 caracteres. Sin embargo, puede dividir el contenido de texto más largo en segmentos (por ejemplo, en función de la puntuación o espaciado) y enviar cada segmento como tareas relacionadas a la API de Seguridad del contenido.
Sí, puede usar la API de categorías personalizadas (estándar) de Seguridad del contenido de Azure AI para crear categorías, cargar ejemplos y entrenar el servicio para detectar contenido similar. Las categorías personalizadas están disponibles tanto para la moderación de texto como de imágenes.
¿Cómo se controla el entrenamiento de categorías personalizadas para garantizar la seguridad de los datos?
El proceso de entrenamiento para categorías personalizadas comienza con la carga de datos en el contenedor de almacenamiento de blobs dedicado. Después, conceda acceso de blob al recurso de Seguridad del contenido de Azure AI. Cuando se inicia el entrenamiento, los datos se almacenan temporalmente bajo un control estricto y se eliminan automáticamente 48 horas después.
Los modelos entrenados están protegidos para permanecer exclusivos para su organización y la región seleccionada, lo que garantiza que no se comparten con otras organizaciones, manteniendo así la confidencialidad y la integridad de los datos. Los modelos se almacenan en el almacenamiento de Microsoft con cifrado de varias capas. Se emplean claves administradas por el cliente (CMK) para mejorar la seguridad.
¿Qué medidas se toman en relación al control de acceso y la autorización para categorías personalizadas, especialmente si el objetivo es ofrecer categorías personalizadas a diferentes departamentos o usuarios finales?
Para mejorar la seguridad y el control sobre el acceso, especialmente con problemas relacionados con el uso de claves de API, podría adoptar un enfoque multicapa, como deshabilitar la autenticación local para el acceso basado en claves: deshabilitar los métodos de autenticación local que dependen de claves de API puede evitar el acceso no autorizado y reducir el riesgo de exposición de credenciales. Esto garantiza que los usuarios y las aplicaciones se autentiquen a través de soluciones de identidad administrada más seguras, como Microsoft Entra ID.
También puede explorar controles de acceso más pormenorizados para admitir configuraciones específicas del departamento o del usuario, lo que permite permisos personalizados y acceso seguro para distintos grupos de la organización. Esto garantizaría que cada departamento o grupo de usuarios pueda administrar y acceder de forma segura a sus categorías personalizadas sin poner en riesgo la seguridad general.
Estoy a punto de alcanzar la limitación de tres categorías personalizadas por implementación de servicio. ¿Hay planes u opciones para aumentar esa cuota?
Sí, los usuarios pueden solicitar un aumento en su cuota de categorías personalizadas para implementaciones de servicio específicas. Simplemente envíenos un correo electrónico con la cantidad de cuota deseada y nuestro equipo revisará su solicitud para adaptarse a sus necesidades siempre que sea posible.