Compartir a través de


Límites de protección y controles para modelos vendidos directamente por Azure

Nota:

Este documento hace referencia al portal de Microsoft Foundry (clásico).

🔍 Consulte la documentación de Microsoft Foundry (nuevo) para obtener información sobre el nuevo portal.

Importante

Los elementos marcados (versión preliminar) en este artículo se encuentran actualmente en versión preliminar pública. Esta versión preliminar se ofrece sin acuerdo de nivel de servicio y no se recomienda para las cargas de trabajo de producción. Es posible que algunas características no sean compatibles o que tengan sus funcionalidades limitadas. Para más información, consulte Términos de uso complementarios para las versiones preliminares de Microsoft Azure.

En este artículo, obtenga información sobre las funcionalidades de seguridad de contenido para los modelos del catálogo de modelos implementados mediante implementaciones de API sin servidor.

Valores predeterminados del filtro de contenido

Azure AI usa una configuración predeterminada de filtros de contenido de Azure AI Content Safety para detectar contenido dañino en cuatro categorías, como el odio y la imparcialidad, el autolesión, el daño sexual y la violencia para los modelos implementados a través de implementaciones de API sin servidor. Para más información sobre el filtrado de contenido, consulte Descripción de las categorías de daños.

La configuración de filtrado de contenido predeterminada para los modelos de texto se establece para filtrar en el umbral de gravedad medio, filtrando cualquier contenido detectado en este nivel o superior. En el caso de los modelos de imágenes, la configuración predeterminada de filtrado de contenido se establece en el umbral de configuración más bajo, de modo que se filtra el contenido que se encuentre en este nivel o en uno superior. Para los modelos implementados mediante microsoft Foundry Models, puede crear filtros configurables seleccionando la pestaña Filtros de contenido dentro de la página Guardrails &controls del portal de Foundry.

Sugerencia

El filtrado de contenido no está disponible para determinados tipos de modelo que se implementan a través de implementaciones de API sin servidor. Estos tipos de modelo incluyen la inserción de modelos y modelos de serie temporal.

El filtrado de contenido se produce sincrónicamente a medida que el servicio procesa los mensajes para generar contenido. Es posible que se le facture por separado según los precios de seguridad de contenido de Azure AI para este uso. Puede deshabilitar el filtrado de contenido para puntos de conexión individuales sin servidor:

  • En el momento en que se implementa por primera vez un modelo de lenguaje
  • Más adelante, al seleccionar el interruptor de filtrado de contenido en la página de detalles de implementación

Supongamos que decide usar una API distinta de la API de inferencia de modelos para trabajar con un modelo que se implementa a través de una implementación de API sin servidor. En tal situación, el filtrado de contenido (versión preliminar) no está habilitado a menos que lo implemente por separado mediante Seguridad del contenido de Azure AI. Para empezar a usar Seguridad del contenido de Azure AI, consulte Inicio rápido: analizar contenido de texto. Corre un mayor riesgo de exponer a los usuarios a contenido dañino si no usa el filtrado de contenido al trabajar con modelos que se implementan mediante implementaciones de API sin servidor.

Descripción de las categorías de daños

Categorías de daños

Categoría Descripción Término de API
Odio y equidad Los daños de odio y equidad hacen referencia a cualquier contenido que ataque o use lenguaje discriminatorio con referencia a una persona o grupo de identidades basado en determinados atributos diferenciadores de estos grupos.

Entre otras cosas, nos ocupamos de:
  • Raza, etnia o nacionalidad
  • Grupos de identidad de género y expresión
  • Orientación sexual
  • Religión
  • Apariencia personal y tamaño corporal
  • Estado de discapacidad
  • Acoso
Hate
Sexual Sexual describe el lenguaje relacionado con los órganos anatómicos y los genitales, las relaciones románticas y los actos sexuales, los actos representados en términos eróticos o afectuosos, incluidos los representados como una agresión o un acto violento sexual forzado contra la propia voluntad.

Entre otras cosas, nos ocupamos de:
  • Contenido vulgar
  • Prostitución
  • Desnudos y pornografía
  • Abuso
  • Captación, abuso y explotación infantil
Sexual
Violencia La violencia describe el lenguaje relacionado con acciones físicas destinadas a herir, lesionar, dañar o matar a alguien o algo; describe armas, pistolas y entidades relacionadas.

Entre otras cosas, nos ocupamos de:
  • Armas
  • Acoso e intimidación
  • Terrorismo y extremismo violento
  • Acoso
Violence
Autolesiones La autolesión describe el lenguaje relacionado con acciones físicas destinadas a herir, lesionar, dañar el propio cuerpo o suicidarse.

Entre otras cosas, nos ocupamos de:
  • Trastornos alimentarios
  • Acoso e intimidación
SelfHarm

Niveles de gravedad

Nivel Descripción
Seguro El contenido puede estar relacionado con las categorías de violencia, lesiones autoinfligidas, contenido sexual u odio. Sin embargo, los términos se usan en contextos generales, periodísticos, científicos, médicos y profesionales similares, que son apropiados para la mayoría del público.
Bajo Contenido que expresa prejuicios, juicios u opiniones, incluye un uso ofensivo del lenguaje, estereotipos, casos de uso que exploran un mundo ficticio (por ejemplo, los juegos, la literatura) y representaciones con baja intensidad.
Media El contenido que usa un lenguaje ofensivo, insultante, burlón, intimidatorio o degradante hacia grupos de identidad específicos, incluye representaciones de búsqueda y ejecución de instrucciones dañinas, fantasías, glorificación, promoción del daño con una intensidad media.
Alto Contenido que muestra instrucciones, acciones, daños o abusos explícitos y gravemente perjudiciales; incluye la aprobación, glorificación o promoción de actos gravemente perjudiciales, formas extremas o ilegales de daño, radicalización o intercambio o abuso de poder no consentido.

Cómo se calculan los cargos

Los detalles de precios se pueden ver en Precios de Seguridad del contenido de Azure AI. Se generan cargos cuando Seguridad del contenido de Azure AI valida el mensaje o la finalización. Si Seguridad del contenido de Azure AI bloquea el mensaje o la finalización, se le cobrará tanto por la evaluación del contenido como por las llamadas de inferencia.