Leer en inglés

Compartir a través de


Uso de seguridad del contenido en el portal de Azure AI Foundry

Fundición de IA de Azure incluye una página de prueba de seguridad de contenido que le permite usar los modelos de detección principales y otras características de seguridad del contenido.

Requisitos previos

Configurar

Siga estos pasos para usar la página de prueba de seguridad del contenido:

  1. Vaya a Azure AI Foundry y diríjase a su proyecto o centro. A continuación, seleccione la pestaña Protección y seguridad en el panel de navegación izquierdo y seleccione la pestaña Probar.
  2. En la página Probar, puede experimentar con varias características de seguridad del contenido, como contenido de texto e imagen, usando umbrales ajustables para filtrar por contenido inapropiado o dañino.

Recorte de pantalla de la página de prueba de la seguridad del contenido.

Análisis de texto

  1. Seleccione el panel Moderate text content.
  2. Agregue texto al campo de entrada o seleccione texto de ejemplo en los paneles de la página.
  3. Haga clic en Ejecutar prueba. El servicio devuelve todas las categorías detectadas con el nivel de gravedad de cada una (0-Seguro, 2-Bajo, 4-Medio, 6-Alto). También devuelve un resultado binario Aceptado/Rechazado en función de los filtros que configure. Use la matriz de la pestaña Configure filters de la derecha para establecer los niveles de gravedad permitidos o prohibidos para cada categoría. A continuación, puede volver a ejecutar el texto para ver cómo funciona el filtro.

Uso de una lista de bloqueados

La pestaña Usar lista de bloqueados le permite crear, editar y agregar una lista de bloqueados al flujo de trabajo de moderación. Si tiene habilitada una lista de bloqueados al ejecutar la prueba, obtendrá el panel Blocklist detection en Results. Notifica cualquier coincidencia con la lista de bloqueados.

Recorte de pantalla del panel Usar lista de bloqueados.

Análisis de imágenes

La página Moderar imagen proporciona funcionalidad para que pueda probar rápidamente la moderación de imágenes.

  1. Seleccione el panel Moderate image content.
  2. Seleccione una imagen de ejemplo de los paneles de la página o cargue su propia imagen.
  3. Haga clic en Ejecutar prueba. El servicio devuelve todas las categorías detectadas con el nivel de gravedad de cada una (0-Seguro, 2-Bajo, 4-Medio, 6-Alto). También devuelve un resultado binario Aceptado/Rechazado en función de los filtros que configure. Use la matriz de la pestaña Configure filters de la derecha para establecer los niveles de gravedad permitidos o prohibidos para cada categoría. A continuación, puede volver a ejecutar el texto para ver cómo funciona el filtro.

Visualización y exportación de código

Puede usar la característica View Code en la página Analyze text content o Analyze image content para ver y copiar el código de ejemplo, que incluye la configuración de las funciones de filtrado de gravedad, listas de bloqueados y moderación. A continuación, puede implementar el código en su extremo.

Recorte de pantalla del botón Ver código.

Uso de escudos de indicaciones

El panel Escudos de avisos permite probar la detección de riesgo de entrada de usuario. Detecte aquellos mensajes de usuario diseñados para provocar que el modelo de IA generativa muestre comportamientos que fue entrenado para evitar o infringir las reglas establecidas en el mensaje del sistema. Estos ataques pueden variar desde un intrincado juego de roles a una subversión sutil del objetivo de seguridad.

  1. Seleccione el panel Escudos de avisos.
  2. Seleccione un texto de ejemplo en la página o escriba su propio contenido para realizar pruebas.
  3. Haga clic en Ejecutar prueba. El servicio devuelve la marca de riesgo y el tipo para cada ejemplo.

Para obtener más información, consulte la guía conceptual de Escudos de avisos.

Uso de la detección de base

El panel de detección de base detecta si las respuestas de texto de los modelos de lenguaje grandes (LLM) se basan en los materiales de origen proporcionados por los usuarios.

  1. Seleccione el panel Detección de base.
  2. Seleccione un conjunto de contenido de muestra en la página o introduzca su propio contenido de prueba.
  3. Opcionalmente, habilite la característica de razonamiento y seleccione el recurso de Azure OpenAI en la lista desplegable.
  4. Haga clic en Ejecutar prueba. El servicio devuelve el resultado de la detección de base.

Para más información, consulte la guía conceptual sobre la detección de base.

Uso de la detección de material protegido

Esta característica examina el texto generado por IA en busca de contenido de texto conocido (por ejemplo, letras de canciones, artículos, recetas, contenido web seleccionado).

  1. Seleccione el panel Detección de material protegido para texto o Detección de material protegido para código.
  2. Seleccione un texto de muestra en la página o introduzca su propio contenido de prueba.
  3. Haga clic en Ejecutar prueba. El servicio devuelve el resultado del contenido protegido.

Para más información, consulte la guía conceptual sobre material protegido.

Uso de categorías personalizadas

Esta característica permite crear y entrenar sus propias categorías de contenido personalizadas y examinar texto para buscar coincidencias.

  1. Seleccione el panel Categorías personalizadas.
  2. Seleccione Agregar una nueva categoría para abrir un cuadro de diálogo. Escriba el nombre de la categoría y una descripción del texto y conecte un contenedor de Blob Storage con datos de entrenamiento de texto. Seleccione Crear y entrenar.
  3. Seleccione una categoría y escriba el texto de entrada de muestra y elija Ejecutar prueba. El servicio devuelve el resultado de la categoría personalizada.

Para más información, consulte la guía conceptual sobre categorías personalizadas.

Paso siguiente

Para usar las características de Seguridad del contenido de Azure AI con los modelos de IA generativa, consulte la guía Filtrado de contenido.