Compartir a través de


Text Operations - Analyze Text

Analizar texto
API sincrónica para el análisis de contenido de texto potencialmente perjudicial. Actualmente, admite cuatro categorías: Odio, SelfHarm, Sexual y Violencia.

POST {endpoint}/contentsafety/text:analyze?api-version=2023-10-01

Parámetros de identificador URI

Nombre En Requerido Tipo Description
endpoint
path True

string

Puntos de conexión de Cognitive Services admitidos (protocolo y nombre de host, por ejemplo: https://.cognitiveservices.azure.com).

api-version
query True

string

Versión de la API que se va a usar para esta operación.

Cuerpo de la solicitud

Nombre Requerido Tipo Description
text True

string

Texto que se va a analizar. Se admite un máximo de 10 000 caracteres Unicode (puntos de código Unicode) en el texto de una solicitud.

blocklistNames

string[]

Nombres de listas de bloqueados.

categories

TextCategory[]

Se analizarán las categorías. Si no están asignados, se devolverá un conjunto predeterminado de resultados de análisis para las categorías.

haltOnBlocklistHit

boolean

Cuando se establece en true, no se realizarán análisis adicionales del contenido dañino en los casos en los que se alcancen las listas de bloqueos. Cuando se establece en false, se realizarán todos los análisis de contenido dañino, tanto si se alcanzan listas de bloqueados como si no.

outputType

AnalyzeTextOutputType

Esto hace referencia al tipo de salida de análisis de texto. Si no se asigna ningún valor, el valor predeterminado será "FourSeverityLevels".

Respuestas

Nombre Tipo Description
200 OK

AnalyzeTextResult

La solicitud se ha realizado correctamente.

Other Status Codes

Azure.Core.Foundations.ErrorResponse

Una respuesta de error inesperada.

Encabezados

x-ms-error-code: string

Seguridad

Ocp-Apim-Subscription-Key

Tipo: apiKey
En: header

OAuth2Auth

Tipo: oauth2
Flujo: application
Dirección URL del token: https://login.microsoftonline.com/common/oauth2/v2.0/token

Ámbitos

Nombre Description
https://cognitiveservices.azure.com/.default

Ejemplos

Analyze Text

Solicitud de ejemplo

POST {endpoint}/contentsafety/text:analyze?api-version=2023-10-01

{
  "text": "This is text example"
}

Respuesta de muestra

{
  "blocklistsMatch": [],
  "categoriesAnalysis": [
    {
      "category": "Hate",
      "severity": 0
    },
    {
      "category": "SelfHarm",
      "severity": 0
    },
    {
      "category": "Sexual",
      "severity": 0
    },
    {
      "category": "Violence",
      "severity": 0
    }
  ]
}

Definiciones

Nombre Description
AnalyzeTextOptions

Solicitud de análisis de texto.

AnalyzeTextOutputType

Esto hace referencia al tipo de salida de análisis de texto. Si no se asigna ningún valor, el valor predeterminado será "FourSeverityLevels".

AnalyzeTextResult

Respuesta de análisis de texto.

Azure.Core.Foundations.Error

Objeto de error.

Azure.Core.Foundations.ErrorResponse

Respuesta que contiene los detalles del error.

Azure.Core.Foundations.InnerError

Objeto que contiene información más específica sobre el error. Según las directrices de la API de Microsoft One: https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

TextBlocklistMatch

Resultado de la coincidencia de la lista de bloqueos.

TextCategoriesAnalysis

Resultado del análisis de texto.

TextCategory

Categoría de daño admitida en el análisis de contenido de texto.

AnalyzeTextOptions

Solicitud de análisis de texto.

Nombre Tipo Valor predeterminado Description
blocklistNames

string[]

Nombres de listas de bloqueados.

categories

TextCategory[]

Se analizarán las categorías. Si no están asignados, se devolverá un conjunto predeterminado de resultados de análisis para las categorías.

haltOnBlocklistHit

boolean

Cuando se establece en true, no se realizarán análisis adicionales del contenido dañino en los casos en los que se alcancen las listas de bloqueos. Cuando se establece en false, se realizarán todos los análisis de contenido dañino, tanto si se alcanzan listas de bloqueados como si no.

outputType

AnalyzeTextOutputType

FourSeverityLevels

Esto hace referencia al tipo de salida de análisis de texto. Si no se asigna ningún valor, el valor predeterminado será "FourSeverityLevels".

text

string

Texto que se va a analizar. Se admite un máximo de 10 000 caracteres Unicode (puntos de código Unicode) en el texto de una solicitud.

AnalyzeTextOutputType

Esto hace referencia al tipo de salida de análisis de texto. Si no se asigna ningún valor, el valor predeterminado será "FourSeverityLevels".

Nombre Tipo Description
EightSeverityLevels

string

Las gravedades de salida en ocho niveles, el valor podría ser 0,1,2,3,4,5,6,7.

FourSeverityLevels

string

Las gravedades de salida en cuatro niveles, el valor podría ser 0,2,4,6.

AnalyzeTextResult

Respuesta de análisis de texto.

Nombre Tipo Description
blocklistsMatch

TextBlocklistMatch[]

Detalles de coincidencia de la lista de bloqueos.

categoriesAnalysis

TextCategoriesAnalysis[]

Resultado del análisis de categorías.

Azure.Core.Foundations.Error

Objeto de error.

Nombre Tipo Description
code

string

Uno de un conjunto definido por el servidor de códigos de error.

details

Azure.Core.Foundations.Error[]

Matriz de detalles sobre errores específicos que llevaron a este error notificado.

innererror

Azure.Core.Foundations.InnerError

Objeto que contiene información más específica que el objeto actual sobre el error.

message

string

Representación legible del error.

target

string

Destino del error.

Azure.Core.Foundations.ErrorResponse

Respuesta que contiene los detalles del error.

Nombre Tipo Description
error

Azure.Core.Foundations.Error

Objeto de error.

Azure.Core.Foundations.InnerError

Objeto que contiene información más específica sobre el error. Según las directrices de la API de Microsoft One: https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

Nombre Tipo Description
code

string

Uno de un conjunto definido por el servidor de códigos de error.

innererror

Azure.Core.Foundations.InnerError

Error interno.

TextBlocklistMatch

Resultado de la coincidencia de la lista de bloqueos.

Nombre Tipo Description
blocklistItemId

string

Identificador del elemento coincidente.

blocklistItemText

string

Contenido del elemento coincidente.

blocklistName

string

Nombre de la lista de bloques coincidente.

TextCategoriesAnalysis

Resultado del análisis de texto.

Nombre Tipo Description
category

TextCategory

Categoría de análisis de texto.

severity

integer

El valor aumenta con la gravedad del contenido de entrada. El valor de este campo viene determinado por el tipo de salida especificado en la solicitud. El tipo de salida podría ser "FourSeverityLevels" o "EightSeverity Levels", y el valor de salida puede ser 0, 2, 4, 6 o 0, 1, 2, 3, 4, 5, 6 o 7.

TextCategory

Categoría de daño admitida en el análisis de contenido de texto.

Nombre Tipo Description
Hate

string

La categoría de daño de Text - Hate.

SelfHarm

string

Categoría de daño de Text - SelfHarm.

Sexual

string

Categoría de daño de Texto - Sexual.

Violence

string

Categoría de daño de Texto - Violencia.