Compartir a través de


ContentSafetyModelFactory.AnalyzeTextResult Método

Definición

Inicializa una nueva instancia de AnalyzeTextResult.

public static Azure.AI.ContentSafety.AnalyzeTextResult AnalyzeTextResult (System.Collections.Generic.IEnumerable<Azure.AI.ContentSafety.TextBlocklistMatchResult> blocklistsMatchResults = default, Azure.AI.ContentSafety.TextAnalyzeSeverityResult hateResult = default, Azure.AI.ContentSafety.TextAnalyzeSeverityResult selfHarmResult = default, Azure.AI.ContentSafety.TextAnalyzeSeverityResult sexualResult = default, Azure.AI.ContentSafety.TextAnalyzeSeverityResult violenceResult = default);
static member AnalyzeTextResult : seq<Azure.AI.ContentSafety.TextBlocklistMatchResult> * Azure.AI.ContentSafety.TextAnalyzeSeverityResult * Azure.AI.ContentSafety.TextAnalyzeSeverityResult * Azure.AI.ContentSafety.TextAnalyzeSeverityResult * Azure.AI.ContentSafety.TextAnalyzeSeverityResult -> Azure.AI.ContentSafety.AnalyzeTextResult
Public Shared Function AnalyzeTextResult (Optional blocklistsMatchResults As IEnumerable(Of TextBlocklistMatchResult) = Nothing, Optional hateResult As TextAnalyzeSeverityResult = Nothing, Optional selfHarmResult As TextAnalyzeSeverityResult = Nothing, Optional sexualResult As TextAnalyzeSeverityResult = Nothing, Optional violenceResult As TextAnalyzeSeverityResult = Nothing) As AnalyzeTextResult

Parámetros

blocklistsMatchResults
IEnumerable<TextBlocklistMatchResult>

Detalles de la coincidencia de la lista de bloqueados.

hateResult
TextAnalyzeSeverityResult

Resultado de análisis de la categoría Odio.

selfHarmResult
TextAnalyzeSeverityResult

Resultado de análisis de la categoría SelfHarm.

sexualResult
TextAnalyzeSeverityResult

Resultado del análisis de la categoría Sexual.

violenceResult
TextAnalyzeSeverityResult

Resultado de análisis de la categoría Violencia.

Devoluciones

AnalyzeTextResult Nueva instancia de para simular.

Se aplica a