Compartir a través de


ContentSafetyModelFactory.AnalyzeImageResult Método

Definición

Inicializa una nueva instancia de AnalyzeImageResult.

public static Azure.AI.ContentSafety.AnalyzeImageResult AnalyzeImageResult (Azure.AI.ContentSafety.ImageAnalyzeSeverityResult hateResult = default, Azure.AI.ContentSafety.ImageAnalyzeSeverityResult selfHarmResult = default, Azure.AI.ContentSafety.ImageAnalyzeSeverityResult sexualResult = default, Azure.AI.ContentSafety.ImageAnalyzeSeverityResult violenceResult = default);
static member AnalyzeImageResult : Azure.AI.ContentSafety.ImageAnalyzeSeverityResult * Azure.AI.ContentSafety.ImageAnalyzeSeverityResult * Azure.AI.ContentSafety.ImageAnalyzeSeverityResult * Azure.AI.ContentSafety.ImageAnalyzeSeverityResult -> Azure.AI.ContentSafety.AnalyzeImageResult
Public Shared Function AnalyzeImageResult (Optional hateResult As ImageAnalyzeSeverityResult = Nothing, Optional selfHarmResult As ImageAnalyzeSeverityResult = Nothing, Optional sexualResult As ImageAnalyzeSeverityResult = Nothing, Optional violenceResult As ImageAnalyzeSeverityResult = Nothing) As AnalyzeImageResult

Parámetros

hateResult
ImageAnalyzeSeverityResult

Resultado del análisis de la categoría Odio.

selfHarmResult
ImageAnalyzeSeverityResult

Resultado del análisis de la categoría SelfHarm.

sexualResult
ImageAnalyzeSeverityResult

Resultado del análisis de la categoría Sexual.

violenceResult
ImageAnalyzeSeverityResult

Resultado del análisis de la categoría Violencia.

Devoluciones

AnalyzeImageResult Nueva instancia para simular.

Se aplica a