ContentSafetyModelFactory.AnalyzeImageResult メソッド
定義
重要
一部の情報は、リリース前に大きく変更される可能性があるプレリリースされた製品に関するものです。 Microsoft は、ここに記載されている情報について、明示または黙示を問わず、一切保証しません。
AnalyzeImageResult の新しいインスタンスを初期化します。
public static Azure.AI.ContentSafety.AnalyzeImageResult AnalyzeImageResult (Azure.AI.ContentSafety.ImageAnalyzeSeverityResult hateResult = default, Azure.AI.ContentSafety.ImageAnalyzeSeverityResult selfHarmResult = default, Azure.AI.ContentSafety.ImageAnalyzeSeverityResult sexualResult = default, Azure.AI.ContentSafety.ImageAnalyzeSeverityResult violenceResult = default);
static member AnalyzeImageResult : Azure.AI.ContentSafety.ImageAnalyzeSeverityResult * Azure.AI.ContentSafety.ImageAnalyzeSeverityResult * Azure.AI.ContentSafety.ImageAnalyzeSeverityResult * Azure.AI.ContentSafety.ImageAnalyzeSeverityResult -> Azure.AI.ContentSafety.AnalyzeImageResult
Public Shared Function AnalyzeImageResult (Optional hateResult As ImageAnalyzeSeverityResult = Nothing, Optional selfHarmResult As ImageAnalyzeSeverityResult = Nothing, Optional sexualResult As ImageAnalyzeSeverityResult = Nothing, Optional violenceResult As ImageAnalyzeSeverityResult = Nothing) As AnalyzeImageResult
パラメーター
- hateResult
- ImageAnalyzeSeverityResult
ヘイト カテゴリの分析結果。
- selfHarmResult
- ImageAnalyzeSeverityResult
SelfHarm カテゴリの分析結果。
- sexualResult
- ImageAnalyzeSeverityResult
性的カテゴリの分析結果。
- violenceResult
- ImageAnalyzeSeverityResult
暴力カテゴリの分析結果。
戻り値
モック作成用の新しい AnalyzeImageResult インスタンス。