次の方法で共有


顔検出モデルを指定する

このガイドでは、Azure AI Face サービスの顔検出モデルを指定する方法を示します。

Face サービスでは、機械学習モデルを使用して、画像内の人間の顔に対して操作を実行します。 お客様からのフィードバックや研究の進展に基づいてモデル精度の改善を続けており、これらの改善をモデルの更新として提供します。 開発者は、使う顔検出モデルのバージョンを指定でき、ユース ケースに最適なモデルを選択できます。

特定の顔操作での顔検出モデルの指定方法について、後続の説明をお読みください。 Face サービスは、顔の画像を他の形式のデータに変換するときは常に、顔検出を使用します。

最新モデルを使用すべきかどうかわからない場合は、「さまざまなモデルを評価する」のセクションに進み、新しいモデルを評価したり、現在のデータセットを使用して結果を比較したりしてください。

前提条件

AI による顔検出の概念を理解している必要があります。 そうでない場合は、顔検出に関する概念ガイドまたはハウツー ガイドを参照してください。

さまざまなモデルを評価する

各顔検出モデルは、異なるタスクに合わせて最適化されています。 相違点の概要については、次の表を参照してください。

モデル 説明 パフォーマンス上の注意点 属性 ランドマーク
detection_01 すべての顔検出操作に対する既定の選択です。 小さい顔、横顔、不鮮明な顔には最適化されていません。 検出呼び出しで主な顔の属性 (頭部姿勢、眼鏡など) が指定されている場合は、それらを返します。 検出呼び出しで顔のランドマークが指定されている場合は、それらを返します。
detection_02 2019 年 5 月にリリースされ、すべての顔検出操作でオプションとして利用可能です。 小さい顔、横顔、不鮮明な顔での精度が向上しています。 顔の属性を返しません。 顔のランドマークを返しません。
detection_03 2021 年 2 月にリリースされ、すべての顔検出操作でオプションとして利用可能です。 より小さい顔 (64x64 ピクセル) や回転した顔の向きなど、さらに精度が向上しました。 検出呼び出しでマスク、ぼかし、頭部姿勢の各属性が指定されている場合は、それらを返します。 検出呼び出しで顔のランドマークが指定されている場合は、それらを返します。

検出モデルのパフォーマンスを比較する最良の方法は、それらをサンプル データセットで使用することです。 さまざまな画像、特に多数の顔や識別しづらい顔の画像に対して、それぞれの検出モデルを使用して Detect API を呼び出すことをお勧めします。 各モデルによって返される顔の数に注意してください。

指定されたモデルで顔を検出する

顔検出では、人間の顔の境界ボックス位置を見つけ、それらの視覚的な目印を識別します。 顔の特徴を抽出し、後で認識操作で使用するために保存します。

Detect API を使用するときは、detectionModel パラメーターを使用してモデルのバージョンを割り当てることができます。 使用できる値は次のとおりです。

  • detection_01
  • detection_02
  • detection_03

Detect REST API の要求 URL は次のようになります。

https://westus.api.cognitive.microsoft.com/face/v1.0/detect[?returnFaceId][&returnFaceLandmarks][&returnFaceAttributes][&recognitionModel][&returnRecognitionModel][&detectionModel]&subscription-key=<Subscription key>

クライアント ライブラリを使用している場合は、適切な文字列を渡すことによって detectionModel の値を割り当てることができます。 未割り当てのままにした場合、API は既定のモデル バージョン (detection_01) を使います。 .NET クライアント ライブラリの次のコード例を参照してください。

string imageUrl = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/Face/images/detection1.jpg";
var faces = await faceClient.Face.DetectWithUrlAsync(url: imageUrl, returnFaceId: false, returnFaceLandmarks: false, recognitionModel: "recognition_04", detectionModel: "detection_03");

指定したモデルを使用して Person に顔を追加する

Face サービスでは画像から顔データを抽出し、Add Person Group Person Face API によってそれを Person オブジェクトに関連付けることができます。 この API 呼び出しでは、Detect と同じ方法で検出モデルを指定できます。

.NET クライアント ライブラリの次のコード例を参照してください。

// Create a PersonGroup and add a person with face detected by "detection_03" model
string personGroupId = "mypersongroupid";
await faceClient.PersonGroup.CreateAsync(personGroupId, "My Person Group Name", recognitionModel: "recognition_04");

string personId = (await faceClient.PersonGroupPerson.CreateAsync(personGroupId, "My Person Name")).PersonId;

string imageUrl = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/Face/images/detection1.jpg";
await client.PersonGroupPerson.AddFaceFromUrlAsync(personGroupId, personId, imageUrl, detectionModel: "detection_03");

このコードは、ID mypersongroupid を持つ PersonGroup を作成し、それに Person を追加します。 次に、detection_03 モデルを使用して、この Person に顔を追加します。 detectionModel パラメーターを指定しない場合、API は既定のモデルである detection_01 を使います。

Note

Person オブジェクト内のすべての顔に同じ検出モデルを使用する必要はありません。また、(Identify From Person Group API などで) Person オブジェクトと比較するために新しい顔を検出するときに、同じ検出モデルを使用する必要もありません。

指定したモデルを使用して FaceList に顔を追加する

既存の FaceList オブジェクトに顔を追加するときにも検出モデルを指定できます。 .NET クライアント ライブラリの次のコード例を参照してください。

await faceClient.FaceList.CreateAsync(faceListId, "My face collection", recognitionModel: "recognition_04");

string imageUrl = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/Face/images/detection1.jpg";
await client.FaceList.AddFaceFromUrlAsync(faceListId, imageUrl, detectionModel: "detection_03");

このコードは、My face collection という FaceList を作成し、それに detection_03 モデルを使用して顔を追加します。 detectionModel パラメーターを指定しない場合、API は既定のモデルである detection_01 を使います。

Note

FaceList オブジェクト内のすべての顔に同じ検出モデルを使用する必要はありません。また、FaceList オブジェクトと比較するために新しい顔を検出するときに、同じ検出モデルを使用する必要もありません。

次のステップ

この記事では、さまざまな Face API で使用する検出モデルを指定する方法について説明しました。 次は、クイック スタートに従って顔検出と分析を開始します。