Udostępnij za pośrednictwem


FaceDetectorPreset Klasa

Opisuje wszystkie ustawienia, które mają być używane podczas analizowania wideo w celu wykrycia (i opcjonalnie redagowania) wszystkich obecnych twarzy.

Wszystkie wymagane parametry muszą zostać wypełnione w celu wysłania ich na platformę Azure.

Dziedziczenie
azure.mgmt.media.models._models_py3.Preset
FaceDetectorPreset

Konstruktor

FaceDetectorPreset(*, resolution: str | _models.AnalysisResolution | None = None, mode: str | _models.FaceRedactorMode | None = None, blur_type: str | _models.BlurType | None = None, experimental_options: Dict[str, str] | None = None, **kwargs)

Parametry Tylko słowo kluczowe

Nazwa Opis
resolution

Określa maksymalną rozdzielczość, w której jest analizowane wideo. Domyślnym zachowaniem jest "SourceResolution", który zachowa wejściowy film wideo w oryginalnej rozdzielczości podczas analizowania. Użycie opcji "StandardDefinition" spowoduje zmianę rozmiaru wejściowych filmów wideo na standardową definicję przy zachowaniu odpowiedniego współczynnika proporcji. Zmiana rozmiaru będzie zmieniana tylko wtedy, gdy wideo ma wyższą rozdzielczość. Na przykład dane wejściowe 1920x1080 zostaną przeskalowane do 640x360 przed przetworzeniem. Przełączenie na "StandardDefinition" skróci czas przetwarzania wideo o wysokiej rozdzielczości. Może również zmniejszyć koszt korzystania z tego składnika (zobacz https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics szczegółowe informacje). Jednak twarze, które są zbyt małe w zmienionym rozmiarze wideo, mogą nie zostać wykryte. Znane wartości to: "SourceResolution" i "StandardDefinition".

mode

Ten tryb umożliwia wybór między następującymi ustawieniami: 1) Analizowanie — tylko do wykrywania. Ten tryb generuje metadanych wyglądy plików JSON twarzy w całym filmie wideo. Tam, gdzie to możliwe, do tej samej osoby przypisano ten sam identyfikator. 2) Połączone — dodatkowo wykrywane twarze są redacts (rozmycia). 3) Redact — umożliwia to proces 2-przekazywania, co umożliwia selektywne redagowanie podzestawu wykrytych twarzy. Pobiera on plik metadanych z poprzedniego przebiegu analizy wraz ze źródłowym filmem wideo oraz podzbiorem identyfikatorów wybranych przez użytkownika, które wymagają ponownego przeprowadzenia analizy. Znane wartości to: "Analyze", "Redact" i "Combined".

blur_type

Typ rozmycia. Znane wartości to: "Box", "Low", "Med", "High" i "Black".

experimental_options

Słownik zawierający pary wartości klucza dla parametrów, które nie są widoczne w samym ustawieniu wstępnym.

Zmienne

Nazwa Opis
odata_type
str

Dyskryminator typów pochodnych. Wymagane.

resolution

Określa maksymalną rozdzielczość, w której jest analizowane wideo. Domyślnym zachowaniem jest "SourceResolution", który zachowa wejściowy film wideo w oryginalnej rozdzielczości podczas analizowania. Użycie opcji "StandardDefinition" spowoduje zmianę rozmiaru wejściowych filmów wideo na standardową definicję przy zachowaniu odpowiedniego współczynnika proporcji. Zmiana rozmiaru będzie zmieniana tylko wtedy, gdy wideo ma wyższą rozdzielczość. Na przykład dane wejściowe 1920x1080 zostaną przeskalowane do 640x360 przed przetworzeniem. Przełączenie na "StandardDefinition" skróci czas przetwarzania wideo o wysokiej rozdzielczości. Może również zmniejszyć koszt korzystania z tego składnika (zobacz https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics szczegółowe informacje). Jednak twarze, które są zbyt małe w zmienionym rozmiarze wideo, mogą nie zostać wykryte. Znane wartości to: "SourceResolution" i "StandardDefinition".

mode

Ten tryb umożliwia wybór między następującymi ustawieniami: 1) Analiza

  • Tylko do wykrywania. Ten tryb generuje metadanych wyglądy plików JSON twarzy w całym filmie wideo. Jeśli to możliwe, do wyglądu tej samej osoby przypisano ten sam identyfikator.
  1. Połączone — dodatkowo zredagowane (rozmycia) wykryte twarze. 3) Redact — umożliwia to proces 2-przekazywania, co umożliwia selektywne redagowanie podzestawu wykrytych twarzy. Pobiera on plik metadanych z poprzedniego przebiegu analizy wraz ze źródłowym filmem wideo oraz podzbiorem identyfikatorów wybranych przez użytkownika, które wymagają ponownego przeprowadzenia analizy. Znane wartości to: "Analyze", "Redact" i "Combined".
blur_type

Typ rozmycia. Znane wartości to: "Box", "Low", "Med", "High" i "Black".

experimental_options

Słownik zawierający pary wartości klucza dla parametrów, które nie są widoczne w samym ustawieniu wstępnym.