FaceDetectorPreset Classe
Descreve todas as configurações a serem usadas ao analisar um vídeo para detectar (e, opcionalmente, redigir) todos os rostos presentes.
Todos os parâmetros necessários devem ser preenchidos para enviar ao Azure.
- Herança
-
azure.mgmt.media.models._models_py3.PresetFaceDetectorPreset
Construtor
FaceDetectorPreset(*, resolution: str | _models.AnalysisResolution | None = None, mode: str | _models.FaceRedactorMode | None = None, blur_type: str | _models.BlurType | None = None, experimental_options: Dict[str, str] | None = None, **kwargs)
Parâmetros de apenas palavra-chave
Nome | Description |
---|---|
resolution
|
Especifica a resolução máxima na qual o vídeo é analisado. O comportamento padrão é "SourceResolution", que manterá o vídeo de entrada em sua resolução original quando analisado. O uso de "StandardDefinition" redimensionará os vídeos de entrada para a definição padrão, preservando a taxa de proporção apropriada. Ele só será redimensionamento se o vídeo for de resolução mais alta. Por exemplo, uma entrada 1920x1080 seria dimensionada para 640x360 antes do processamento. Alternar para "StandardDefinition" reduzirá o tempo necessário para processar vídeos de alta resolução. Ele também pode reduzir o custo de uso desse componente (consulte https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics para obter detalhes). No entanto, rostos que acabam sendo muito pequenos no vídeo redimensionado podem não ser detectados. Os valores conhecidos são: "SourceResolution" e "StandardDefinition". |
mode
|
Esse modo fornece a capacidade de escolher entre as seguintes configurações: 1) Analisar – somente para detecção. Esse modo gera um arquivo JSON de metadados marcando aparências de rostos em todo o vídeo. Sempre que possível, as aparências da mesma pessoa recebem a mesma ID. 2) Combinado - Além disso, redigi(desfoca) rostos detectados. 3) Redação – habilita um processo de duas passões, permitindo a redação seletiva de um subconjunto de rostos detectados. Ele usa o arquivo de metadados de uma passagem de análise anterior, juntamente com o vídeo de origem, e um subconjunto selecionado pelo usuário de IDs que exigem redação. Os valores conhecidos são: "Analisar", "Redigir" e "Combinado". |
blur_type
|
Tipo de desfoque. Os valores conhecidos são: "Box", "Low", "Med", "High" e "Black". |
experimental_options
|
Dicionário que contém pares chave-valor para parâmetros não expostos na própria predefinição. |
Variáveis
Nome | Description |
---|---|
odata_type
|
O discriminador para tipos derivados. Obrigatórios. |
resolution
|
Especifica a resolução máxima na qual o vídeo é analisado. O comportamento padrão é "SourceResolution", que manterá o vídeo de entrada em sua resolução original quando analisado. O uso de "StandardDefinition" redimensionará os vídeos de entrada para a definição padrão, preservando a taxa de proporção apropriada. Ele só será redimensionamento se o vídeo for de resolução mais alta. Por exemplo, uma entrada 1920x1080 seria dimensionada para 640x360 antes do processamento. Alternar para "StandardDefinition" reduzirá o tempo necessário para processar vídeos de alta resolução. Ele também pode reduzir o custo de uso desse componente (consulte https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics para obter detalhes). No entanto, rostos que acabam sendo muito pequenos no vídeo redimensionado podem não ser detectados. Os valores conhecidos são: "SourceResolution" e "StandardDefinition". |
mode
|
Esse modo fornece a capacidade de escolher entre as seguintes configurações: 1) Analisar
|
blur_type
|
Tipo de desfoque. Os valores conhecidos são: "Box", "Low", "Med", "High" e "Black". |
experimental_options
|
Dicionário que contém pares chave-valor para parâmetros não expostos na própria predefinição. |
Azure SDK for Python