AudioAnalyzerPreset Klasa
Ustawienie wstępne analizatora audio stosuje wstępnie zdefiniowany zestaw operacji analizy opartych na sztucznej inteligencji, w tym transkrypcję mowy. Obecnie ustawienie wstępne obsługuje przetwarzanie zawartości za pomocą pojedynczej ścieżki audio.
Prawdopodobnie chcesz użyć podklas, a nie bezpośrednio tej klasy. Znane podklasy to: VideoAnalyzerPreset
Wszystkie wymagane parametry muszą zostać wypełnione w celu wysłania ich na platformę Azure.
- Dziedziczenie
-
azure.mgmt.media.models._models_py3.PresetAudioAnalyzerPreset
Konstruktor
AudioAnalyzerPreset(*, audio_language: str | None = None, mode: str | _models.AudioAnalysisMode | None = None, experimental_options: Dict[str, str] | None = None, **kwargs)
Parametry Tylko słowo kluczowe
Nazwa | Opis |
---|---|
audio_language
|
Język ładunku audio w danych wejściowych przy użyciu formatu BCP-47 "language tag-region" (np. "en-US"). Jeśli znasz język zawartości, zaleca się jej określenie. Język musi być określony jawnie dla AudioAnalysisMode::Basic, ponieważ automatyczne wykrywanie języka nie jest uwzględniane w trybie podstawowym. Jeśli język nie jest określony lub ustawiony na wartość null, automatyczne wykrywanie języka wybierze pierwszy wykryty język i przetworzy go przy użyciu wybranego języka na czas trwania pliku. Obecnie nie obsługuje dynamicznego przełączania między językami po wykryciu pierwszego języka. Automatyczne wykrywanie działa najlepiej w przypadku nagrań audio z wyraźnie rozpoznawalną mową. Jeśli automatyczne wykrywanie nie znajdzie języka, transkrypcja wróci do "en-US". Lista obsługiwanych języków jest dostępna tutaj: https://go.microsoft.com/fwlink/?linkid=2109463. |
mode
|
str lub
AudioAnalysisMode
Określa zestaw operacji analizy audio do wykonania. Jeśli nie zostanie określona, zostanie wybrana opcja Standard AudioAnalysisMode. Znane wartości to: "Standard" i "Basic". |
experimental_options
|
Słownik zawierający pary wartości klucza dla parametrów, które nie są widoczne w samym ustawieniu wstępnym. |
Zmienne
Nazwa | Opis |
---|---|
odata_type
|
Dyskryminator typów pochodnych. Wymagane. |
audio_language
|
Język ładunku audio w danych wejściowych przy użyciu formatu BCP-47 "language tag-region" (np. "en-US"). Jeśli znasz język zawartości, zaleca się jej określenie. Język musi być określony jawnie dla AudioAnalysisMode::Basic, ponieważ automatyczne wykrywanie języka nie jest uwzględniane w trybie podstawowym. Jeśli język nie jest określony lub ustawiony na wartość null, automatyczne wykrywanie języka wybierze pierwszy wykryty język i przetworzy go przy użyciu wybranego języka na czas trwania pliku. Obecnie nie obsługuje dynamicznego przełączania między językami po wykryciu pierwszego języka. Automatyczne wykrywanie działa najlepiej w przypadku nagrań audio z wyraźnie rozpoznawalną mową. Jeśli automatyczne wykrywanie nie znajdzie języka, transkrypcja wróci do "en-US". Lista obsługiwanych języków jest dostępna tutaj: https://go.microsoft.com/fwlink/?linkid=2109463. |
mode
|
str lub
AudioAnalysisMode
Określa zestaw operacji analizy audio do wykonania. Jeśli nie zostanie określona, zostanie wybrana opcja Standard AudioAnalysisMode. Znane wartości to: "Standard" i "Basic". |
experimental_options
|
Słownik zawierający pary wartości klucza dla parametrów, które nie są widoczne w samym ustawieniu wstępnym. |
Azure SDK for Python
Opinia
https://aka.ms/ContentUserFeedback.
Dostępne już wkrótce: W 2024 r. będziemy stopniowo wycofywać zgłoszenia z serwisu GitHub jako mechanizm przesyłania opinii na temat zawartości i zastępować go nowym systemem opinii. Aby uzyskać więcej informacji, sprawdź:Prześlij i wyświetl opinię dla