SpeechServiceConnection_Key |
Klucz subskrypcji usługi Mowa w usługach Cognitive Services. Jeśli używasz rozpoznawania intencji, musisz określić klucz punktu końcowego usługi LUIS dla określonej aplikacji usługi LUIS. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia SpeechConfig::FromSubscription. |
SpeechServiceConnection_Endpoint |
Punkt końcowy usługi Mowa w usługach Cognitive Services (url). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia SpeechConfig::FromEndpoint. UWAGA: Ten punkt końcowy nie jest taki sam jak punkt końcowy używany do uzyskiwania tokenu dostępu. |
SpeechServiceConnection_Region |
Region usługi Mowa w usługach Cognitive Services. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken. |
SpeechServiceAuthorization_Token |
Token autoryzacji usługi Speech Service usług Cognitive Services (czyli token dostępu). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken. |
SpeechServiceAuthorization_Type |
Typ autoryzacji usługi Mowa w usługach Cognitive Services. Obecnie nieużywane. |
SpeechServiceConnection_EndpointId |
Identyfikator punktu końcowego usługi Custom Speech lub Custom Voice Service w usługach Cognitive Services. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig::SetEndpointId. UWAGA: identyfikator punktu końcowego jest dostępny w witrynie Custom Speech Portal na liście w obszarze Szczegóły punktu końcowego. |
SpeechServiceConnection_Host |
Host usługi Mowa w usługach Cognitive Services (url). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig::FromHost. |
SpeechServiceConnection_ProxyHostName |
Nazwa hosta serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig::SetProxy. UWAGA: ten identyfikator właściwości został dodany w wersji 1.1.0. |
SpeechServiceConnection_ProxyPort |
Port serwera proxy używany do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig::SetProxy. UWAGA: ten identyfikator właściwości został dodany w wersji 1.1.0. |
SpeechServiceConnection_ProxyUserName |
Nazwa użytkownika serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig::SetProxy. UWAGA: ten identyfikator właściwości został dodany w wersji 1.1.0. |
SpeechServiceConnection_ProxyPassword |
Hasło serwera proxy używanego do nawiązywania połączenia z usługą Speech Service usług Cognitive Services. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig::SetProxy. UWAGA: ten identyfikator właściwości został dodany w wersji 1.1.0. |
SpeechServiceConnection_Url |
Ciąg adresu URL utworzony na podstawie konfiguracji mowy. Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. UWAGA: Dodano w wersji 1.5.0. |
SpeechServiceConnection_TranslationToLanguages |
Lista języków rozdzielanych przecinkami używanych jako języki tłumaczenia docelowego. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechTranslationConfig::AddTargetLanguage i SpeechTranslationConfig::GetTargetLanguages. |
SpeechServiceConnection_TranslationVoice |
Nazwa tekstu usługi Cognitive Service na głos usługi Mowa. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechTranslationConfig::SetVoiceName. UWAGA: Prawidłowe nazwy głosu można znaleźć tutaj. |
SpeechServiceConnection_TranslationFeatures |
Funkcje tłumaczenia. Do użytku wewnętrznego. |
SpeechServiceConnection_IntentRegion |
Region usługi Language Understanding. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj elementu LanguageUnderstandingModel. |
SpeechServiceConnection_RecoMode |
Tryb rozpoznawania usługi Mowa w usługach Cognitive Services. Może to być "INTERACTIVE", "CONVERSATION", "DICTATION". Ta właściwość ma być tylko do odczytu. Zestaw SDK używa go wewnętrznie. |
SpeechServiceConnection_RecoLanguage |
Język mówiony rozpoznawany (w formacie BCP-47). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig::SetSpeechRecognitionLanguage. |
Speech_SessionId |
Identyfikator sesji. Ten identyfikator jest powszechnie unikatowym identyfikatorem (aka UUID) reprezentującym określone powiązanie strumienia wejściowego audio i bazowego wystąpienia rozpoznawania mowy, do którego jest powiązana. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj parametru SessionEventArgs::SessionId. |
SpeechServiceConnection_UserDefinedQueryParameters |
Parametry zapytania udostępniane przez użytkowników. Zostaną one przekazane do usługi jako parametry zapytania adresu URL. Dodano w wersji 1.5.0. |
SpeechServiceConnection_RecoBackend |
Ciąg określający zaplecze do użycia na potrzeby rozpoznawania mowy; dozwolone opcje są w trybie online i offline. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Obecnie opcja offline jest prawidłowa tylko wtedy, gdy jest używana konfiguracja EmbeddedSpeechConfig. Dodano w wersji 1.19.0. |
SpeechServiceConnection_RecoModelName |
Nazwa modelu, który ma być używany do rozpoznawania mowy. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Obecnie jest to prawidłowe tylko wtedy, gdy jest używana konfiguracja EmbeddedSpeechConfig. Dodano w wersji 1.19.0. |
SpeechServiceConnection_RecoModelKey |
Klucz odszyfrowywania modelu do użycia na potrzeby rozpoznawania mowy. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Obecnie jest to prawidłowe tylko wtedy, gdy jest używana konfiguracja EmbeddedSpeechConfig. Dodano w wersji 1.19.0. |
SpeechServiceConnection_RecoModelIniFile |
Ścieżka do pliku ini modelu, który ma być używany do rozpoznawania mowy. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Obecnie jest to prawidłowe tylko wtedy, gdy jest używana konfiguracja EmbeddedSpeechConfig. Dodano w wersji 1.19.0. |
SpeechServiceConnection_SynthLanguage |
Język mówiony, który ma być syntetyzowany (np. en-US) Dodany w wersji 1.4.0. |
SpeechServiceConnection_SynthVoice |
Nazwa głosu TTS, który ma być używany do syntezy mowy Dodano w wersji 1.4.0. |
SpeechServiceConnection_SynthOutputFormat |
Ciąg określający format dźwięku wyjściowego TTS Dodany w wersji 1.4.0. |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission |
Wskazuje, czy używasz skompresowanego formatu audio do transmisji dźwięku syntezy mowy. Ta właściwość ma wpływ tylko wtedy, gdy SpeechServiceConnection_SynthOutputFormat jest ustawiona na format pcm. Jeśli ta właściwość nie jest ustawiona i zestaw GStreamer jest dostępny, zestaw SDK będzie używać skompresowanego formatu do syntetyzowanej transmisji audio i dekodować go. Tę właściwość można ustawić na "false", aby używać nieprzetworzonego formatu pcm do transmisji na przewodach. Dodano w wersji 1.16.0. |
SpeechServiceConnection_SynthBackend |
Ciąg do określenia zaplecza TTS; prawidłowe opcje są w trybie online i offline. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia EmbeddedSpeechConfig::FromPath lub EmbeddedSpeechConfig::FromPaths , aby ustawić zaplecze syntezy na offline. Dodano w wersji 1.19.0. |
SpeechServiceConnection_SynthOfflineDataPath |
Ścieżki plików danych dla aparatu syntezy offline; tylko wtedy, gdy zaplecze syntezy jest w trybie offline. W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia EmbeddedSpeechConfig::FromPath lub EmbeddedSpeechConfig::FromPaths. Dodano w wersji 1.19.0. |
SpeechServiceConnection_SynthOfflineVoice |
Nazwa głosu TTS w trybie offline, który ma być używany do syntezy mowy W normalnych okolicznościach, nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia EmbeddedSpeechConfig::SetSpeechSynthesisVoice i EmbeddedSpeechConfig::GetSpeechSynthesisVoiceName. Dodano w wersji 1.19.0. |
SpeechServiceConnection_SynthModelKey |
Klucz odszyfrowywania głosu do użycia na potrzeby syntezy mowy. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia EmbeddedSpeechConfig::SetSpeechSynthesisVoice. Dodano w wersji 1.19.0. |
SpeechServiceConnection_VoicesListEndpoint |
Punkt końcowy interfejsu API interfejsu API listy głosów usług Cognitive Services (url). W normalnych okolicznościach nie musisz określać tej właściwości, zestaw SDK utworzy go na podstawie regionu/hosta/punktu końcowego usługi SpeechConfig. Dodano w wersji 1.16.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs |
Początkowa wartość limitu czasu ciszy (w milisekundach) używana przez usługę. Dodano w wersji 1.5.0. |
SpeechServiceConnection_EndSilenceTimeoutMs |
Wartość limitu czasu zakończenia ciszy (w milisekundach) używana przez usługę. Dodano w wersji 1.5.0. |
SpeechServiceConnection_EnableAudioLogging |
Wartość logiczna określająca, czy rejestrowanie audio jest włączone w usłudze, czy nie. Dzienniki audio i zawartości są przechowywane w magazynie należącym do firmy Microsoft lub na własnym koncie magazynu połączonym z subskrypcją usług Cognitive Services (Bring Your Own Storage (BYOS) z włączoną usługą Mowa. Dodano w wersji 1.5.0. |
SpeechServiceConnection_LanguageIdMode |
Tryb identyfikatora języka połączenia usługi mowa. Może to być "AtStart" (wartość domyślna) lub "Continuous". Zobacz dokument identyfikacji języka . Dodano w wersji 1.25.0. |
SpeechServiceConnection_AutoDetectSourceLanguages |
Automatycznie wykrywaj języki źródłowe Dodane w wersji 1.8.0. |
SpeechServiceConnection_AutoDetectSourceLanguageResult |
Wynik automatycznego wykrywania języka źródłowego Dodano w wersji 1.8.0. |
SpeechServiceResponse_RequestDetailedResultTrueFalse |
Żądany format danych wyjściowych odpowiedzi usługi Mowa w usługach Cognitive Services (prosty lub szczegółowy). W normalnych okolicznościach nie należy bezpośrednio używać tej właściwości. Zamiast tego użyj polecenia SpeechConfig::SetOutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse |
Żądany poziom wulgaryzmów odpowiedzi usługi Mowa w usługach Cognitive Services. Obecnie nieużywane. |
SpeechServiceResponse_ProfanityOption |
Żądane ustawienie wulgaryzmów odpowiedzi usługi Mowa w usługach Cognitive Services. Dozwolone wartości to "maskowane", "usunięte" i "nieprzetworzone". Dodano w wersji 1.5.0. |
SpeechServiceResponse_PostProcessingOption |
Wartość ciągu określająca, która opcja przetwarzania końcowego powinna być używana przez usługę. Dozwolone wartości to "TrueText". Dodano w wersji 1.5.0. |
SpeechServiceResponse_RequestWordLevelTimestamps |
Wartość logiczna określająca, czy należy uwzględnić znaczniki czasu na poziomie wyrazu w wyniku odpowiedzi. Dodano w wersji 1.5.0. |
SpeechServiceResponse_StablePartialResultThreshold |
Liczba przypadków zwracania wyrazu w częściowych wynikach. Dodano w wersji 1.5.0. |
SpeechServiceResponse_OutputFormatOption |
Wartość ciągu określająca opcję formatu wyjściowego w wyniku odpowiedzi. Tylko do użytku wewnętrznego. Dodano w wersji 1.5.0. |
SpeechServiceResponse_RequestSnr |
Wartość logiczna określająca, czy należy uwzględnić snr (współczynnik sygnału do szumu) w wyniku odpowiedzi. Dodano w wersji 1.18.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult |
Wartość logiczna do żądania stabilizacji wyników częściowych tłumaczenia przez pominięcie wyrazów w końcu. Dodano w wersji 1.5.0. |
SpeechServiceResponse_RequestWordBoundary |
Wartość logiczna określająca, czy żądać zdarzeń programu WordBoundary. Dodano w wersji 1.21.0. |
SpeechServiceResponse_RequestPunctuationBoundary |
Wartość logiczna określająca, czy żądać granicy interpunkcyjnej w zdarzeniach WordBoundary. Wartość domyślna to „true”. Dodano w wersji 1.21.0. |
SpeechServiceResponse_RequestSentenceBoundary |
Wartość logiczna określająca, czy żądać granicy zdań w zdarzeniach WordBoundary. Wartość domyślna to false. Dodano w wersji 1.21.0. |
SpeechServiceResponse_SynthesisEventsSyncToAudio |
Wartość logiczna określająca, czy zestaw SDK powinien synchronizować zdarzenia metadanych syntezy( np. granicę słowa, viseme itp.) do odtwarzania audio. Ma to zastosowanie tylko wtedy, gdy dźwięk jest odtwarzany za pośrednictwem zestawu SDK. Wartość domyślna to „true”. Jeśli zostanie ustawiona wartość false, zestaw SDK uruchomi zdarzenia, ponieważ pochodzą z usługi, co może nie być zsynchronizowane z odtwarzaniem dźwięku. Dodano w wersji 1.31.0. |
SpeechServiceResponse_JsonResult |
Dane wyjściowe odpowiedzi usługi Mowa w usługach Cognitive Services (w formacie JSON). Ta właściwość jest dostępna tylko dla obiektów wyników rozpoznawania. |
SpeechServiceResponse_JsonErrorDetails |
Szczegóły błędu usługi Mowa w usługach Cognitive Services (w formacie JSON). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia CancellationDetails::ErrorDetails. |
SpeechServiceResponse_RecognitionLatencyMs |
Opóźnienie rozpoznawania w milisekundach. Tylko do odczytu, dostępne na końcowych wynikach mowy/tłumaczenia/intencji. Mierzy to opóźnienie między odebraniem danych wejściowych audio przez zestaw SDK, a momentem odebrania wyniku końcowego z usługi. Zestaw SDK oblicza różnicę czasu między ostatnim fragmentem dźwięku z danych wejściowych dźwięku, które przyczyniają się do wyniku końcowego, a czasem odebrania wyniku końcowego z usługi rozpoznawania mowy. Dodano element w wersji 1.3.0. |
SpeechServiceResponse_RecognitionBackend |
Zaplecze rozpoznawania. Dostępne tylko do odczytu w wynikach rozpoznawania mowy. Wskazuje to, czy do wygenerowania wyniku użyto rozpoznawania chmury (online), czy osadzonego (offline). |
SpeechServiceResponse_SynthesisFirstByteLatencyMs |
Opóźnienie pierwszego bajtu syntezy mowy w milisekundach. Tylko do odczytu, dostępne na końcowych wynikach syntezy mowy. Mierzy to opóźnienie między rozpoczęciem przetwarzania syntezy, a momentem udostępnienia pierwszego bajtu dźwięku. Dodano element w wersji 1.17.0. |
SpeechServiceResponse_SynthesisFinishLatencyMs |
Synteza mowy wszystkie bajty opóźnienia w milisekundach. Tylko do odczytu, dostępne na końcowych wynikach syntezy mowy. Mierzy to opóźnienie między rozpoczęciem przetwarzania syntezy, a momentem syntezy całego dźwięku. Dodano element w wersji 1.17.0. |
SpeechServiceResponse_SynthesisUnderrunTimeMs |
Underrun czas syntezy mowy w milisekundach. Dostępne tylko do odczytu wyniki zdarzeń SynthesisCompleted. To mierzy całkowity czas underrun z PropertyId::AudioConfig_PlaybackBufferLengthInMs jest wypełniony w celu ukończenia syntezy. Dodano element w wersji 1.17.0. |
SpeechServiceResponse_SynthesisConnectionLatencyMs |
Opóźnienie połączenia syntezy mowy w milisekundach. Tylko do odczytu, dostępne na końcowych wynikach syntezy mowy. Mierzy to opóźnienie między rozpoczęciem przetwarzania syntezy, a momentem ustanowienia połączenia HTTP/WebSocket. Dodano element w wersji 1.26.0. |
SpeechServiceResponse_SynthesisNetworkLatencyMs |
Opóźnienie sieci syntezy mowy w milisekundach. Tylko do odczytu, dostępne na końcowych wynikach syntezy mowy. Mierzy to czas rundy sieciowej. Dodano element w wersji 1.26.0. |
SpeechServiceResponse_SynthesisServiceLatencyMs |
Opóźnienie usługi syntezy mowy w milisekundach. Tylko do odczytu, dostępne na końcowych wynikach syntezy mowy. Mierzy to czas przetwarzania usługi, aby zsyntetyzować pierwszy bajt dźwięku. Dodano element w wersji 1.26.0. |
SpeechServiceResponse_SynthesisBackend |
Wskazuje, które zaplecze syntezy zostało zakończone. Tylko do odczytu, dostępne w wynikach syntezy mowy, z wyjątkiem wyniku zdarzenia SynthesisStarted Dodano w wersji 1.17.0. |
CancellationDetails_Reason |
Przyczyna anulowania. Obecnie nieużywane. |
CancellationDetails_ReasonText |
Tekst anulowania. Obecnie nieużywane. |
CancellationDetails_ReasonDetailedText |
Szczegółowy tekst anulowania. Obecnie nieużywane. |
LanguageUnderstandingServiceResponse_JsonResult |
Dane wyjściowe odpowiedzi usługi Language Understanding Service (w formacie JSON). Dostępne za pośrednictwem intentRecognitionResult.Properties. |
AudioConfig_DeviceNameForCapture |
Nazwa urządzenia do przechwytywania dźwięku. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia AudioConfig::FromMicrophoneInput. UWAGA: ten identyfikator właściwości został dodany w wersji 1.3.0. |
AudioConfig_NumberOfChannelsForCapture |
Liczba kanałów do przechwytywania dźwięku. Tylko do użytku wewnętrznego. UWAGA: ten identyfikator właściwości został dodany w wersji 1.3.0. |
AudioConfig_SampleRateForCapture |
Częstotliwość próbkowania (w Hz) na potrzeby przechwytywania dźwięku. Tylko do użytku wewnętrznego. UWAGA: ten identyfikator właściwości został dodany w wersji 1.3.0. |
AudioConfig_BitsPerSampleForCapture |
Liczba bitów każdego przykładu na potrzeby przechwytywania dźwięku. Tylko do użytku wewnętrznego. UWAGA: ten identyfikator właściwości został dodany w wersji 1.3.0. |
AudioConfig_AudioSource |
Źródło audio. Dozwolone wartości to "Mikrofony", "Plik" i "Stream". Dodano element w wersji 1.3.0. |
AudioConfig_DeviceNameForRender |
Nazwa urządzenia do renderowania audio. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj elementu AudioConfig::FromSpeakerOutput. Dodano element w wersji 1.14.0. |
AudioConfig_PlaybackBufferLengthInMs |
Długość buforu odtwarzania w milisekundach domyślna to 50 milisekund. |
AudioConfig_AudioProcessingOptions |
Opcje przetwarzania dźwięku w formacie JSON. |
Speech_LogFilename |
Nazwa pliku do zapisywania dzienników. Dodano element w wersji 1.4.0. |
Speech_SegmentationSilenceTimeoutMs |
Czas trwania wykrytej ciszy mierzony w milisekundach, po którym funkcja zamiany mowy na tekst określi, że fraza mówiona została zakończona i wygeneruje końcowy wynik rozpoznany. Skonfigurowanie tego limitu czasu może być przydatne w sytuacjach, gdy mówione dane wejściowe są znacznie szybsze lub wolniejsze niż zwykle, a domyślne zachowanie segmentacji stale daje wyniki zbyt długie lub zbyt krótkie. Wartości limitu czasu segmentacji, które są nieodpowiednio wysokie lub niskie, mogą negatywnie wpływać na dokładność zamiany mowy na tekst; Ta właściwość powinna być starannie skonfigurowana, a wynikowe zachowanie powinno zostać dokładnie zweryfikowane zgodnie z oczekiwaniami. |
Conversation_ApplicationId |
Identyfikator używany do nawiązywania połączenia z usługą zaplecza. Dodano element w wersji 1.5.0. |
Conversation_DialogType |
Typ zaplecza okna dialogowego, z którymi chcesz nawiązać połączenie. Dodano element w wersji 1.7.0. |
Conversation_Initial_Silence_Timeout |
Limit czasu milczenia na potrzeby nasłuchiwania Dodano w wersji 1.5.0. |
Conversation_From_Id |
Od identyfikatora do użycia w działaniach rozpoznawania mowy Dodano w wersji 1.5.0. |
Conversation_Conversation_Id |
ConversationId sesji. Dodano element w wersji 1.8.0. |
Conversation_Custom_Voice_Deployment_Ids |
Rozdzielona przecinkami lista niestandardowych identyfikatorów wdrożenia głosowego. Dodano element w wersji 1.8.0. |
Conversation_Speech_Activity_Template |
Szablon działania mowy, właściwości sygnatury w szablonie dla działania wygenerowanego przez usługę dla mowy. Dodano element w wersji 1.10.0. |
Conversation_ParticipantId |
Identyfikator uczestnika w bieżącej konwersacji. Dodano element w wersji 1.13.0. |
Conversation_Request_Bot_Status_Messages |
|
Conversation_Connection_Id |
|
DataBuffer_TimeStamp |
Sygnatura czasowa skojarzona z buforem danych zapisanym przez klienta podczas korzystania ze strumieni wejściowych ściągnięcia/wypychania audio. Sygnatura czasowa jest wartością 64-bitową o rozdzielczości 90 kHz. Jest taka sama jak sygnatura czasowa prezentacji w strumieniu transportu MPEG. Zobacz https://en.wikipedia.org/wiki/Presentation_timestamp Dodano w wersji 1.5.0. |
DataBuffer_UserId |
Identyfikator użytkownika skojarzony z buforem danych zapisanym przez klienta podczas korzystania ze strumieni wejściowych ściągnięcia/wypychania dźwięku. Dodano element w wersji 1.5.0. |
PronunciationAssessment_ReferenceText |
Tekst referencyjny dźwięku do oceny wymowy. Aby uzyskać te i następujące parametry oceny wymowy, zobacz tabelę Parametry oceny wymowy. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia WymowaAssessmentConfig::Create lub WymowaAssessmentConfig::SetReferenceText. Dodano element w wersji 1.14.0. |
PronunciationAssessment_GradingSystem |
System punktów kalibracji wyniku wymowy (FivePoint lub HundredMark). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia WymowaAssessmentConfig::Create. Dodano element w wersji 1.14.0. |
PronunciationAssessment_Granularity |
Stopień szczegółowości oceny wymowy (Phoneme, Word lub FullText). W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia WymowaAssessmentConfig::Create. Dodano element w wersji 1.14.0. |
PronunciationAssessment_EnableMiscue |
Określa, czy włączyć błędne obliczenie. Po włączeniu tej opcji wymawiane wyrazy zostaną porównane z tekstem referencyjnym i zostaną oznaczone pominięciem/wstawianiem na podstawie porównania. Ustawieniem domyślnym jest Fałsz. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia WymowaAssessmentConfig::Create. Dodano element w wersji 1.14.0. |
PronunciationAssessment_PhonemeAlphabet |
Alfabet fonetyczny oceny wymowy. Prawidłowe wartości to "SAPI" (wartość domyślna) i "IPA" W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia WymowaAssessmentConfig::SetPhonemeAlphabet. Dodano element w wersji 1.20.0. |
PronunciationAssessment_NBestPhonemeCount |
Ocena wymowy nbest liczba phoneme. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia WymowaAssessmentConfig::SetNBestPhonemeCount. Dodano element w wersji 1.20.0. |
PronunciationAssessment_EnableProsodyAssessment |
Czy włączyć ocenę prosody. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia WymowaAssessmentConfig::EnableProsodyAssessment. Dodano element w wersji 1.33.0. |
PronunciationAssessment_Json |
Ciąg json parametrów oceny wymowy W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia WymowaAssessmentConfig::Create. Dodano element w wersji 1.14.0. |
PronunciationAssessment_Params |
Parametry oceny wymowy. Ta właściwość jest przeznaczona tylko do odczytu. Zestaw SDK używa go wewnętrznie. Dodano element w wersji 1.14.0. |
PronunciationAssessment_ContentTopic |
Temat treści oceny wymowy. W normalnych okolicznościach nie należy używać tej właściwości bezpośrednio. Zamiast tego użyj polecenia WymowaAssessmentConfig::EnableContentAssessmentWithTopic. Dodano element w wersji 1.33.0. |
SpeakerRecognition_Api_Version |
Wersja interfejsu API rozpoznawania osoby mówiącej. Ta właściwość jest dodawana w celu umożliwienia testowania i używania poprzednich wersji interfejsów API rozpoznawania osoby mówiącej, jeśli ma to zastosowanie. Dodano element w wersji 1.18.0. |
SpeechTranslation_ModelName |
Nazwa modelu, który ma być używany do tłumaczenia mowy. Nie używaj tej właściwości bezpośrednio. Obecnie jest to prawidłowe tylko wtedy, gdy jest używana funkcja EmbeddedSpeechConfig. |
SpeechTranslation_ModelKey |
Klucz odszyfrowywania modelu, który ma być używany do tłumaczenia mowy. Nie używaj tej właściwości bezpośrednio. Obecnie jest to prawidłowe tylko wtedy, gdy jest używana funkcja EmbeddedSpeechConfig. |
KeywordRecognition_ModelName |
Nazwa modelu, który ma być używany do rozpoznawania słów kluczowych. Nie używaj tej właściwości bezpośrednio. Obecnie jest to prawidłowe tylko wtedy, gdy jest używana funkcja EmbeddedSpeechConfig. |
KeywordRecognition_ModelKey |
Klucz odszyfrowywania modelu, który ma być używany do rozpoznawania słów kluczowych. Nie używaj tej właściwości bezpośrednio. Obecnie jest to prawidłowe tylko wtedy, gdy jest używana funkcja EmbeddedSpeechConfig. |
EmbeddedSpeech_EnablePerformanceMetrics |
Włącz zbieranie osadzonych metryk wydajności mowy, których można użyć do oceny możliwości urządzenia do korzystania z osadzonej mowy. Zebrane dane są uwzględniane w wynikach z określonych scenariuszy, takich jak rozpoznawanie mowy. Ustawieniem domyślnym jest "false". Należy pamiętać, że metryki mogą nie być dostępne we wszystkich scenariuszach osadzonej mowy. |