PropertyId Enumeração
Definição
Importante
Algumas informações se referem a produtos de pré-lançamento que podem ser substancialmente modificados antes do lançamento. A Microsoft não oferece garantias, expressas ou implícitas, das informações aqui fornecidas.
Lista as IDs de propriedade de fala.
public enum PropertyId
type PropertyId =
Public Enum PropertyId
- Herança
-
PropertyId
Campos
AudioConfig_DeviceNameForRender | 8005 | O nome do dispositivo para renderização de áudio. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use FromSpeakerOutput(String). Adicionado na versão 1.17.0 |
AudioConfig_PlaybackBufferLengthInMs | 8006 | O comprimento do buffer de reprodução em milissegundos, o padrão é de 50 milissegundos. Adicionado na versão 1.17.0 |
CancellationDetails_Reason | 6000 | Não utilizado. O motivo do cancelamento. |
CancellationDetails_ReasonDetailedText | 6002 | Não utilizado. O texto detalhado do cancelamento. |
CancellationDetails_ReasonText | 6001 | Não utilizado. O texto de cancelamento. |
Conversation_ApplicationId | 10000 | Identificador usado para se conectar ao serviço de back-end. Adicionado em 1.5.0 |
Conversation_Connection_Id | 10009 | Informações adicionais de identificação, como um token Direct Line, usado para autenticar com o serviço de back-end. Adicionado em 1.16.0 |
Conversation_Conversation_Id | 10004 | ConversationId para a sessão. Adicionado em 1.8.0 |
Conversation_Custom_Voice_Deployment_Ids | 10005 | Lista separada por vírgulas de IDs de implantação de voz personalizada. Adicionado em 1.8.0 |
Conversation_DialogType | 10001 | Tipo de back-end de caixa de diálogo ao qual se conectar. Adicionado em 1.7.0 |
Conversation_From_Id | 10003 | O do identificador a ser adicionado às atividades de reconhecimento de fala. Adicionado em 1.5.0 |
Conversation_Initial_Silence_Timeout | 10002 | Tempo limite do silêncio para ouvir. Adicionado em 1.5.0 |
Conversation_ParticipantId | 10007 | Obtém o identificador na conversa. Adicionado em 1.13.0 |
Conversation_Request_Bot_Status_Messages | 10008 | Um valor booliano que especifica se o cliente deve ou não receber mensagens de status e gerar eventos TurnStatusReceived correspondentes. O padrão é verdadeiro. Adicionado em 1.15.0 |
Conversation_Speech_Activity_Template | 10006 | Modelo de atividade de fala, propriedades de carimbo do modelo na atividade gerada pelo serviço de fala. Consulte SpeechActivityTemplate Adicionado em 1.10.0 |
ConversationTranscribingService_DataBufferTimeStamp | 11001 | O carimbo de data/hora associado ao buffer de dados gravado pelo cliente ao usar fluxos de modo de áudio pull/push. O carimbo de data/hora é um valor de 64 bits com uma resolução de 90 kHz. O mesmo que o carimbo de data/hora da apresentação em um fluxo de transporte MPEG. Consulte https://en.wikipedia.org/wiki/Presentation_timestamp. Adicionado em 1.5.0 |
ConversationTranscribingService_DataBufferUserId | 11002 | O identificador de usuário associado ao buffer de dados gravado pelo cliente ao usar fluxos de modo de áudio pull/push. Adicionado em 1.5.0 |
LanguageUnderstandingServiceResponse_JsonResult | 7000 | A saída de resposta do Serviço de Reconhecimento vocal (no formato JSON). Disponível por meio de Properties. |
PronunciationAssessment_EnableMiscue | 12005 | Indica o estado de cálculo incorreto. Quando habilitada, as palavras pronunciadas serão comparadas ao texto de referência e serão marcadas com omissão/inserção com base na comparação. A configuração padrão é false. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Adicionado em 1.14.0 |
PronunciationAssessment_GradingSystem | 12002 | O sistema de pontos para calibragem de pontuação de pronúncia (FivePoint ou HundredMark). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Adicionado em 1.14.0 |
PronunciationAssessment_Granularity | 12003 | A granularidade de avaliação de pronúncia (Phoneme, Word ou FullText). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Adicionado em 1.14.0 |
PronunciationAssessment_Json | 12009 | A cadeia de caracteres JSON dos parâmetros de avaliação de pronúncia. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Adicionado em 1.14.0 |
PronunciationAssessment_NBestPhonemeCount | 12007 | A avaliação de pronúncia nbest phoneme count. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use NBestPhonemeCount. Adicionado na versão 1.20.0 |
PronunciationAssessment_Params | 12010 | Parâmetros de avaliação de pronúncia. Esta propriedade é somente para leitura. Adicionado em 1.14.0 |
PronunciationAssessment_PhonemeAlphabet | 12006 | O alfabeto phoneme de avaliação de pronúncia. Os valores válidos são "SAPI" (padrão) e "IPA" Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use PhonemeAlphabet. Adicionado na versão 1.20.0 |
PronunciationAssessment_ReferenceText | 12001 | O texto de referência do áudio para avaliação de pronúncia. Para este e os seguintes parâmetros de avaliação de pronúncia, consulte Parâmetros de avaliação de pronúncia para obter detalhes. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Adicionado em 1.14.0 |
SpeakerRecognition_Api_Version | 13001 | Versão da API de reconhecimento do locutor. Adicionado em 1.18.0 |
Speech_LogFilename | 9001 | O nome do arquivo para gravar logs. Adicionado em 1.4.0 |
Speech_SegmentationSilenceTimeoutMs | 9002 | Uma duração do silêncio detectado, medida em milissegundos, após a qual a conversão de fala em texto determinará que uma frase falada terminou e gerará um resultado reconhecido final. Configurar esse tempo limite pode ser útil em situações em que a entrada falada é significativamente mais rápida ou mais lenta do que o normal e o comportamento de segmentação padrão produz consistentemente resultados muito longos ou muito curtos. Os valores de tempo limite de segmentação inadequadamente altos ou baixos podem afetar negativamente a precisão da conversão de fala em texto; essa propriedade deve ser cuidadosamente configurada e o comportamento resultante deve ser validado minuciosamente conforme o esperado. Para obter mais informações sobre a configuração de tempo limite que inclui discussão sobre comportamentos padrão, visite https://aka.ms/csspeech/timeouts. |
Speech_SessionId | 3002 | A ID da sessão. Essa id é um identificador universalmente exclusivo (também conhecido como UUID) que representa uma associação específica de um fluxo de entrada de áudio e a instância de reconhecimento de fala subjacente à qual ela está associada. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Use SessionId. |
SpeechServiceAuthorization_Token | 1003 | O token de autorização do serviço de Fala (também conhecido como token de acesso). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use FromAuthorizationToken(String, String), AuthorizationToken, AuthorizationToken, AuthorizationToken. |
SpeechServiceAuthorization_Type | 1004 | Não utilizado. O tipo de autorização do serviço de Fala. |
SpeechServiceConnection_AutoDetectSourceLanguageResult | 3301 | O resultado da detecção automática do idioma de origem. Adicionado em 1.9.0 |
SpeechServiceConnection_AutoDetectSourceLanguages | 3300 | Os idiomas de origem de detecção automática. Adicionado em 1.9.0 |
SpeechServiceConnection_EnableAudioLogging | 3202 | Um valor booliano que especifica se o log de áudio está habilitado no serviço ou não. Os logs de áudio e conteúdo são armazenados no armazenamento de propriedade da Microsoft ou em sua própria conta de armazenamento vinculada à sua assinatura dos Serviços Cognitivos (recurso de Fala habilitado para BYOS (Bring Your Own Storage). Adicionado em 1.5.0. |
SpeechServiceConnection_Endpoint | 1001 | O ponto de extremidade do serviço de Fala, uma URL. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use FromEndpoint(Uri, String)ou FromEndpoint(Uri). OBSERVAÇÃO: esse ponto de extremidade não é o mesmo que o ponto de extremidade usado para obter um token de acesso. |
SpeechServiceConnection_EndpointId | 1005 | A ID do ponto de extremidade de Fala Personalizada ou serviço de voz personalizado. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use FromEndpoint(Uri, String)ou FromEndpoint(Uri). OBSERVAÇÃO: a ID do ponto de extremidade está disponível no Portal de Fala Personalizada, listado em Detalhes do Ponto de Extremidade. |
SpeechServiceConnection_EndSilenceTimeoutMs | 3201 | O valor de tempo limite do silêncio final (em milissegundos) usado pelo serviço. Adicionado em 1.5.0 |
SpeechServiceConnection_Host | 1006 | O host do serviço de Fala (URL). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use FromHost(Uri, String)ou FromHost(Uri). |
SpeechServiceConnection_InitialSilenceTimeoutMs | 3200 | O valor de tempo limite de silêncio inicial (em milissegundos) usado pelo serviço. Adicionado em 1.5.0 |
SpeechServiceConnection_IntentRegion | 2003 | A região do serviço Reconhecimento vocal. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Use LanguageUnderstandingModel. |
SpeechServiceConnection_Key | 1000 | A chave de assinatura usada com pontos de extremidade de serviço de Fala. Se você estiver usando um reconhecedor de intenção, precisará especificar a chave de ponto de extremidade luis para seu aplicativo LUIS específico. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use FromSubscription(String, String). |
SpeechServiceConnection_LanguageIdMode | 3205 | O modo de identificador de linguagem de conexão do serviço de fala. Pode ser "AtStart" (o padrão) ou "Contínuo". Confira o documento De identificação de idioma . Adicionado em 1.25.0 |
SpeechServiceConnection_ProxyHostName | 1100 | O nome do host do servidor proxy usado para se conectar ao serviço de Fala. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Use SetProxy(String, Int32, String, String). Adicionado em 1.1.0 |
SpeechServiceConnection_ProxyPassword | 1103 | A senha do servidor proxy usado para se conectar ao serviço de Fala. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Use SetProxy(String, Int32, String, String). Adicionado em 1.1.0 |
SpeechServiceConnection_ProxyPort | 1101 | A porta do servidor proxy usada para se conectar ao serviço de Fala. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Use SetProxy(String, Int32, String, String). Adicionado em 1.1.0 |
SpeechServiceConnection_ProxyUserName | 1102 | O nome de usuário do servidor proxy usado para se conectar ao serviço de Fala. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Use SetProxy(String, Int32, String, String). Adicionado em 1.1.0 |
SpeechServiceConnection_RecoBackend | 3004 | A cadeia de caracteres para especificar o back-end a ser usado para reconhecimento de fala; as opções permitidas estão online e offline. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, a opção offline só é válida quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0 |
SpeechServiceConnection_RecoLanguage | 3001 | O idioma falado a ser reconhecido (no formato BCP-47). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechRecognitionLanguage. |
SpeechServiceConnection_RecoMode | 3000 | O modo de reconhecimento do serviço de Fala. Pode ser INTERATIVO, CONVERSATION, DICTATION. Esta propriedade é somente para leitura. O SDK o usa internamente. |
SpeechServiceConnection_RecoModelKey | 3006 | A chave de descriptografia do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0 |
SpeechServiceConnection_RecoModelName | 3005 | O nome do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0 |
SpeechServiceConnection_Region | 1002 | A região do serviço de Fala associada à chave de assinatura. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use FromSubscription(String, String), FromEndpoint(Uri, String), FromEndpoint(Uri), FromHost(Uri, String), , FromHost(Uri), FromAuthorizationToken(String, String). |
SpeechServiceConnection_SynthBackend | 3110 | A cadeia de caracteres para especificar o back-end do TTS; as opções válidas estão online e offline. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Use FromPath(String) ou FromPaths(String[]). para definir o back-end de síntese como offline. Adicionado na versão 1.19.0 |
SpeechServiceConnection_SynthEnableCompressedAudioTransmission | 3103 | Indica se o formato de áudio compactado deve ser usado para transmissão de áudio de síntese de fala. Essa propriedade só importa quando SpeechServiceConnection_SynthOutputFormat é definido como um formato pcm. Se essa propriedade não estiver definida como true e o GStreamer estiver disponível, o SDK usará o formato compactado para transmissão de áudio sintetizada e a decodificará. Você pode definir essa propriedade como false para usar o formato pcm bruto para transmissão por fio. Adicionado em 1.16.0 |
SpeechServiceConnection_SynthLanguage | 3100 | A linguagem falada a ser sintetizada (por exemplo, en-US). Adicionado em 1.4.0 |
SpeechServiceConnection_SynthModelKey | 3114 | A chave de descriptografia do modelo a ser usado para síntese de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SetSpeechSynthesisVoice(String, String). Adicionado na versão 1.19.0 |
SpeechServiceConnection_SynthOfflineDataPath | 3112 | Os caminhos do arquivo de dados para o mecanismo de síntese offline; válido somente quando o back-end de síntese está offline. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Use FromPath(String) ou FromPaths(String[]). Adicionado na versão 1.19.0 |
SpeechServiceConnection_SynthOfflineVoice | 3113 | O nome da voz TTS offline a ser usada para síntese de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SetSpeechSynthesisVoice(String, String). Adicionado na versão 1.19.0 |
SpeechServiceConnection_SynthOutputFormat | 3102 | A cadeia de caracteres para especificar o formato de áudio de saída de síntese de fala (por exemplo, riff-16khz-16bit-mono-pcm) Adicionada em 1.4.0 |
SpeechServiceConnection_SynthVoice | 3101 | O nome da voz a ser usada para conversão de texto em fala. Adicionado em 1.4.0 |
SpeechServiceConnection_TranslationFeatures | 2002 | Recursos de tradução. Para uso interno. |
SpeechServiceConnection_TranslationToLanguages | 2000 | A lista de idiomas separados por vírgulas (no formato BCP-47) usada como idiomas de tradução de destino. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use AddTargetLanguage(String) e a coleção somente TargetLanguages leitura. |
SpeechServiceConnection_TranslationVoice | 2001 | O nome da voz usada para conversão de texto em fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Use VoiceName. Encontre nomes de voz válidos aqui. |
SpeechServiceConnection_Url | 1104 | A cadeia de caracteres de URL criada a partir da configuração de fala. Esta propriedade é somente para leitura. O SDK usa esse valor internamente. Adicionado em 1.5.0 |
SpeechServiceConnection_VoicesListEndpoint | 3130 | O ponto de extremidade da API (URL) da lista de vozes do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não precisa especificar essa propriedade, o SDK a construirá com base na região/host/ponto de extremidade de SpeechConfig. Adicionado em 1.16.0 |
SpeechServiceResponse_JsonErrorDetails | 5001 | Os detalhes do erro do serviço de Fala (no formato JSON). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Use ErrorDetails. |
SpeechServiceResponse_JsonResult | 5000 | A saída de resposta do serviço de Fala (no formato JSON). Essa propriedade está disponível apenas em objetos de resultado de reconhecimento. |
SpeechServiceResponse_OutputFormatOption | 4006 | Um valor de cadeia de caracteres que especifica a opção de formato de saída no resultado da resposta. Somente para uso interno. Adicionado em 1.5.0 |
SpeechServiceResponse_PostProcessingOption | 4003 | Um valor de cadeia de caracteres que especifica qual opção pós-processamento deve ser usada pelo serviço. Valor permitido: TrueText. Adicionado em 1.5.0 |
SpeechServiceResponse_ProfanityOption | 4002 | A configuração de profanidade de saída de resposta do serviço de Fala solicitada. Os valores permitidos são mascarados, removidos e brutos. Adicionado em 1.5.0 |
SpeechServiceResponse_RecognitionBackend | 5003 | O back-end de reconhecimento. Somente leitura, disponível nos resultados do reconhecimento de fala. Isso indica se o reconhecimento de nuvem (online) ou inserido (offline) foi usado para produzir o resultado. |
SpeechServiceResponse_RecognitionLatencyMs | 5002 | A latência de reconhecimento em milissegundos. Somente leitura, disponível nos resultados finais de fala/tradução/intenção. Isso mede a latência entre quando uma entrada de áudio é recebida pelo SDK e o momento em que o resultado final é recebido do serviço. O SDK calcula a diferença de tempo entre o último fragmento de áudio da entrada de áudio que está contribuindo para o resultado final e a hora em que o resultado final é recebido do serviço de fala. Adicionado em 1.3.0 |
SpeechServiceResponse_RequestDetailedResultTrueFalse | 4000 | O formato de saída de resposta do serviço de Fala solicitado (OutputFormat.Simple ou OutputFormat.Detailed). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use OutputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse | 4001 | Não utilizado. O nível de profanidade de saída de resposta do serviço de Fala solicitado. |
SpeechServiceResponse_RequestPunctuationBoundary | 4201 | Um valor booliano que especifica se o limite de pontuação deve ser solicitado em Eventos wordboundary. O padrão é true. Adicionado na versão 1.21.0. |
SpeechServiceResponse_RequestSentenceBoundary | 4202 | Um valor booliano que especifica se o limite de frase deve ser solicitado em Eventos wordboundary. O padrão é false. Adicionado na versão 1.21.0. |
SpeechServiceResponse_RequestSnr | 4007 | Um valor booliano que especifica se o SNR (taxa de sinal para ruído) deve ser incluído no resultado da resposta. Adicionado na versão 1.18.0 |
SpeechServiceResponse_RequestWordBoundary | 4200 | Um valor booliano que especifica se os eventos WordBoundary devem ser solicitados. Adicionado na versão 1.21.0. |
SpeechServiceResponse_RequestWordLevelTimestamps | 4004 | Um valor booliano que especifica se os carimbos de data/hora no nível da palavra devem ser incluídos no resultado da resposta. Adicionado em 1.5.0 |
SpeechServiceResponse_StablePartialResultThreshold | 4005 | O número de vezes que uma palavra precisa estar em resultados parciais a serem retornados. Adicionado em 1.5.0 |
SpeechServiceResponse_SynthesisBackend | 5020 | Indica por qual back-end a síntese foi concluída. Somente leitura, disponível nos resultados da síntese de fala, exceto pelo resultado no evento SynthesisStarted. Adicionado na versão 1.19.0. |
SpeechServiceResponse_SynthesisConnectionLatencyMs | 5013 | A latência de conexão de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada para ser processada e o momento em que a conexão HTTP/WebSocket é estabelecida. Adicionado na versão 1.26.0. |
SpeechServiceResponse_SynthesisEventsSyncToAudio | 4210 | Um valor booliano que especifica se o SDK deve sincronizar eventos de metadados de síntese(por exemplo, limite de palavras, visema etc.) com a reprodução de áudio. Isso só entra em vigor quando o áudio é reproduzido por meio do SDK. O padrão é true. Se definido como false, o SDK disparará os eventos conforme eles forem provenientes do serviço, o que pode estar fora de sincronia com a reprodução de áudio. Adicionado na versão 1.31.0. |
SpeechServiceResponse_SynthesisFinishLatencyMs | 5011 | A sintetização de fala sintetiza a latência de todos os bytes em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada para ser processada e o momento em que todo o áudio é sintetizado. Adicionado na versão 1.17.0. |
SpeechServiceResponse_SynthesisFirstByteLatencyMs | 5010 | A sintetização de fala primeiro latência de bytes em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada para ser processada e o momento em que o primeiro áudio de byte está disponível. Adicionado na versão 1.17.0. |
SpeechServiceResponse_SynthesisNetworkLatencyMs | 5014 | A latência de rede de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede o tempo de ida e volta da rede. Adicionado na versão 1.26.0. |
SpeechServiceResponse_SynthesisServiceLatencyMs | 5015 | A latência do serviço de sintetização de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede o tempo de processamento do serviço para sintetizar o primeiro byte de áudio. Adicionado na versão 1.26.0. |
SpeechServiceResponse_SynthesisUnderrunTimeMs | 5012 | O tempo de execução inferior para a síntese de fala em milissegundos. Somente leitura, disponível nos resultados em eventos SynthesisCompleted. Isso mede o tempo total de subexecutar de AudioConfig_PlaybackBufferLengthInMs é preenchido para a síntese concluída. Adicionado na versão 1.17.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult | 4100 | Um valor booliano a ser solicitado para estabilizar os resultados parciais da tradução omitindo palavras no final. Adicionado em 1.5.0 |
SpeechTranslation_ModelKey | 13101 | A chave de descriptografia de um modelo a ser usado para tradução de fala. Não use essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. |
SpeechTranslation_ModelName | 13100 | O nome de um modelo a ser usado para tradução de fala. Não use essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. |
Aplica-se a
Azure SDK for .NET