Compartilhar via


PropertyId Enumeração

Definição

Lista as IDs de propriedade de fala.

public enum PropertyId
type PropertyId = 
Public Enum PropertyId
Herança
PropertyId

Campos

AudioConfig_DeviceNameForRender 8005

O nome do dispositivo para renderização de áudio. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use FromSpeakerOutput(String). Adicionado na versão 1.17.0

AudioConfig_PlaybackBufferLengthInMs 8006

O comprimento do buffer de reprodução em milissegundos, o padrão é de 50 milissegundos. Adicionado na versão 1.17.0

CancellationDetails_Reason 6000

Não utilizado. O motivo do cancelamento.

CancellationDetails_ReasonDetailedText 6002

Não utilizado. O texto detalhado do cancelamento.

CancellationDetails_ReasonText 6001

Não utilizado. O texto de cancelamento.

Conversation_ApplicationId 10000

Identificador usado para se conectar ao serviço de back-end. Adicionado em 1.5.0

Conversation_Connection_Id 10009

Informações adicionais de identificação, como um token Direct Line, usado para autenticar com o serviço de back-end. Adicionado em 1.16.0

Conversation_Conversation_Id 10004

ConversationId para a sessão. Adicionado em 1.8.0

Conversation_Custom_Voice_Deployment_Ids 10005

Lista separada por vírgulas de IDs de implantação de voz personalizada. Adicionado em 1.8.0

Conversation_DialogType 10001

Tipo de back-end de caixa de diálogo ao qual se conectar. Adicionado em 1.7.0

Conversation_From_Id 10003

O do identificador a ser adicionado às atividades de reconhecimento de fala. Adicionado em 1.5.0

Conversation_Initial_Silence_Timeout 10002

Tempo limite do silêncio para ouvir. Adicionado em 1.5.0

Conversation_ParticipantId 10007

Obtém o identificador na conversa. Adicionado em 1.13.0

Conversation_Request_Bot_Status_Messages 10008

Um valor booliano que especifica se o cliente deve ou não receber mensagens de status e gerar eventos TurnStatusReceived correspondentes. O padrão é verdadeiro. Adicionado em 1.15.0

Conversation_Speech_Activity_Template 10006

Modelo de atividade de fala, propriedades de carimbo do modelo na atividade gerada pelo serviço de fala. Consulte SpeechActivityTemplate Adicionado em 1.10.0

ConversationTranscribingService_DataBufferTimeStamp 11001

O carimbo de data/hora associado ao buffer de dados gravado pelo cliente ao usar fluxos de modo de áudio pull/push. O carimbo de data/hora é um valor de 64 bits com uma resolução de 90 kHz. O mesmo que o carimbo de data/hora da apresentação em um fluxo de transporte MPEG. Consulte https://en.wikipedia.org/wiki/Presentation_timestamp. Adicionado em 1.5.0

ConversationTranscribingService_DataBufferUserId 11002

O identificador de usuário associado ao buffer de dados gravado pelo cliente ao usar fluxos de modo de áudio pull/push. Adicionado em 1.5.0

LanguageUnderstandingServiceResponse_JsonResult 7000

A saída de resposta do Serviço de Reconhecimento vocal (no formato JSON). Disponível por meio de Properties.

PronunciationAssessment_EnableMiscue 12005

Indica o estado de cálculo incorreto. Quando habilitada, as palavras pronunciadas serão comparadas ao texto de referência e serão marcadas com omissão/inserção com base na comparação. A configuração padrão é false. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Adicionado em 1.14.0

PronunciationAssessment_GradingSystem 12002

O sistema de pontos para calibragem de pontuação de pronúncia (FivePoint ou HundredMark). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Adicionado em 1.14.0

PronunciationAssessment_Granularity 12003

A granularidade de avaliação de pronúncia (Phoneme, Word ou FullText). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Adicionado em 1.14.0

PronunciationAssessment_Json 12009

A cadeia de caracteres JSON dos parâmetros de avaliação de pronúncia. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Adicionado em 1.14.0

PronunciationAssessment_NBestPhonemeCount 12007

A avaliação de pronúncia nbest phoneme count. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use NBestPhonemeCount. Adicionado na versão 1.20.0

PronunciationAssessment_Params 12010

Parâmetros de avaliação de pronúncia. Esta propriedade é somente para leitura. Adicionado em 1.14.0

PronunciationAssessment_PhonemeAlphabet 12006

O alfabeto phoneme de avaliação de pronúncia. Os valores válidos são "SAPI" (padrão) e "IPA" Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use PhonemeAlphabet. Adicionado na versão 1.20.0

PronunciationAssessment_ReferenceText 12001

O texto de referência do áudio para avaliação de pronúncia. Para este e os seguintes parâmetros de avaliação de pronúncia, consulte Parâmetros de avaliação de pronúncia para obter detalhes. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Adicionado em 1.14.0

SpeakerRecognition_Api_Version 13001

Versão da API de reconhecimento do locutor. Adicionado em 1.18.0

Speech_LogFilename 9001

O nome do arquivo para gravar logs. Adicionado em 1.4.0

Speech_SegmentationSilenceTimeoutMs 9002

Uma duração do silêncio detectado, medida em milissegundos, após a qual a conversão de fala em texto determinará que uma frase falada terminou e gerará um resultado reconhecido final. Configurar esse tempo limite pode ser útil em situações em que a entrada falada é significativamente mais rápida ou mais lenta do que o normal e o comportamento de segmentação padrão produz consistentemente resultados muito longos ou muito curtos. Os valores de tempo limite de segmentação inadequadamente altos ou baixos podem afetar negativamente a precisão da conversão de fala em texto; essa propriedade deve ser cuidadosamente configurada e o comportamento resultante deve ser validado minuciosamente conforme o esperado.

Para obter mais informações sobre a configuração de tempo limite que inclui discussão sobre comportamentos padrão, visite https://aka.ms/csspeech/timeouts.

Speech_SessionId 3002

A ID da sessão. Essa id é um identificador universalmente exclusivo (também conhecido como UUID) que representa uma associação específica de um fluxo de entrada de áudio e a instância de reconhecimento de fala subjacente à qual ela está associada. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Use SessionId.

SpeechServiceAuthorization_Token 1003

O token de autorização do serviço de Fala (também conhecido como token de acesso). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use FromAuthorizationToken(String, String), AuthorizationToken, AuthorizationToken, AuthorizationToken.

SpeechServiceAuthorization_Type 1004

Não utilizado. O tipo de autorização do serviço de Fala.

SpeechServiceConnection_AutoDetectSourceLanguageResult 3301

O resultado da detecção automática do idioma de origem. Adicionado em 1.9.0

SpeechServiceConnection_AutoDetectSourceLanguages 3300

Os idiomas de origem de detecção automática. Adicionado em 1.9.0

SpeechServiceConnection_EnableAudioLogging 3202

Um valor booliano que especifica se o log de áudio está habilitado no serviço ou não. Os logs de áudio e conteúdo são armazenados no armazenamento de propriedade da Microsoft ou em sua própria conta de armazenamento vinculada à sua assinatura dos Serviços Cognitivos (recurso de Fala habilitado para BYOS (Bring Your Own Storage). Adicionado em 1.5.0.

SpeechServiceConnection_Endpoint 1001

O ponto de extremidade do serviço de Fala, uma URL. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use FromEndpoint(Uri, String)ou FromEndpoint(Uri). OBSERVAÇÃO: esse ponto de extremidade não é o mesmo que o ponto de extremidade usado para obter um token de acesso.

SpeechServiceConnection_EndpointId 1005

A ID do ponto de extremidade de Fala Personalizada ou serviço de voz personalizado. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use FromEndpoint(Uri, String)ou FromEndpoint(Uri). OBSERVAÇÃO: a ID do ponto de extremidade está disponível no Portal de Fala Personalizada, listado em Detalhes do Ponto de Extremidade.

SpeechServiceConnection_EndSilenceTimeoutMs 3201

O valor de tempo limite do silêncio final (em milissegundos) usado pelo serviço. Adicionado em 1.5.0

SpeechServiceConnection_Host 1006

O host do serviço de Fala (URL). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use FromHost(Uri, String)ou FromHost(Uri).

SpeechServiceConnection_InitialSilenceTimeoutMs 3200

O valor de tempo limite de silêncio inicial (em milissegundos) usado pelo serviço. Adicionado em 1.5.0

SpeechServiceConnection_IntentRegion 2003

A região do serviço Reconhecimento vocal. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Use LanguageUnderstandingModel.

SpeechServiceConnection_Key 1000

A chave de assinatura usada com pontos de extremidade de serviço de Fala. Se você estiver usando um reconhecedor de intenção, precisará especificar a chave de ponto de extremidade luis para seu aplicativo LUIS específico. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use FromSubscription(String, String).

SpeechServiceConnection_LanguageIdMode 3205

O modo de identificador de linguagem de conexão do serviço de fala. Pode ser "AtStart" (o padrão) ou "Contínuo". Confira o documento De identificação de idioma . Adicionado em 1.25.0

SpeechServiceConnection_ProxyHostName 1100

O nome do host do servidor proxy usado para se conectar ao serviço de Fala. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Use SetProxy(String, Int32, String, String). Adicionado em 1.1.0

SpeechServiceConnection_ProxyPassword 1103

A senha do servidor proxy usado para se conectar ao serviço de Fala. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Use SetProxy(String, Int32, String, String). Adicionado em 1.1.0

SpeechServiceConnection_ProxyPort 1101

A porta do servidor proxy usada para se conectar ao serviço de Fala. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Use SetProxy(String, Int32, String, String). Adicionado em 1.1.0

SpeechServiceConnection_ProxyUserName 1102

O nome de usuário do servidor proxy usado para se conectar ao serviço de Fala. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Use SetProxy(String, Int32, String, String). Adicionado em 1.1.0

SpeechServiceConnection_RecoBackend 3004

A cadeia de caracteres para especificar o back-end a ser usado para reconhecimento de fala; as opções permitidas estão online e offline. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, a opção offline só é válida quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0

SpeechServiceConnection_RecoLanguage 3001

O idioma falado a ser reconhecido (no formato BCP-47). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechRecognitionLanguage.

SpeechServiceConnection_RecoMode 3000

O modo de reconhecimento do serviço de Fala. Pode ser INTERATIVO, CONVERSATION, DICTATION. Esta propriedade é somente para leitura. O SDK o usa internamente.

SpeechServiceConnection_RecoModelKey 3006

A chave de descriptografia do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0

SpeechServiceConnection_RecoModelName 3005

O nome do modelo a ser usado para reconhecimento de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado. Adicionado na versão 1.19.0

SpeechServiceConnection_Region 1002

A região do serviço de Fala associada à chave de assinatura. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use FromSubscription(String, String), FromEndpoint(Uri, String), FromEndpoint(Uri), FromHost(Uri, String), , FromHost(Uri), FromAuthorizationToken(String, String).

SpeechServiceConnection_SynthBackend 3110

A cadeia de caracteres para especificar o back-end do TTS; as opções válidas estão online e offline. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Use FromPath(String) ou FromPaths(String[]). para definir o back-end de síntese como offline. Adicionado na versão 1.19.0

SpeechServiceConnection_SynthEnableCompressedAudioTransmission 3103

Indica se o formato de áudio compactado deve ser usado para transmissão de áudio de síntese de fala. Essa propriedade só importa quando SpeechServiceConnection_SynthOutputFormat é definido como um formato pcm. Se essa propriedade não estiver definida como true e o GStreamer estiver disponível, o SDK usará o formato compactado para transmissão de áudio sintetizada e a decodificará. Você pode definir essa propriedade como false para usar o formato pcm bruto para transmissão por fio. Adicionado em 1.16.0

SpeechServiceConnection_SynthLanguage 3100

A linguagem falada a ser sintetizada (por exemplo, en-US). Adicionado em 1.4.0

SpeechServiceConnection_SynthModelKey 3114

A chave de descriptografia do modelo a ser usado para síntese de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SetSpeechSynthesisVoice(String, String). Adicionado na versão 1.19.0

SpeechServiceConnection_SynthOfflineDataPath 3112

Os caminhos do arquivo de dados para o mecanismo de síntese offline; válido somente quando o back-end de síntese está offline. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Use FromPath(String) ou FromPaths(String[]). Adicionado na versão 1.19.0

SpeechServiceConnection_SynthOfflineVoice 3113

O nome da voz TTS offline a ser usada para síntese de fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SetSpeechSynthesisVoice(String, String). Adicionado na versão 1.19.0

SpeechServiceConnection_SynthOutputFormat 3102

A cadeia de caracteres para especificar o formato de áudio de saída de síntese de fala (por exemplo, riff-16khz-16bit-mono-pcm) Adicionada em 1.4.0

SpeechServiceConnection_SynthVoice 3101

O nome da voz a ser usada para conversão de texto em fala. Adicionado em 1.4.0

SpeechServiceConnection_TranslationFeatures 2002

Recursos de tradução. Para uso interno.

SpeechServiceConnection_TranslationToLanguages 2000

A lista de idiomas separados por vírgulas (no formato BCP-47) usada como idiomas de tradução de destino. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use AddTargetLanguage(String) e a coleção somente TargetLanguages leitura.

SpeechServiceConnection_TranslationVoice 2001

O nome da voz usada para conversão de texto em fala. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Use VoiceName. Encontre nomes de voz válidos aqui.

SpeechServiceConnection_Url 1104

A cadeia de caracteres de URL criada a partir da configuração de fala. Esta propriedade é somente para leitura. O SDK usa esse valor internamente. Adicionado em 1.5.0

SpeechServiceConnection_VoicesListEndpoint 3130

O ponto de extremidade da API (URL) da lista de vozes do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não precisa especificar essa propriedade, o SDK a construirá com base na região/host/ponto de extremidade de SpeechConfig. Adicionado em 1.16.0

SpeechServiceResponse_JsonErrorDetails 5001

Os detalhes do erro do serviço de Fala (no formato JSON). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Use ErrorDetails.

SpeechServiceResponse_JsonResult 5000

A saída de resposta do serviço de Fala (no formato JSON). Essa propriedade está disponível apenas em objetos de resultado de reconhecimento.

SpeechServiceResponse_OutputFormatOption 4006

Um valor de cadeia de caracteres que especifica a opção de formato de saída no resultado da resposta. Somente para uso interno. Adicionado em 1.5.0

SpeechServiceResponse_PostProcessingOption 4003

Um valor de cadeia de caracteres que especifica qual opção pós-processamento deve ser usada pelo serviço. Valor permitido: TrueText. Adicionado em 1.5.0

SpeechServiceResponse_ProfanityOption 4002

A configuração de profanidade de saída de resposta do serviço de Fala solicitada. Os valores permitidos são mascarados, removidos e brutos. Adicionado em 1.5.0

SpeechServiceResponse_RecognitionBackend 5003

O back-end de reconhecimento. Somente leitura, disponível nos resultados do reconhecimento de fala. Isso indica se o reconhecimento de nuvem (online) ou inserido (offline) foi usado para produzir o resultado.

SpeechServiceResponse_RecognitionLatencyMs 5002

A latência de reconhecimento em milissegundos. Somente leitura, disponível nos resultados finais de fala/tradução/intenção. Isso mede a latência entre quando uma entrada de áudio é recebida pelo SDK e o momento em que o resultado final é recebido do serviço. O SDK calcula a diferença de tempo entre o último fragmento de áudio da entrada de áudio que está contribuindo para o resultado final e a hora em que o resultado final é recebido do serviço de fala. Adicionado em 1.3.0

SpeechServiceResponse_RequestDetailedResultTrueFalse 4000

O formato de saída de resposta do serviço de Fala solicitado (OutputFormat.Simple ou OutputFormat.Detailed). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use OutputFormat.

SpeechServiceResponse_RequestProfanityFilterTrueFalse 4001

Não utilizado. O nível de profanidade de saída de resposta do serviço de Fala solicitado.

SpeechServiceResponse_RequestPunctuationBoundary 4201

Um valor booliano que especifica se o limite de pontuação deve ser solicitado em Eventos wordboundary. O padrão é true. Adicionado na versão 1.21.0.

SpeechServiceResponse_RequestSentenceBoundary 4202

Um valor booliano que especifica se o limite de frase deve ser solicitado em Eventos wordboundary. O padrão é false. Adicionado na versão 1.21.0.

SpeechServiceResponse_RequestSnr 4007

Um valor booliano que especifica se o SNR (taxa de sinal para ruído) deve ser incluído no resultado da resposta. Adicionado na versão 1.18.0

SpeechServiceResponse_RequestWordBoundary 4200

Um valor booliano que especifica se os eventos WordBoundary devem ser solicitados. Adicionado na versão 1.21.0.

SpeechServiceResponse_RequestWordLevelTimestamps 4004

Um valor booliano que especifica se os carimbos de data/hora no nível da palavra devem ser incluídos no resultado da resposta. Adicionado em 1.5.0

SpeechServiceResponse_StablePartialResultThreshold 4005

O número de vezes que uma palavra precisa estar em resultados parciais a serem retornados. Adicionado em 1.5.0

SpeechServiceResponse_SynthesisBackend 5020

Indica por qual back-end a síntese foi concluída. Somente leitura, disponível nos resultados da síntese de fala, exceto pelo resultado no evento SynthesisStarted. Adicionado na versão 1.19.0.

SpeechServiceResponse_SynthesisConnectionLatencyMs 5013

A latência de conexão de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada para ser processada e o momento em que a conexão HTTP/WebSocket é estabelecida. Adicionado na versão 1.26.0.

SpeechServiceResponse_SynthesisEventsSyncToAudio 4210

Um valor booliano que especifica se o SDK deve sincronizar eventos de metadados de síntese(por exemplo, limite de palavras, visema etc.) com a reprodução de áudio. Isso só entra em vigor quando o áudio é reproduzido por meio do SDK. O padrão é true. Se definido como false, o SDK disparará os eventos conforme eles forem provenientes do serviço, o que pode estar fora de sincronia com a reprodução de áudio. Adicionado na versão 1.31.0.

SpeechServiceResponse_SynthesisFinishLatencyMs 5011

A sintetização de fala sintetiza a latência de todos os bytes em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada para ser processada e o momento em que todo o áudio é sintetizado. Adicionado na versão 1.17.0.

SpeechServiceResponse_SynthesisFirstByteLatencyMs 5010

A sintetização de fala primeiro latência de bytes em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede a latência entre quando a síntese é iniciada para ser processada e o momento em que o primeiro áudio de byte está disponível. Adicionado na versão 1.17.0.

SpeechServiceResponse_SynthesisNetworkLatencyMs 5014

A latência de rede de síntese de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede o tempo de ida e volta da rede. Adicionado na versão 1.26.0.

SpeechServiceResponse_SynthesisServiceLatencyMs 5015

A latência do serviço de sintetização de fala em milissegundos. Somente leitura, disponível nos resultados finais da síntese de fala. Isso mede o tempo de processamento do serviço para sintetizar o primeiro byte de áudio. Adicionado na versão 1.26.0.

SpeechServiceResponse_SynthesisUnderrunTimeMs 5012

O tempo de execução inferior para a síntese de fala em milissegundos. Somente leitura, disponível nos resultados em eventos SynthesisCompleted. Isso mede o tempo total de subexecutar de AudioConfig_PlaybackBufferLengthInMs é preenchido para a síntese concluída. Adicionado na versão 1.17.0.

SpeechServiceResponse_TranslationRequestStablePartialResult 4100

Um valor booliano a ser solicitado para estabilizar os resultados parciais da tradução omitindo palavras no final. Adicionado em 1.5.0

SpeechTranslation_ModelKey 13101

A chave de descriptografia de um modelo a ser usado para tradução de fala. Não use essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado.

SpeechTranslation_ModelName 13100

O nome de um modelo a ser usado para tradução de fala. Não use essa propriedade diretamente. Atualmente, isso só é válido quando EmbeddedSpeechConfig é usado.

Aplica-se a