PropertyId enum
Define ids de propriedade de fala.
Campos
SpeechServiceConnection_Key = 0 | A Chave de assinatura do Serviço de Fala dos Serviços Cognitivos. Se você estiver usando um reconhecedor de intenção, precisará especificar a chave de ponto de extremidade luis para seu aplicativo LUIS específico. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromSubscription. |
SpeechServiceConnection_Endpoint = 1 | O ponto de extremidade do Serviço de Fala dos Serviços Cognitivos de Fala (URL). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromEndpoint. OBSERVAÇÃO: esse ponto de extremidade não é o mesmo que o ponto de extremidade usado para obter um token de acesso. |
SpeechServiceConnection_Region = 2 | A região do Serviço de Fala dos Serviços Cognitivos de Fala. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromSubscription, SpeechConfig.fromEndpoint, SpeechConfig.fromAuthorizationToken. |
SpeechServiceAuthorization_Token = 3 | O token de autorização do Serviço de Fala dos Serviços Cognitivos (também conhecido como token de acesso). Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromAuthorizationToken, SpeechRecognizer.authorizationToken, IntentRecognizer.authorizationToken, TranslationRecognizer.authorizationToken, SpeakerRecognizer.authorizationToken. |
SpeechServiceAuthorization_Type = 4 | O tipo de autorização do Serviço de Fala dos Serviços Cognitivos de Fala. Atualmente não utilizado. |
SpeechServiceConnection_EndpointId = 5 | A ID do ponto de extremidade do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechConfig.endpointId. OBSERVAÇÃO: a ID do ponto de extremidade está disponível no Portal de Fala, listado em Detalhes do Ponto de Extremidade. |
SpeechServiceConnection_TranslationToLanguages = 6 | A lista de idiomas separados por vírgulas (formato BCP-47) usados como idiomas de tradução de destino. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig.addTargetLanguage, SpeechTranslationConfig.targetLanguages, TranslationRecognizer.targetLanguages. |
SpeechServiceConnection_TranslationVoice = 7 | O nome da Voz do Serviço Cognitivo de Texto em Fala. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use SpeechTranslationConfig.voiceName. OBSERVAÇÃO: nomes de voz válidos podem ser encontrados aqui. |
SpeechServiceConnection_TranslationFeatures = 8 | Recursos de tradução. |
SpeechServiceConnection_IntentRegion = 9 | A região do serviço Reconhecimento vocal. Em circunstâncias normais, você não deve precisar usar essa propriedade diretamente. Em vez disso, use LanguageUnderstandingModel. |
SpeechServiceConnection_ProxyHostName = 10 | O nome do host do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Relevante apenas em ambientes Node.js. Você não deve precisar usar essa propriedade diretamente. Use . Adicionado na versão 1.4.0. |
SpeechServiceConnection_ProxyPort = 11 | A porta do servidor proxy usada para se conectar ao Serviço de Fala dos Serviços Cognitivos. Relevante apenas em ambientes Node.js. Você não deve precisar usar essa propriedade diretamente. Use . Adicionado na versão 1.4.0. |
SpeechServiceConnection_ProxyUserName = 12 | O nome de usuário do servidor proxy usado para se conectar ao Serviço de Fala dos Serviços Cognitivos. Relevante apenas em ambientes de Node.js. Você não deve precisar usar essa propriedade diretamente. Use . Adicionado na versão 1.4.0. |
SpeechServiceConnection_ProxyPassword = 13 | A senha do servidor proxy usada para se conectar ao Serviço de Fala dos Serviços Cognitivos. Relevante apenas em ambientes de Node.js. Você não deve precisar usar essa propriedade diretamente. Use . Adicionado na versão 1.4.0. |
SpeechServiceConnection_RecoMode = 14 | O Modo de reconhecimento do Serviço de Fala dos Serviços Cognitivos. Pode ser "INTERATIVO", "CONVERSA", "DITADO". Essa propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. |
SpeechServiceConnection_RecoLanguage = 15 | O idioma falado a ser reconhecido (no formato BCP-47). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig.speechRecognitionLanguage. |
Speech_SessionId = 16 | A ID da sessão. Essa id é um identificador universalmente exclusivo (também conhecido como UUID) que representa uma associação específica de um fluxo de entrada de áudio e a instância de reconhecimento de fala subjacente à qual ela está associada. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SessionEventArgs.sessionId. |
SpeechServiceConnection_SynthLanguage = 17 | A linguagem falada a ser sintetizada (por exemplo, en-US) |
SpeechServiceConnection_SynthVoice = 18 | O nome da voz TTS a ser usada para síntese de fala |
SpeechServiceConnection_SynthOutputFormat = 19 | A cadeia de caracteres para especificar o formato de áudio de saída TTS |
SpeechServiceConnection_AutoDetectSourceLanguages = 20 | A lista de idiomas separados por vírgulas usados como possíveis idiomas de origem adicionados na versão 1.13.0 |
SpeechServiceResponse_RequestDetailedResultTrueFalse = 21 | O formato de saída de resposta do Serviço de Fala dos Serviços Cognitivos solicitado (simples ou detalhado). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig.outputFormat. |
SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22 | O nível de profanidade de saída da saída do Serviço de Fala dos Serviços Cognitivos solicitado. Atualmente não utilizado. |
SpeechServiceResponse_JsonResult = 23 | A saída de resposta do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Essa propriedade está disponível apenas em objetos de resultado de reconhecimento. |
SpeechServiceResponse_JsonErrorDetails = 24 | Os detalhes de erro do Serviço de Fala dos Serviços Cognitivos (no formato JSON). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use CancellationDetails.errorDetails. |
CancellationDetails_Reason = 25 | O motivo do cancelamento. Atualmente não utilizado. |
CancellationDetails_ReasonText = 26 | O texto de cancelamento. Atualmente não utilizado. |
CancellationDetails_ReasonDetailedText = 27 | O texto detalhado cancelamento. Atualmente não utilizado. |
LanguageUnderstandingServiceResponse_JsonResult = 28 | A saída de resposta do Serviço de Reconhecimento vocal (no formato JSON). Disponível por meio de IntentRecognitionResult |
SpeechServiceConnection_Url = 29 | A cadeia de caracteres de URL criada a partir da configuração de fala. Essa propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. OBSERVAÇÃO: adicionado na versão 1.7.0. |
SpeechServiceConnection_InitialSilenceTimeoutMs = 30 | O valor de tempo limite de silêncio inicial (em milissegundos) usado pelo serviço. Adicionado na versão 1.7.0 |
SpeechServiceConnection_EndSilenceTimeoutMs = 31 | O valor de tempo limite de silêncio final (em milissegundos) usado pelo serviço. Adicionado na versão 1.7.0 |
Speech_SegmentationSilenceTimeoutMs = 32 | Uma duração do silêncio detectado, medida em milissegundos, após a qual a conversão de fala em texto determinará que uma frase falada foi encerrada e gerará um resultado reconhecido final. A configuração desse tempo limite pode ser útil em situações em que a entrada falada é significativamente mais rápida ou mais lenta do que o normal e o comportamento de segmentação padrão produz consistentemente resultados muito longos ou muito curtos. Os valores de tempo limite de segmentação inadequadamente altos ou baixos podem afetar negativamente a precisão da fala em texto; essa propriedade deve ser cuidadosamente configurada e o comportamento resultante deve ser validado minuciosamente conforme o esperado. Para obter mais informações sobre a configuração de tempo limite que inclui discussão sobre comportamentos padrão, visite https://aka.ms/csspeech/timeouts. Adicionado na versão 1.21.0. |
SpeechServiceConnection_EnableAudioLogging = 33 | Um valor booliano que especifica se o log de áudio está habilitado no serviço ou não. Os logs de áudio e conteúdo são armazenados no armazenamento de propriedade da Microsoft ou em sua própria conta de armazenamento vinculada à sua assinatura dos Serviços Cognitivos (recurso de Fala habilitado para BYOS (Bring Your Own Storage). Os logs serão removidos após 30 dias. Adicionado na versão 1.7.0 |
SpeechServiceConnection_LanguageIdMode = 34 | O modo de identificador de linguagem de conexão do serviço de fala. Pode ser "AtStart" (o padrão) ou "Contínuo". Consulte Documento de Identificação https://aka.ms/speech/lid?pivots=programming-language-javascript de Idioma para obter mais detalhes. Adicionado em 1.25.0 |
SpeechServiceConnection_RecognitionEndpointVersion = 35 | Um valor de cadeia de caracteres que representa a versão desejada do ponto de extremidade a ser direcionada para o Reconhecimento de Fala. Adicionado na versão 1.21.0 |
SpeechServiceConnection_SpeakerIdMode = 36 | /**
|
SpeechServiceResponse_ProfanityOption = 37 | A configuração de profanidade de saída de saída do Serviço de Fala dos Serviços Cognitivos solicitada. Os valores permitidos são "mascarados", "removidos" e "brutos". Adicionado na versão 1.7.0. |
SpeechServiceResponse_PostProcessingOption = 38 | Um valor de cadeia de caracteres que especifica qual opção pós-processamento deve ser usada pelo serviço. Os valores permitidos são "TrueText". Adicionado na versão 1.7.0 |
SpeechServiceResponse_RequestWordLevelTimestamps = 39 | Um valor booliano que especifica se os carimbos de data/hora no nível da palavra devem ser incluídos no resultado da resposta. Adicionado na versão 1.7.0 |
SpeechServiceResponse_StablePartialResultThreshold = 40 | O número de vezes que uma palavra precisa estar em resultados parciais a serem retornados. Adicionado na versão 1.7.0 |
SpeechServiceResponse_OutputFormatOption = 41 | Um valor de cadeia de caracteres que especifica a opção de formato de saída no resultado da resposta. Somente para uso interno. Adicionado na versão 1.7.0. |
SpeechServiceResponse_TranslationRequestStablePartialResult = 42 | Um valor booliano a ser solicitado para estabilizar os resultados parciais da tradução omitindo palavras no final. Adicionado na versão 1.7.0. |
SpeechServiceResponse_RequestWordBoundary = 43 | Um valor booliano que especifica se os eventos WordBoundary devem ser solicitados. |
SpeechServiceResponse_RequestPunctuationBoundary = 44 | Um valor booliano que especifica se o limite de pontuação deve ser solicitado em Eventos wordboundary. O padrão é true. |
SpeechServiceResponse_RequestSentenceBoundary = 45 | Um valor booliano que especifica se o limite de frase deve ser solicitado em Eventos wordboundary. O padrão é false. |
Conversation_ApplicationId = 46 | Identificador usado para se conectar ao serviço de back-end. |
Conversation_DialogType = 47 | Tipo de back-end de caixa de diálogo ao qual se conectar. |
Conversation_Initial_Silence_Timeout = 48 | Tempo limite de silêncio para ouvir |
Conversation_From_Id = 49 | Da ID para adicionar às atividades de reconhecimento de fala. |
Conversation_Conversation_Id = 50 | ConversationId para a sessão. |
Conversation_Custom_Voice_Deployment_Ids = 51 | Lista separada por vírgulas de IDs de implantação de voz personalizada. |
Conversation_Speech_Activity_Template = 52 | Modelo de atividade de fala, propriedades de carimbo do modelo na atividade gerada pelo serviço de fala. |
Conversation_Request_Bot_Status_Messages = 53 | Habilita ou desabilita o recebimento de mensagens de turno status conforme obtido no evento turnStatusReceived. |
Conversation_Agent_Connection_Id = 54 | Especifica a ID de conexão a ser fornecida na mensagem de configuração do Agente, por exemplo, um token de Direct Line para autenticação de canal. Adicionado na versão 1.15.1. |
SpeechServiceConnection_Host = 55 | O host (URL) do Serviço de Fala dos Serviços Cognitivos. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Em vez disso, use SpeechConfig.fromHost. |
ConversationTranslator_Host = 56 | Defina o host para chamadas de serviço para o gerenciamento REST do Tradutor de Conversas e chamadas websocket. |
ConversationTranslator_Name = 57 | Opcionalmente, defina o nome de exibição do host. Usado ao ingressar em uma conversa. |
ConversationTranslator_CorrelationId = 58 | Opcionalmente, defina um valor para o cabeçalho de solicitação X-CorrelationId. Usado para solucionar erros nos logs do servidor. Deve ser um guid válido. |
ConversationTranslator_Token = 59 | Defina o token de conversa a ser enviado para o serviço de fala. Isso permite que o serviço para a chamada de serviço do serviço de fala para o serviço tradutor de conversa para retransmissão de reconhecimentos. Para uso interno. |
PronunciationAssessment_ReferenceText = 60 | O texto de referência do áudio para avaliação de pronúncia. Para este e os seguintes parâmetros de avaliação de pronúncia, consulte https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters para obter detalhes. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Adicionado na versão 1.15.0 |
PronunciationAssessment_GradingSystem = 61 | O sistema de pontos para calibragem de pontuação de pronúncia (FivePoint ou HundredMark). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Adicionado na versão 1.15.0 |
PronunciationAssessment_Granularity = 62 | A granularidade de avaliação de pronúncia (Phoneme, Word ou FullText). Em circunstâncias normais, você não deve usar essa propriedade diretamente. Adicionado na versão 1.15.0 |
PronunciationAssessment_EnableMiscue = 63 | Define se habilitar o cálculo de erro. Com ele habilitado, as palavras pronunciadas serão comparadas ao texto de referência e serão marcadas com omissão/inserção com base na comparação. A configuração padrão é Falso. Em circunstâncias normais, você não deve usar essa propriedade diretamente. Adicionado na versão 1.15.0 |
PronunciationAssessment_Json = 64 | A cadeia de caracteres json dos parâmetros de avaliação de pronúncia Em circunstâncias normais, você não deve usar essa propriedade diretamente. Adicionado na versão 1.15.0 |
PronunciationAssessment_Params = 65 | Parâmetros de avaliação de pronúncia. Essa propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. Adicionado na versão 1.15.0 |
SpeakerRecognition_Api_Version = 66 | Versão da API de Reconhecimento do Locutor a ser usada. Adicionado na versão 1.18.0 |
WebWorkerLoadType = 67 | Especifica se a carga de URL de dados para o trabalho Web Os valores permitidos estão "desativados" e "ativados". O padrão é "ativado". Adicionado na versão 1.32.0 |
TalkingAvatarService_WebRTC_SDP = 68 | Protocolo de descrição da sessão WebRTC do serviço de avatar falante. Essa propriedade destina-se a ser somente leitura. O SDK está usando-o internamente. Adicionado na versão 1.33.0 |