PropertyId enum

Define los identificadores de propiedad de voz.

Campos

SpeechServiceConnection_Key = 0

Clave de suscripción de Speech Service de Cognitive Services. Si usa un reconocedor de intenciones, debe especificar la clave de punto de conexión de LUIS para la aplicación de LUIS concreta. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.fromSubscription.

SpeechServiceConnection_Endpoint = 1

Punto de conexión de Speech Service (url) de Cognitive Services. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.fromEndpoint. NOTA: Este punto de conexión no es el mismo que el que se usa para obtener un token de acceso.

SpeechServiceConnection_Region = 2

La región de Speech Service de Cognitive Services. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.fromSubscription, SpeechConfig.fromEndpoint, SpeechConfig.fromAuthorizationToken.

SpeechServiceAuthorization_Token = 3

Token de autorización de Cognitive Services Speech Service (también conocido como token de acceso). En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.fromAuthorizationToken, SpeechRecognizer.authorizationToken, IntentRecognizer.authorizationToken, TranslationRecognizer.authorizationToken, SpeakerRecognizer.authorizationToken.

SpeechServiceAuthorization_Type = 4

El tipo de autorización de Speech Service de Cognitive Services. Actualmente no se usa.

SpeechServiceConnection_EndpointId = 5

Identificador del punto de conexión de Speech Service de Cognitive Services. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.endpointId. NOTA: El identificador de punto de conexión está disponible en el Portal de voz, que aparece en Detalles del punto de conexión.

SpeechServiceConnection_TranslationToLanguages = 6

Lista de idiomas separados por comas (formato BCP-47) usados como idiomas de traducción de destino. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SpeechTranslationConfig.addTargetLanguage, SpeechTranslationConfig.targetLanguages, TranslationRecognizer.targetLanguages.

SpeechServiceConnection_TranslationVoice = 7

Nombre de Cognitive Service Text to Speech Service Voice. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SpeechTranslationConfig.voiceName. NOTA: Los nombres de voz válidos se pueden encontrar aquí.

SpeechServiceConnection_TranslationFeatures = 8

Características de traducción.

SpeechServiceConnection_IntentRegion = 9

Región del servicio Language Understanding. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use LanguageUnderstandingModel.

SpeechServiceConnection_ProxyHostName = 10

Nombre de host del servidor proxy que se usa para conectarse al servicio Voz de Cognitive Services. Solo es relevante en entornos de Node.js. No debe tener que usar esta propiedad directamente. En su lugar, use . Se agregó en la versión 1.4.0.

SpeechServiceConnection_ProxyPort = 11

Puerto del servidor proxy que se usa para conectarse al servicio Voz de Cognitive Services. Solo es relevante en entornos de Node.js. No debe tener que usar esta propiedad directamente. En su lugar, use . Se agregó en la versión 1.4.0.

SpeechServiceConnection_ProxyUserName = 12

Nombre de usuario del servidor proxy que se usa para conectarse al servicio Voz de Cognitive Services. Solo es relevante en entornos de Node.js. No debe tener que usar esta propiedad directamente. En su lugar, use . Se agregó en la versión 1.4.0.

SpeechServiceConnection_ProxyPassword = 13

Contraseña del servidor proxy que se usa para conectarse al servicio Voz de Cognitive Services. Solo es relevante en entornos de Node.js. No debe tener que usar esta propiedad directamente. En su lugar, use . Se agregó en la versión 1.4.0.

SpeechServiceConnection_RecoMode = 14

El modo de reconocimiento del servicio Voz de Cognitive Services. Puede ser "INTERACTIVE", "CONVERSATION", "DICTATION". Esta propiedad está pensada para ser de solo lectura. El SDK lo usa internamente.

SpeechServiceConnection_RecoLanguage = 15

Idioma hablado que se va a reconocer (en formato BCP-47). En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.speechRecognitionLanguage.

Speech_SessionId = 16

Identificador de sesión. Este identificador es un identificador único universal (también conocido como UUID) que representa un enlace específico de una secuencia de entrada de audio y la instancia de reconocimiento de voz subyacente a la que está enlazado. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SessionEventArgs.sessionId.

SpeechServiceConnection_SynthLanguage = 17

Idioma hablado que se va a sintetizar (por ejemplo, en-US)

SpeechServiceConnection_SynthVoice = 18

Nombre de la voz de TTS que se va a usar para la síntesis de voz.

SpeechServiceConnection_SynthOutputFormat = 19

Cadena que se va a especificar el formato de audio de salida de TTS

SpeechServiceConnection_AutoDetectSourceLanguages = 20

Lista de idiomas separados por comas usados como posibles idiomas de origen agregados en la versión 1.13.0

SpeechServiceResponse_RequestDetailedResultTrueFalse = 21

Formato de salida de respuesta solicitado de Cognitive Services Speech Service (simple o detallado). En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.outputFormat.

SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22

El nivel de palabra soece de respuesta solicitado de Cognitive Services Speech Service. Actualmente no se usa.

SpeechServiceResponse_JsonResult = 23

Salida de respuesta de Speech Service de Cognitive Services (en formato JSON). Esta propiedad solo está disponible en objetos de resultado de reconocimiento.

SpeechServiceResponse_JsonErrorDetails = 24

Detalles del error de Cognitive Services Speech Service (en formato JSON). En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use CancellationDetails.errorDetails.

CancellationDetails_Reason = 25

Motivo de cancelación. Actualmente no se usa.

CancellationDetails_ReasonText = 26

Texto de cancelación. Actualmente no se usa.

CancellationDetails_ReasonDetailedText = 27

Texto detallado de cancelación. Actualmente no se usa.

LanguageUnderstandingServiceResponse_JsonResult = 28

Salida de respuesta del servicio Language Understanding (en formato JSON). Disponible a través de IntentRecognitionResult

SpeechServiceConnection_Url = 29

Cadena de dirección URL creada a partir de la configuración de voz. Esta propiedad está pensada para ser de solo lectura. El SDK lo usa internamente. NOTA: Se ha agregado en la versión 1.7.0.

SpeechServiceConnection_InitialSilenceTimeoutMs = 30

Valor de tiempo de espera de silencio inicial (en milisegundos) usado por el servicio. Se agregó en la versión 1.7.0

SpeechServiceConnection_EndSilenceTimeoutMs = 31

Valor de tiempo de espera de silencio final (en milisegundos) usado por el servicio. Se agregó en la versión 1.7.0

Speech_SegmentationSilenceTimeoutMs = 32

Duración del silencio detectado, medido en milisegundos, después de lo cual la conversión de voz en texto determinará que una frase hablada ha finalizado y generará un resultado reconocido final. La configuración de este tiempo de espera puede ser útil en situaciones en las que la entrada hablada sea significativamente más rápida o más lenta que el comportamiento de segmentación predeterminado y habitual produce resultados que son demasiado largos o demasiado cortos. Los valores de tiempo de espera de segmentación que son inadecuadomente altos o bajos pueden afectar negativamente a la precisión de la conversión de voz en texto; esta propiedad debe configurarse cuidadosamente y el comportamiento resultante debe validarse exhaustivamente según lo previsto.

Para obtener más información sobre la configuración de tiempo de espera que incluye la explicación de los comportamientos predeterminados, visite https://aka.ms/csspeech/timeouts.

Se agregó en la versión 1.21.0.

SpeechServiceConnection_EnableAudioLogging = 33

Valor booleano que especifica si el registro de audio está habilitado en el servicio o no. Los registros de audio y contenido se almacenan en el almacenamiento propiedad de Microsoft o en su propia cuenta de almacenamiento vinculada a su suscripción de Cognitive Services (Bring Your Own Storage (BYOS) habilitado para el recurso de voz. Los registros se quitarán después de 30 días. Se agregó en la versión 1.7.0

SpeechServiceConnection_LanguageIdMode = 34

Modo de identificador de idioma de conexión del servicio voz. Puede ser "AtStart" (valor predeterminado) o "Continuous". Consulte el documento https://aka.ms/speech/lid?pivots=programming-language-javascript de identificación del idioma para obtener más detalles. Agregado en la versión 1.25.0

SpeechServiceConnection_RecognitionEndpointVersion = 35

Valor de cadena que representa la versión de punto de conexión deseada que se va a seleccionar como destino para el reconocimiento de voz. Se agregó en la versión 1.21.0

SpeechServiceConnection_SpeakerIdMode = 36

/**

  • Valor de cadena del escenario o modo de reconocimiento del hablante actual (TextIndependentIdentification, etc.).
  • Se agregó en la versión 1.23.0
SpeechServiceResponse_ProfanityOption = 37

Configuración de soeces de salida de respuesta de Cognitive Services Speech Service solicitada. Los valores permitidos son "masked", "removed" y "raw". Se agregó en la versión 1.7.0.

SpeechServiceResponse_PostProcessingOption = 38

Valor de cadena que especifica qué opción de procesamiento posterior debe usar el servicio. Los valores permitidos son "TrueText". Se agregó en la versión 1.7.0

SpeechServiceResponse_RequestWordLevelTimestamps = 39

Valor booleano que especifica si se deben incluir marcas de tiempo de nivel de palabra en el resultado de la respuesta. Se agregó en la versión 1.7.0

SpeechServiceResponse_StablePartialResultThreshold = 40

El número de veces que una palabra tiene que estar en resultados parciales que se van a devolver. Se agregó en la versión 1.7.0

SpeechServiceResponse_OutputFormatOption = 41

Valor de cadena que especifica la opción de formato de salida en el resultado de la respuesta. Solo para uso interno. Se agregó en la versión 1.7.0.

SpeechServiceResponse_TranslationRequestStablePartialResult = 42

Valor booleano para solicitar la estabilización de resultados parciales de traducción omitiendo palabras al final. Se agregó en la versión 1.7.0.

SpeechServiceResponse_RequestWordBoundary = 43

Valor booleano que especifica si se van a solicitar eventos de WordBoundary.

SpeechServiceResponse_RequestPunctuationBoundary = 44

Valor booleano que especifica si se va a solicitar el límite de puntuación en eventos de WordBoundary. El valor predeterminado es true.

SpeechServiceResponse_RequestSentenceBoundary = 45

Valor booleano que especifica si se va a solicitar el límite de oración en eventos de WordBoundary. El valor predeterminado es False.

Conversation_ApplicationId = 46

Identificador que se usa para conectarse al servicio back-end.

Conversation_DialogType = 47

Tipo de back-end de diálogo al que conectarse.

Conversation_Initial_Silence_Timeout = 48

Tiempo de espera de silencio para escuchar

Conversation_From_Id = 49

De Id. para agregar a las actividades de reconocimiento de voz.

Conversation_Conversation_Id = 50

ConversationId para la sesión.

Conversation_Custom_Voice_Deployment_Ids = 51

Lista separada por comas de identificadores de implementación de voz personalizados.

Conversation_Speech_Activity_Template = 52

Plantilla de actividad de voz, marca las propiedades de la plantilla en la actividad generada por el servicio para voz.

Conversation_Request_Bot_Status_Messages = 53

Habilita o deshabilita la recepción de mensajes de estado de turno como se obtiene en el evento turnStatusReceived.

Conversation_Agent_Connection_Id = 54

Especifica el identificador de conexión que se va a proporcionar en el mensaje de configuración del agente, por ejemplo, un token de Direct Line para la autenticación de canal. Se agregó en la versión 1.15.1.

SpeechServiceConnection_Host = 55

Host (url) de Cognitive Services Speech Service. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SpeechConfig.fromHost.

ConversationTranslator_Host = 56

Establezca el host para las llamadas de servicio a las llamadas REST de Conversation Translator y websocket.

ConversationTranslator_Name = 57

Opcionalmente, establezca el nombre para mostrar del host. Se usa al unirse a una conversación.

ConversationTranslator_CorrelationId = 58

Opcionalmente, establezca un valor para el encabezado de solicitud X-CorrelationId. Se usa para solucionar errores en los registros del servidor. Debe ser un guid válido.

ConversationTranslator_Token = 59

Establezca el token de conversación que se enviará al servicio de voz. Esto permite que el servicio llame desde el servicio de voz al servicio Conversation Translator para retransmitir reconocimientos. Para uso interno.

PronunciationAssessment_ReferenceText = 60

Texto de referencia del audio para la evaluación de pronunciación. Para ello y los siguientes parámetros de evaluación de pronunciación, consulte https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters para obtener más información. En circunstancias normales, no debe tener que usar esta propiedad directamente. Se agregó en la versión 1.15.0

PronunciationAssessment_GradingSystem = 61

Sistema de puntos para calibrar la puntuación de pronunciación (FivePoint o HundredMark). En circunstancias normales, no debe tener que usar esta propiedad directamente. Se agregó en la versión 1.15.0

PronunciationAssessment_Granularity = 62

Granularidad de evaluación de pronunciación (Phoneme, Word o FullText). En circunstancias normales, no debe tener que usar esta propiedad directamente. Se agregó en la versión 1.15.0

PronunciationAssessment_EnableMiscue = 63

Define si se habilita el cálculo de error de error. Con esta opción habilitada, las palabras pronunciadas se comparan con el texto de referencia y se marcan con omisión/inserción en función de la comparación. El valor de configuración predeterminado es False. En circunstancias normales, no debe tener que usar esta propiedad directamente. Se agregó en la versión 1.15.0

PronunciationAssessment_Json = 64

Cadena json de parámetros de evaluación de pronunciación En circunstancias normales, no debe tener que usar esta propiedad directamente. Se agregó en la versión 1.15.0

PronunciationAssessment_Params = 65

Parámetros de evaluación de pronunciación. Esta propiedad está pensada para ser de solo lectura. El SDK lo usa internamente. Se agregó en la versión 1.15.0

SpeakerRecognition_Api_Version = 66

Versión de Speaker Recognition API que se va a usar. Se agregó en la versión 1.18.0

WebWorkerLoadType = 67

Especifica si se permite la carga de la dirección URL de datos para el trabajo web Los valores permitidos son "off" y "on". El valor predeterminado es "on". Se agregó en la versión 1.32.0

TalkingAvatarService_WebRTC_SDP = 68

Protocolo de descripción de sesión webRTC del servicio de avatar de conversación. Esta propiedad está pensada para ser de solo lectura. El SDK lo usa internamente. Se agregó en la versión 1.33.0.