Compartir a través de


PropertyId Enumeración

Definición

Enumera los identificadores de propiedad de voz.

public enum PropertyId
type PropertyId = 
Public Enum PropertyId
Herencia
PropertyId

Campos

AudioConfig_DeviceNameForRender 8005

Nombre del dispositivo para la representación de audio. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use FromSpeakerOutput(String). Agregado en la versión 1.17.0

AudioConfig_PlaybackBufferLengthInMs 8006

La longitud del búfer de reproducción en milisegundos, el valor predeterminado es de 50 milisegundos. Agregado en la versión 1.17.0

CancellationDetails_Reason 6000

Sin usar. Motivo de cancelación.

CancellationDetails_ReasonDetailedText 6002

Sin usar. Texto detallado de la cancelación.

CancellationDetails_ReasonText 6001

Sin usar. Texto de cancelación.

Conversation_ApplicationId 10000

Identificador usado para conectarse al servicio back-end. Agregado en la versión 1.5.0

Conversation_Connection_Id 10009

Información de identificación adicional, como un token de Direct Line, que se usa para autenticarse con el servicio back-end. Agregado en la versión 1.16.0

Conversation_Conversation_Id 10004

ConversationId para la sesión. Agregado en la versión 1.8.0

Conversation_Custom_Voice_Deployment_Ids 10005

Lista separada por comas de identificadores de implementación de voz personalizados. Agregado en la versión 1.8.0

Conversation_DialogType 10001

Tipo de back-end de diálogo al que conectarse. Agregado en la versión 1.7.0

Conversation_From_Id 10003

del identificador que se va a agregar a las actividades de reconocimiento de voz. Agregado en la versión 1.5.0

Conversation_Initial_Silence_Timeout 10002

Tiempo de espera de silencio para escuchar. Agregado en la versión 1.5.0

Conversation_ParticipantId 10007

Obtiene el identificador de la conversación. Agregado en la versión 1.13.0

Conversation_Request_Bot_Status_Messages 10008

Valor booleano que especifica si el cliente debe recibir o no mensajes de estado de turno y generar los eventos TurnStatusReceived correspondientes. El valor predeterminado es true. Agregado en la versión 1.15.0

Conversation_Speech_Activity_Template 10006

Plantilla de actividad de voz, propiedades de marca de la plantilla en la actividad generada por el servicio para voz. Consulte SpeechActivityTemplate Agregado en la versión 1.10.0.

ConversationTranscribingService_DataBufferTimeStamp 11001

Marca de tiempo asociada al búfer de datos escrito por el cliente al usar secuencias de modo de audio pull/Push. La marca de tiempo es un valor de 64 bits con una resolución de 90 kHz. Igual que la marca de tiempo de presentación en un flujo de transporte MPEG. Vea https://en.wikipedia.org/wiki/Presentation_timestamp. Agregado en la versión 1.5.0

ConversationTranscribingService_DataBufferUserId 11002

Identificador de usuario asociado al búfer de datos escrito por el cliente al usar secuencias de modo de audio pull/Push. Agregado en la versión 1.5.0

LanguageUnderstandingServiceResponse_JsonResult 7000

Salida de respuesta de Language Understanding Service (en formato JSON). Disponible a través de Properties.

PronunciationAssessment_EnableMiscue 12005

Indica un estado de cálculo incorrecto. Cuando se habilita, las palabras pronunciadas se compararán con el texto de referencia y se marcarán con omisión o inserción en función de la comparación. False es la configuración predeterminada. En circunstancias normales, no debe tener que usar esta propiedad directamente. Agregado en la versión 1.14.0

PronunciationAssessment_GradingSystem 12002

El sistema de puntos para la calibración de la puntuación de pronunciación (FivePoint o HundredMark). En circunstancias normales, no debe tener que usar esta propiedad directamente. Agregado en la versión 1.14.0

PronunciationAssessment_Granularity 12003

Granularidad de evaluación de pronunciación (Phoneme, Word o FullText). En circunstancias normales, no debe tener que usar esta propiedad directamente. Agregado en la versión 1.14.0

PronunciationAssessment_Json 12009

Cadena JSON de parámetros de evaluación de pronunciación. En circunstancias normales, no debe tener que usar esta propiedad directamente. Agregado en la versión 1.14.0

PronunciationAssessment_NBestPhonemeCount 12007

Recuento de fonemas nbest de evaluación de pronunciación. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use NBestPhonemeCount. Se agregó en la versión 1.20.0

PronunciationAssessment_Params 12010

Parámetros de evaluación de pronunciación. Esta propiedad es de solo lectura. Agregado en la versión 1.14.0

PronunciationAssessment_PhonemeAlphabet 12006

Alfabeto fonético de evaluación de pronunciación. Los valores válidos son "SAPI" (valor predeterminado) e "IPA" En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use PhonemeAlphabet. Se agregó en la versión 1.20.0

PronunciationAssessment_ReferenceText 12001

Texto de referencia del audio para la evaluación de pronunciación. Para ello y los siguientes parámetros de evaluación de pronunciación, consulte Parámetros de evaluación de pronunciación para obtener más información. En circunstancias normales, no debe tener que usar esta propiedad directamente. Agregado en la versión 1.14.0

SpeakerRecognition_Api_Version 13001

Versión de Speaker Recognition API. Agregado en la versión 1.18.0

Speech_LogFilename 9001

Nombre de archivo que se va a escribir registros. Agregado en la versión 1.4.0

Speech_SegmentationSilenceTimeoutMs 9002

Una duración del silencio detectado, medido en milisegundos, después de lo cual la conversión de voz en texto determinará una frase hablada ha finalizado y generará un resultado reconocido final. La configuración de este tiempo de espera puede ser útil en situaciones en las que la entrada hablada es significativamente más rápida o más lenta que el comportamiento de segmentación predeterminado y habitual produce resultados que son demasiado largos o demasiado cortos. Los valores de tiempo de espera de segmentación que son inadecuados o bajos pueden afectar negativamente a la precisión de la conversión de voz a texto; esta propiedad debe configurarse cuidadosamente y el comportamiento resultante debe validarse exhaustivamente según lo previsto.

Para obtener más información sobre la configuración de tiempo de espera que incluye la explicación de los comportamientos predeterminados, visite https://aka.ms/csspeech/timeouts.

Speech_SessionId 3002

Identificador de sesión. Este identificador es un identificador único universal (también conocido como UUID) que representa un enlace específico de una secuencia de entrada de audio y la instancia de reconocimiento de voz subyacente a la que está enlazado. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SessionId.

SpeechServiceAuthorization_Token 1003

Token de autorización del servicio voz (también conocido como token de acceso). En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use FromAuthorizationToken(String, String), AuthorizationToken, AuthorizationToken, . AuthorizationToken

SpeechServiceAuthorization_Type 1004

Sin usar. El tipo de autorización del servicio Voz.

SpeechServiceConnection_AutoDetectSourceLanguageResult 3301

Resultado de detección automática del idioma de origen. Agregado en la versión 1.9.0

SpeechServiceConnection_AutoDetectSourceLanguages 3300

Idiomas de origen de detección automática. Agregado en la versión 1.9.0

SpeechServiceConnection_EnableAudioLogging 3202

Valor booleano que especifica si el registro de audio está habilitado en el servicio o no. Los registros de audio y contenido se almacenan en el almacenamiento propiedad de Microsoft o en su propia cuenta de almacenamiento vinculada a la suscripción de Cognitive Services (Bring Your Own Storage [BYOS]) habilitado para el recurso de voz). Se agregó en la versión 1.5.0.

SpeechServiceConnection_Endpoint 1001

Punto de conexión de servicio de voz, una dirección URL. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use FromEndpoint(Uri, String)o FromEndpoint(Uri). NOTA: Este punto de conexión no es el mismo que el que se usa para obtener un token de acceso.

SpeechServiceConnection_EndpointId 1005

Identificador de punto de conexión de Custom Speech o Custom Voice Service. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use FromEndpoint(Uri, String)o FromEndpoint(Uri). NOTA: El identificador de punto de conexión está disponible en el Portal de Voz personalizada, que aparece en Detalles del punto de conexión.

SpeechServiceConnection_EndSilenceTimeoutMs 3201

Valor de tiempo de espera de silencio final (en milisegundos) utilizado por el servicio. Agregado en la versión 1.5.0

SpeechServiceConnection_Host 1006

Host del servicio voz (url). En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use FromHost(Uri, String)o FromHost(Uri).

SpeechServiceConnection_InitialSilenceTimeoutMs 3200

Valor de tiempo de espera de silencio inicial (en milisegundos) utilizado por el servicio. Agregado en la versión 1.5.0

SpeechServiceConnection_IntentRegion 2003

Región del servicio Language Understanding. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use LanguageUnderstandingModel.

SpeechServiceConnection_Key 1000

La clave de suscripción que se usa con los puntos de conexión de servicio de Voz. Si usa un reconocedor de intenciones, debe especificar la clave de punto de conexión de LUIS para la aplicación de LUIS determinada. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use FromSubscription(String, String).

SpeechServiceConnection_LanguageIdMode 3205

Modo de identificador de idioma de conexión del servicio de voz. Puede ser "AtStart" (valor predeterminado) o "Continuous". Consulte el documento de identificación de idioma . Agregado en la versión 1.25.0

SpeechServiceConnection_ProxyHostName 1100

Nombre de host del servidor proxy que se usa para conectarse al servicio voz. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SetProxy(String, Int32, String, String). Agregado en la versión 1.1.0

SpeechServiceConnection_ProxyPassword 1103

La contraseña del servidor proxy que se usa para conectarse al servicio de voz. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SetProxy(String, Int32, String, String). Agregado en la versión 1.1.0

SpeechServiceConnection_ProxyPort 1101

Puerto del servidor proxy que se usa para conectarse al servicio voz. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SetProxy(String, Int32, String, String). Agregado en la versión 1.1.0

SpeechServiceConnection_ProxyUserName 1102

Nombre de usuario del servidor proxy usado para conectarse al servicio voz. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SetProxy(String, Int32, String, String). Agregado en la versión 1.1.0

SpeechServiceConnection_RecoBackend 3004

Cadena que se va a especificar el back-end que se va a usar para el reconocimiento de voz; las opciones permitidas están en línea y sin conexión. En circunstancias normales, no debe usar esta propiedad directamente. Actualmente, la opción sin conexión solo es válida cuando se usa EmbeddedSpeechConfig. Agregado en la versión 1.19.0

SpeechServiceConnection_RecoLanguage 3001

Idioma hablado que se va a reconocer (en formato BCP-47). En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use SpeechRecognitionLanguage.

SpeechServiceConnection_RecoMode 3000

Modo de reconocimiento del servicio voz. Puede ser INTERACTIVO, CONVERSACIÓN, DICTADO. Esta propiedad es de solo lectura. El SDK lo usa internamente.

SpeechServiceConnection_RecoModelKey 3006

Clave de descifrado del modelo que se va a usar para el reconocimiento de voz. En circunstancias normales, no debe usar esta propiedad directamente. Actualmente, esto solo es válido cuando se usa EmbeddedSpeechConfig. Agregado en la versión 1.19.0

SpeechServiceConnection_RecoModelName 3005

Nombre del modelo que se va a usar para el reconocimiento de voz. En circunstancias normales, no debe usar esta propiedad directamente. Actualmente, esto solo es válido cuando se usa EmbeddedSpeechConfig. Agregado en la versión 1.19.0

SpeechServiceConnection_Region 1002

Región del servicio voz asociada a la clave de suscripción. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use FromSubscription(String, String), FromEndpoint(Uri, String)FromEndpoint(Uri), FromHost(Uri, String), , FromHost(Uri), . FromAuthorizationToken(String, String)

SpeechServiceConnection_SynthBackend 3110

Cadena que se va a especificar el back-end de TTS; las opciones válidas están en línea y sin conexión. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use FromPath(String) o FromPaths(String[]). para establecer el back-end de síntesis en sin conexión. Agregado en la versión 1.19.0

SpeechServiceConnection_SynthEnableCompressedAudioTransmission 3103

Indica si se debe usar el formato de audio comprimido para la transmisión de audio de síntesis de voz. Esta propiedad solo importa cuando SpeechServiceConnection_SynthOutputFormat se establece en un formato pcm. Si esta propiedad no está establecida en true y GStreamer está disponible, el SDK usará el formato comprimido para la transmisión de audio sintetizada y lo descodificará. Puede establecer esta propiedad en false para usar el formato pcm sin formato para la transmisión en cable. Agregado en la versión 1.16.0

SpeechServiceConnection_SynthLanguage 3100

Lenguaje hablado que se va a sintetizar (por ejemplo, en-US). Agregado en la versión 1.4.0

SpeechServiceConnection_SynthModelKey 3114

Clave de descifrado del modelo que se va a usar para la síntesis de voz. En circunstancias normales, no debe usar esta propiedad directamente. En su lugar, use SetSpeechSynthesisVoice(String, String). Agregado en la versión 1.19.0

SpeechServiceConnection_SynthOfflineDataPath 3112

Las rutas de acceso del archivo de datos para el motor de síntesis sin conexión; solo es válido cuando el back-end de síntesis está sin conexión. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use FromPath(String) o FromPaths(String[]). Agregado en la versión 1.19.0

SpeechServiceConnection_SynthOfflineVoice 3113

Nombre de la voz TTS sin conexión que se va a usar para la síntesis de voz. En circunstancias normales, no debe usar esta propiedad directamente. En su lugar, use SetSpeechSynthesisVoice(String, String). Agregado en la versión 1.19.0

SpeechServiceConnection_SynthOutputFormat 3102

Cadena para especificar el formato de audio de salida de síntesis de voz (por ejemplo, riff-16khz-16bit-mono-pcm) Agregado en 1.4.0

SpeechServiceConnection_SynthVoice 3101

Nombre de la voz que se va a usar para texto a voz. Agregado en la versión 1.4.0

SpeechServiceConnection_TranslationFeatures 2002

Características de traducción. Para uso interno.

SpeechServiceConnection_TranslationToLanguages 2000

Lista de idiomas separados por comas (en formato BCP-47) usados como idiomas de traducción de destino. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use AddTargetLanguage(String) y la colección de solo lectura TargetLanguages .

SpeechServiceConnection_TranslationVoice 2001

Nombre de la voz usada para Texto a voz. En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use VoiceName. Busque aquí nombres de voz válidos.

SpeechServiceConnection_Url 1104

Cadena de dirección URL creada a partir de la configuración de voz. Esta propiedad es de solo lectura. El SDK usa este valor internamente. Agregado en la versión 1.5.0

SpeechServiceConnection_VoicesListEndpoint 3130

Las voces de Speech Service de Cognitive Services enumeran el punto de conexión de API (url). En circunstancias normales, no es necesario especificar esta propiedad, el SDK lo construirá en función de la región, host o punto de conexión de SpeechConfig. Agregado en la versión 1.16.0

SpeechServiceResponse_JsonErrorDetails 5001

Detalles del error del servicio voz (en formato JSON). En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use ErrorDetails.

SpeechServiceResponse_JsonResult 5000

Salida de respuesta del servicio voz (en formato JSON). Esta propiedad solo está disponible en objetos de resultado de reconocimiento.

SpeechServiceResponse_OutputFormatOption 4006

Valor de cadena que especifica la opción de formato de salida en el resultado de la respuesta. Exclusivamente para uso interno. Agregado en la versión 1.5.0

SpeechServiceResponse_PostProcessingOption 4003

Valor de cadena que especifica qué opción de posprocesamiento debe usar el servicio. Valor permitido: TrueText. Agregado en la versión 1.5.0

SpeechServiceResponse_ProfanityOption 4002

La configuración de soeces de salida de respuesta del servicio voz solicitada. Los valores permitidos se enmascaran, quitan y sin procesar. Agregado en la versión 1.5.0

SpeechServiceResponse_RecognitionBackend 5003

Back-end de reconocimiento. Solo lectura, disponible en los resultados del reconocimiento de voz. Esto indica si se usó el reconocimiento en la nube (en línea) o incrustado (sin conexión) para generar el resultado.

SpeechServiceResponse_RecognitionLatencyMs 5002

Latencia de reconocimiento en milisegundos. Solo lectura, disponible en los resultados finales de voz, traducción y intención. Esto mide la latencia entre cuando el SDK recibe una entrada de audio y el momento en que se recibe el resultado final del servicio. El SDK calcula la diferencia de tiempo entre el último fragmento de audio de la entrada de audio que contribuye al resultado final y la hora en que se recibe el resultado final del servicio de voz. Agregado en la versión 1.3.0

SpeechServiceResponse_RequestDetailedResultTrueFalse 4000

Formato de salida de respuesta del servicio voz solicitado (OutputFormat.Simple o OutputFormat.Detailed). En circunstancias normales, no debe tener que usar esta propiedad directamente. En su lugar, use OutputFormat.

SpeechServiceResponse_RequestProfanityFilterTrueFalse 4001

Sin usar. Nivel de palabra soece de salida de respuesta del servicio voz solicitado.

SpeechServiceResponse_RequestPunctuationBoundary 4201

Valor booleano que especifica si se va a solicitar el límite de puntuación en eventos de WordBoundary. El valor predeterminado es true. Se agregó en la versión 1.21.0.

SpeechServiceResponse_RequestSentenceBoundary 4202

Valor booleano que especifica si se va a solicitar el límite de oraciones en eventos de WordBoundary. El valor predeterminado es False. Se agregó en la versión 1.21.0.

SpeechServiceResponse_RequestSnr 4007

Valor booleano que especifica si se debe incluir SNR (relación de señal a ruido) en el resultado de la respuesta. Agregado en la versión 1.18.0

SpeechServiceResponse_RequestWordBoundary 4200

Valor booleano que especifica si se van a solicitar eventos de WordBoundary. Se agregó en la versión 1.21.0.

SpeechServiceResponse_RequestWordLevelTimestamps 4004

Valor booleano que especifica si se deben incluir marcas de tiempo de nivel de palabra en el resultado de la respuesta. Agregado en la versión 1.5.0

SpeechServiceResponse_StablePartialResultThreshold 4005

El número de veces que una palabra debe estar en resultados parciales que se van a devolver. Agregado en la versión 1.5.0

SpeechServiceResponse_SynthesisBackend 5020

Indica el back-end por el que finaliza la síntesis. Solo lectura, disponible en los resultados de síntesis de voz, excepto el resultado en el evento SynthesisStarted. Se agregó en la versión 1.19.0.

SpeechServiceResponse_SynthesisConnectionLatencyMs 5013

Latencia de conexión de síntesis de voz en milisegundos. Solo lectura, disponible en los resultados finales de síntesis de voz. Esto mide la latencia entre el momento en que se inicia la síntesis y el momento en que se establece la conexión HTTP/WebSocket. Se agregó en la versión 1.26.0.

SpeechServiceResponse_SynthesisEventsSyncToAudio 4210

Valor booleano que especifica si el SDK debe sincronizar los eventos de metadatos de síntesis (por ejemplo, límite de palabras, visema, etc.) con la reproducción de audio. Esto solo surte efecto cuando el audio se reproduce a través del SDK. El valor predeterminado es true. Si se establece en false, el SDK activará los eventos a medida que procedan del servicio, lo que puede estar fuera de sincronización con la reproducción de audio. Se agregó en la versión 1.31.0.

SpeechServiceResponse_SynthesisFinishLatencyMs 5011

La síntesis de voz en todos los bytes en milisegundos. Solo lectura, disponible en los resultados finales de síntesis de voz. Esto mide la latencia entre el momento en que se inicia la síntesis y el momento en que se sintetiza todo el audio. Se agregó en la versión 1.17.0.

SpeechServiceResponse_SynthesisFirstByteLatencyMs 5010

La síntesis de voz de la primera latencia de bytes en milisegundos. Solo lectura, disponible en los resultados finales de síntesis de voz. Esto mide la latencia entre cuando se inicia la síntesis para procesarse y el momento en que está disponible el primer audio de bytes. Se agregó en la versión 1.17.0.

SpeechServiceResponse_SynthesisNetworkLatencyMs 5014

Latencia de red de síntesis de voz en milisegundos. Solo lectura, disponible en los resultados finales de síntesis de voz. Esto mide el tiempo de ida y vuelta de red. Se agregó en la versión 1.26.0.

SpeechServiceResponse_SynthesisServiceLatencyMs 5015

Latencia del servicio de síntesis de voz en milisegundos. Solo lectura, disponible en los resultados finales de síntesis de voz. Esto mide el tiempo de procesamiento del servicio para sintetizar el primer byte de audio. Se agregó en la versión 1.26.0.

SpeechServiceResponse_SynthesisUnderrunTimeMs 5012

Tiempo de inejecución para la síntesis de voz en milisegundos. Solo lectura, disponible en los resultados de los eventos SynthesisCompleted. Esto mide el tiempo total de ejecución desde AudioConfig_PlaybackBufferLengthInMs que se rellena hasta que se completa la síntesis. Se agregó en la versión 1.17.0.

SpeechServiceResponse_TranslationRequestStablePartialResult 4100

Valor booleano que se va a solicitar para estabilizar los resultados parciales de traducción omitiendo palabras al final. Agregado en la versión 1.5.0

SpeechTranslation_ModelKey 13101

Clave de descifrado de un modelo que se va a usar para la traducción de voz. No utilice esta propiedad directamente. Actualmente, esto solo es válido cuando se usa EmbeddedSpeechConfig.

SpeechTranslation_ModelName 13100

Nombre de un modelo que se va a usar para la traducción de voz. No utilice esta propiedad directamente. Actualmente, esto solo es válido cuando se usa EmbeddedSpeechConfig.

Se aplica a