Compartir a través de


microsoft-cognitiveservices-speech-sdk package

Clases

ActivityReceivedEventArgs

Define el contenido de los eventos o mensajes recibidos.

AudioConfig

Representa la configuración de entrada de audio que se usa para especificar qué tipo de entrada se va a usar (micrófono, archivo, secuencia).

AudioInputStream

Representa el flujo de entrada de audio usado para configuraciones de entrada de audio personalizadas.

AudioOutputStream

Representa la secuencia de salida de audio usada para configuraciones de salida de audio personalizadas.

AudioStreamFormat

Representa el formato de secuencia de audio usado para configuraciones de entrada de audio personalizadas.

AutoDetectSourceLanguageConfig

Configuración de detección automática del idioma.

AutoDetectSourceLanguageResult

Formato de salida

AvatarConfig

Define la configuración del avatar de conversación.

AvatarEventArgs

Define el contenido para los eventos de avatar de conversación.

AvatarSynthesizer

Define el sintetizador de avatar.

AvatarVideoFormat

Define el formato de vídeo de salida del avatar.

AvatarWebRTCConnectionResult

Define el resultado de la conexión WebRTC del avatar.

BaseAudioPlayer

Clase TODO del reproductor de audio base: reproduce solo PCM por ahora.

BotFrameworkConfig

Clase que define configuraciones para el objeto de conector de servicio de diálogo para usar un back-end de Bot Framework.

CancellationDetails

Contiene información detallada sobre por qué se canceló un resultado.

CancellationDetailsBase

Contiene información detallada sobre por qué se canceló un resultado.

Connection

Connection es una clase de proxy para administrar la conexión al servicio de voz del reconocedor especificado. De forma predeterminada, un reconocedor administra de forma autónoma la conexión al servicio cuando sea necesario. La clase Connection proporciona métodos adicionales para que los usuarios abran o cierren explícitamente una conexión y se suscriba a los cambios de estado de conexión. El uso de Connection es opcional y principalmente para escenarios en los que se necesita un ajuste preciso del comportamiento de la aplicación en función del estado de conexión. Opcionalmente, los usuarios pueden llamar a Open() para configurar manualmente una conexión de antemano antes de iniciar el reconocimiento en el reconocedor asociado a esta conexión. Si Recognizer necesita conectarse o desconectarse al servicio, configurará o apagará la conexión de forma independiente. En este caso, el cambio de estado de la conexión se notificará a través de eventos conectados o desconectados. Se agregó en la versión 1.2.1.

ConnectionEventArgs

Define la carga de los eventos de conexión, como Connected/Disconnected. Agregado en la versión 1.2.0

ConnectionMessage

ConnectionMessage representa mensajes específicos de implementación enviados y recibidos del servicio de voz. Estos mensajes se proporcionan con fines de depuración y no deben usarse para casos de uso de producción con El servicio voz de Azure Cognitive Services. Los mensajes enviados y recibidos desde el servicio voz están sujetos a cambios sin previo aviso. Esto incluye el contenido del mensaje, los encabezados, las cargas, la ordenación, etc. Se agregó en la versión 1.11.0.

ConnectionMessageEventArgs
Conversation
ConversationExpirationEventArgs

Define contenido para eventos de sesión como SessionStarted/Stopped, SoundStarted/Stopped.

ConversationParticipantsChangedEventArgs

Define contenido para eventos de sesión como SessionStarted/Stopped, SoundStarted/Stopped.

ConversationTranscriber

Realiza el reconocimiento de voz con separación del hablante del micrófono, el archivo u otras secuencias de entrada de audio y obtiene texto transcrito como resultado.

ConversationTranscriptionCanceledEventArgs

Define el contenido de recognitionErrorEvent.

ConversationTranscriptionEventArgs

Define el contenido del evento transcribir o transcribir la conversación.

ConversationTranscriptionResult

Define el resultado de la transcripción de conversaciones.

ConversationTranslationCanceledEventArgs
ConversationTranslationEventArgs

Define la carga de eventos de sesión, como inicio y finalización de voz detectados.

ConversationTranslationResult

Resultado del texto de traducción.

ConversationTranslator

Únase, deje o conéctese a una conversación.

Coordinate

Define una coordenada en el espacio 2D.

CustomCommandsConfig

Clase que define configuraciones para el objeto de conector de servicio de diálogo para usar un back-end CustomCommands.

Diagnostics

Define la API de diagnóstico para administrar la salida de la consola agregada en la versión 1.21.0.

DialogServiceConfig

Clase que define configuraciones base para el conector del servicio de diálogo

DialogServiceConnector

Conector de servicio de cuadros de diálogo

IntentRecognitionCanceledEventArgs

Defina la carga de los eventos de resultado cancelados del reconocimiento de intenciones.

IntentRecognitionEventArgs

Argumentos de evento de resultado de reconocimiento de intenciones.

IntentRecognitionResult

Resultado del reconocimiento de intenciones.

IntentRecognizer

Reconocedor de intenciones.

KeywordRecognitionModel

Representa un modelo de reconocimiento de palabras clave para reconocer cuándo el usuario dice una palabra clave para iniciar el reconocimiento de voz adicional.

LanguageUnderstandingModel

Modelo de Language Understanding

Meeting
MeetingTranscriber
MeetingTranscriptionCanceledEventArgs

Define el contenido de un meetingTranscriptionCanceledEvent.

MeetingTranscriptionEventArgs

Define el contenido del evento transcribir o transcribir la reunión.

NoMatchDetails

Contiene información detallada sobre los resultados de reconocimiento de NoMatch.

Participant

Representa un participante en una conversación. Se agregó en la versión 1.4.0

PhraseListGrammar

Permite adiciones de frases nuevas para mejorar el reconocimiento de voz.

Las frases agregadas al reconocedor son efectivas al principio del siguiente reconocimiento o la próxima vez que SpeechSDK debe volver a conectarse al servicio de voz.

PronunciationAssessmentConfig

Configuración de evaluación de pronunciación.

PronunciationAssessmentResult

Resultados de la evaluación de pronunciación.

PropertyCollection

Representa la colección de propiedades y sus valores.

PullAudioInputStream

Representa el flujo de entrada de audio usado para configuraciones de entrada de audio personalizadas.

PullAudioInputStreamCallback

Clase base abstracta que define métodos de devolución de llamada (read() y close()) para secuencias de entrada de audio personalizadas).

PullAudioOutputStream

Representa la secuencia de salida de audio push respaldada por memoria utilizada para configuraciones de salida de audio personalizadas.

PushAudioInputStream

Representa la secuencia de entrada de audio de inserción respaldada por memoria que se usa para configuraciones de entrada de audio personalizadas.

PushAudioOutputStream

Representa la secuencia de salida de audio usada para configuraciones de salida de audio personalizadas.

PushAudioOutputStreamCallback

Clase base abstracta que define métodos de devolución de llamada (write() y close()) para secuencias de salida de audio personalizadas).

RecognitionEventArgs

Define la carga de eventos de sesión, como inicio y finalización de voz detectados.

RecognitionResult

Define el resultado del reconocimiento de voz.

Recognizer

Define la clase base Recognizer que contiene principalmente controladores de eventos comunes.

ServiceEventArgs

Define la carga de cualquier evento de mensaje de servicio agregado en la versión 1.9.0.

SessionEventArgs

Define contenido para eventos de sesión como SessionStarted/Stopped, SoundStarted/Stopped.

SourceLanguageConfig

Configuración del idioma de origen.

SpeakerAudioDestination

Representa el destino de audio de reproducción del altavoz, que solo funciona en el explorador. Nota: el SDK intentará usar extensiones de origen multimedia para reproducir audio. El formato Mp3 es mejor compatible con Microsoft Edge, Chrome y Safari (escritorio), por lo que es mejor especificar el formato mp3 para la reproducción.

SpeakerIdentificationModel

Define la clase SpeakerIdentificationModel para Speaker Recognition Model contiene un conjunto de perfiles en los que se identifican los hablantes.

SpeakerRecognitionCancellationDetails
SpeakerRecognitionResult

Formato de salida

SpeakerRecognizer

Define la clase SpeakerRecognizer para las operaciones speaker Recognition handles from user for Voice Profile operations (por ejemplo, createProfile, deleteProfile)

SpeakerVerificationModel

Define la clase SpeakerVerificationModel para speaker Recognition Model contiene un perfil con el que comprobar un hablante

SpeechConfig

Configuración de voz.

SpeechConfigImpl
SpeechRecognitionCanceledEventArgs
SpeechRecognitionEventArgs

Define el contenido del evento de reconocimiento o reconocimiento de voz.

SpeechRecognitionResult

Define el resultado del reconocimiento de voz.

SpeechRecognizer

Realiza el reconocimiento de voz desde micrófono, archivo u otras secuencias de entrada de audio y obtiene texto transcrito como resultado.

SpeechSynthesisBookmarkEventArgs

Define el contenido del evento de marcador de síntesis de voz.

SpeechSynthesisEventArgs

Define el contenido de los eventos de síntesis de voz.

SpeechSynthesisResult

Define el resultado de la síntesis de voz.

SpeechSynthesisVisemeEventArgs

Define el contenido del evento viseme de síntesis de voz.

SpeechSynthesisWordBoundaryEventArgs

Define el contenido del evento de límite de palabras de síntesis de voz.

SpeechSynthesizer

Define la clase SpeechSynthesizer para texto a voz. Actualizado en la versión 1.16.0

SpeechTranslationConfig

Configuración de traducción de voz.

SynthesisResult

Clase base para resultados de síntesis

SynthesisVoicesResult

Define el resultado de la síntesis de voz.

Synthesizer
TranslationRecognitionCanceledEventArgs

Defina la carga de eventos de resultados cancelados del reconocimiento de voz.

TranslationRecognitionEventArgs

Argumentos de evento de resultado de texto de traducción.

TranslationRecognitionResult

Resultado del texto de traducción.

TranslationRecognizer

Reconocedor de traducción

TranslationSynthesisEventArgs

Argumentos de evento De síntesis de traducción

TranslationSynthesisResult

Define el resultado de síntesis de traducción, es decir, la salida de voz del texto traducido en el idioma de destino.

Translations

Representa la colección de parámetros y sus valores.

TurnStatusReceivedEventArgs

Define el contenido de los eventos o mensajes recibidos.

User
VoiceInfo

Información sobre la voz de síntesis de voz agregada en la versión 1.20.0.

VoiceProfile

Define la clase de perfil de voz para Speaker Recognition.

VoiceProfileCancellationDetails
VoiceProfileClient

Define la clase VoiceProfileClient para speaker Recognition Controla las operaciones del usuario para las operaciones de perfil de voz (por ejemplo, createProfile, deleteProfile)

VoiceProfileEnrollmentCancellationDetails
VoiceProfileEnrollmentResult

Formato de salida

VoiceProfilePhraseResult

Formato de salida

VoiceProfileResult

Formato de salida

Interfaces

CancellationEventArgs
ConversationInfo
IParticipant

Representa un participante en una conversación. Se agregó en la versión 1.4.0

IPlayer

Representa la interfaz del reproductor de audio para controlar la reproducción de audio, como pausa, reanudación, etc.

IVoiceJson
MeetingInfo
VoiceSignature

Enumeraciones

AudioFormatTag
CancellationErrorCode

Define el código de error en caso de que CancellationReason sea Error. Se agregó en la versión 1.1.0.

CancellationReason

Define las posibles razones por las que se puede cancelar un resultado de reconocimiento.

LanguageIdMode

Modo de identificación de idioma

LogLevel
NoMatchReason

Define las posibles razones por las que podría no reconocerse un resultado de reconocimiento.

OutputFormat

Defina los formatos de salida de Speech Recognizer.

ParticipantChangedReason
ProfanityOption

Opción soece. Se agregó en la versión 1.7.0.

PronunciationAssessmentGradingSystem

Define el sistema de puntos para la calibración de la puntuación de pronunciación; el valor predeterminado es FivePoint. Agregado en la versión 1.15.0

PronunciationAssessmentGranularity

Define la granularidad de evaluación de pronunciación; el valor predeterminado es Phoneme. Agregado en la versión 1.15.0

PropertyId

Define los identificadores de propiedad de voz.

ResultReason

Define las posibles razones por las que se puede generar un resultado de reconocimiento.

ServicePropertyChannel

Define los canales usados para pasar la configuración de propiedad al servicio. Se agregó en la versión 1.7.0.

SpeakerRecognitionResultType
SpeechSynthesisBoundaryType

Define el tipo de límite del evento de límite de síntesis de voz.

SpeechSynthesisOutputFormat

Defina los formatos de salida de audio de síntesis de voz. SpeechSynthesisOutputFormat actualizado en la versión 1.17.0

VoiceProfileType

Formato de salida