microsoft-cognitiveservices-speech-sdk package

Classes

ActivityReceivedEventArgs

Define o conteúdo de mensagens/eventos recebidos.

AudioConfig

Representa a configuração de entrada de áudio usada para especificar que tipo de entrada usar (microfone, arquivo, fluxo).

AudioInputStream

Representa o fluxo de entrada de áudio usado para configurações de entrada de áudio personalizadas.

AudioOutputStream

Representa o fluxo de saída de áudio usado para configurações de saída de áudio personalizadas.

AudioStreamFormat

Representa o formato de fluxo de áudio usado para configurações de entrada de áudio personalizadas.

AutoDetectSourceLanguageConfig

Configuração de detecção automática de linguagem.

AutoDetectSourceLanguageResult

Formato da saída

AvatarConfig

Define a configuração de avatar falante.

AvatarEventArgs

Define o conteúdo para eventos de avatar de fala.

AvatarSynthesizer

Define o sintetizador de avatar.

AvatarVideoFormat

Define o formato de vídeo de saída do avatar.

AvatarWebRTCConnectionResult

Define o resultado da conexão WebRTC do avatar.

BaseAudioPlayer

Classe de player de áudio base TODO: reproduz apenas o PCM por enquanto.

BotFrameworkConfig

Classe que define configurações para o objeto do conector do serviço de caixa de diálogo para usar um back-end do Bot Framework.

CancellationDetails

Contém informações detalhadas sobre por que um resultado foi cancelado.

CancellationDetailsBase

Contém informações detalhadas sobre por que um resultado foi cancelado.

Connection

Connection é uma classe proxy para gerenciar a conexão com o serviço de fala do Reconhecedor especificado. Por padrão, um Reconhecedor gerencia de forma autônoma a conexão com o serviço quando necessário. A classe Connection fornece métodos adicionais para que os usuários abram ou fechem explicitamente uma conexão e assinem a conexão status alterações. O uso de Conexão é opcional e, principalmente, para cenários em que o ajuste fino do comportamento do aplicativo com base em status de conexão é necessário. Opcionalmente, os usuários podem chamar Open() para configurar manualmente uma conexão com antecedência antes de iniciar o reconhecimento no Reconhecedor associado a essa Conexão. Se o Reconhecedor precisar se conectar ou desconectar ao serviço, ele configurará ou desligará a conexão de forma independente. Nesse caso, a Conexão será notificada por alteração de status de conexão por meio de eventos Conectados/Desconectados. Adicionado na versão 1.2.1.

ConnectionEventArgs

Define a carga para eventos de conexão, como Conectado/Desconectado. Adicionado na versão 1.2.0

ConnectionMessage

ConnectionMessage representa mensagens específicas de implementação enviadas e recebidas do serviço de fala. Essas mensagens são fornecidas para fins de depuração e não devem ser usadas para casos de uso de produção com o Serviço de Fala dos Serviços Cognitivos do Azure. As mensagens enviadas e recebidas do Serviço de Fala estão sujeitas a alterações sem aviso prévio. Isso inclui conteúdo da mensagem, cabeçalhos, conteúdos, ordenação etc. Adicionado na versão 1.11.0.

ConnectionMessageEventArgs
Conversation
ConversationExpirationEventArgs

Define conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped.

ConversationParticipantsChangedEventArgs

Define conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped.

ConversationTranscriber

Executa o reconhecimento de fala com a separação do locutor do microfone, arquivo ou outros fluxos de entrada de áudio e obtém texto transcrito como resultado.

ConversationTranscriptionCanceledEventArgs

Define o conteúdo de um RecognitionErrorEvent.

ConversationTranscriptionEventArgs

Define o conteúdo do evento transcrito/transcrito da conversa.

ConversationTranscriptionResult

Define o resultado da transcrição da conversa.

ConversationTranslationCanceledEventArgs
ConversationTranslationEventArgs

Define a carga para eventos de sessão como Início/Término de Fala Detectado

ConversationTranslationResult

Resultado do texto de tradução.

ConversationTranslator

Ingressar, sair ou se conectar a uma conversa.

Coordinate

Define uma coordenada no espaço 2D.

CustomCommandsConfig

Classe que define configurações para o objeto do conector do serviço de caixa de diálogo para usar um back-end CustomCommands.

Diagnostics

Define diagnóstico API para gerenciar a saída do console adicionada na versão 1.21.0

DialogServiceConfig

Classe que define configurações base para o conector do serviço de caixa de diálogo

DialogServiceConnector

Conector do Serviço de Caixa de Diálogo

IntentRecognitionCanceledEventArgs

Defina o conteúdo dos eventos de resultado cancelados do reconhecimento de intenção.

IntentRecognitionEventArgs

Argumentos de evento de resultado de reconhecimento de intenção.

IntentRecognitionResult

Resultado do reconhecimento de intenção.

IntentRecognizer

Reconhecedor de intenção.

KeywordRecognitionModel

Representa um modelo de reconhecimento de palavra-chave para reconhecer quando o usuário diz que um palavra-chave para iniciar o reconhecimento de fala adicional.

LanguageUnderstandingModel

Modelo de reconhecimento vocal

Meeting
MeetingTranscriber
MeetingTranscriptionCanceledEventArgs

Define o conteúdo de um MeetingTranscriptionCanceledEvent.

MeetingTranscriptionEventArgs

Define o conteúdo do evento transcrito/transcrito da reunião.

NoMatchDetails

Contém informações detalhadas para resultados de reconhecimento noMatch.

Participant

Representa um participante em uma conversa. Adicionado na versão 1.4.0

PhraseListGrammar

Permite adições de novas frases para melhorar o reconhecimento de fala.

As frases adicionadas ao reconhecedor são efetivas no início do próximo reconhecimento ou, na próxima vez, o SpeechSDK deve se reconectar ao serviço de fala.

PronunciationAssessmentConfig

Configuração de avaliação de pronúncia.

PronunciationAssessmentResult

Resultados da avaliação de pronúncia.

PropertyCollection

Representa a coleção de propriedades e seus valores.

PullAudioInputStream

Representa o fluxo de entrada de áudio usado para configurações de entrada de áudio personalizadas.

PullAudioInputStreamCallback

Uma classe base abstrata que define métodos de retorno de chamada (read() e close()) para fluxos de entrada de áudio personalizados.

PullAudioOutputStream

Representa o fluxo de saída de áudio por push com suporte de memória usado para configurações de saída de áudio personalizadas.

PushAudioInputStream

Representa o fluxo de entrada de áudio por push com suporte de memória usado para configurações de entrada de áudio personalizadas.

PushAudioOutputStream

Representa o fluxo de saída de áudio usado para configurações de saída de áudio personalizadas.

PushAudioOutputStreamCallback

Uma classe base abstrata que define métodos de retorno de chamada (write() e close()) para fluxos de saída de áudio personalizados).

RecognitionEventArgs

Define a carga para eventos de sessão como Início/Término de Fala Detectado

RecognitionResult

Define o resultado do reconhecimento de fala.

Recognizer

Define o Reconhecedor de classe base que contém principalmente manipuladores de eventos comuns.

ServiceEventArgs

Define o conteúdo de qualquer evento de mensagem de serviço adicionado na versão 1.9.0

SessionEventArgs

Define conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped.

SourceLanguageConfig

Configuração do Idioma de Origem.

SpeakerAudioDestination

Representa o destino de áudio de reprodução do alto-falante, que funciona apenas no navegador. Observação: o SDK tentará usar extensões de origem de mídia para reproduzir áudio. O formato Mp3 tem suporte melhor no Microsoft Edge, Chrome e Safari (área de trabalho), portanto, é melhor especificar o formato mp3 para reprodução.

SpeakerIdentificationModel

Define a classe SpeakerIdentificationModel para o Modelo de Reconhecimento do Locutor contém um conjunto de perfis nos quais identificar os locutores

SpeakerRecognitionCancellationDetails
SpeakerRecognitionResult

Formato da saída

SpeakerRecognizer

Define a classe SpeakerRecognizer para operações de Identificadores de Reconhecimento do Locutor do usuário para operações de Perfil de Voz (por exemplo, createProfile, deleteProfile)

SpeakerVerificationModel

Define a classe SpeakerVerificationModel para o Modelo de Reconhecimento do Locutor contém um perfil no qual verificar um alto-falante

SpeechConfig

Configuração de fala.

SpeechConfigImpl
SpeechRecognitionCanceledEventArgs
SpeechRecognitionEventArgs

Define o conteúdo do evento reconhecimento/reconhecimento de fala.

SpeechRecognitionResult

Define o resultado do reconhecimento de fala.

SpeechRecognizer

Executa o reconhecimento de fala de microfone, arquivo ou outros fluxos de entrada de áudio e obtém texto transcrito como resultado.

SpeechSynthesisBookmarkEventArgs

Define o conteúdo do evento de indicador de síntese de fala.

SpeechSynthesisEventArgs

Define o conteúdo de eventos de síntese de fala.

SpeechSynthesisResult

Define o resultado da síntese de fala.

SpeechSynthesisVisemeEventArgs

Define o conteúdo do evento de visema de síntese de fala.

SpeechSynthesisWordBoundaryEventArgs

Define o conteúdo do evento de limite de palavra de síntese de fala.

SpeechSynthesizer

Define a classe SpeechSynthesizer para conversão de texto em fala. Atualizado na versão 1.16.0

SpeechTranslationConfig

Configuração de tradução de fala.

SynthesisResult

Classe base para resultados de síntese

SynthesisVoicesResult

Define o resultado da síntese de fala.

Synthesizer
TranslationRecognitionCanceledEventArgs

Defina o conteúdo dos eventos de resultado cancelados do reconhecimento de fala.

TranslationRecognitionEventArgs

Argumentos de evento de resultado de texto de tradução.

TranslationRecognitionResult

Resultado do texto de tradução.

TranslationRecognizer

Reconhecedor de tradução

TranslationSynthesisEventArgs

Argumentos de evento de síntese de tradução

TranslationSynthesisResult

Define o resultado da síntese de tradução, ou seja, a saída de voz do texto traduzido no idioma de destino.

Translations

Representa a coleção de parâmetros e seus valores.

TurnStatusReceivedEventArgs

Define o conteúdo de mensagens/eventos recebidos.

User
VoiceInfo

Informações sobre a voz da Sintetização de Fala adicionadas na versão 1.20.0.

VoiceProfile

Define a classe Perfil de Voz para Reconhecimento de Locutor

VoiceProfileCancellationDetails
VoiceProfileClient

Define a classe VoiceProfileClient para operações de Identificadores de Reconhecimento do Locutor do usuário para operações de Perfil de Voz (por exemplo, createProfile, deleteProfile)

VoiceProfileEnrollmentCancellationDetails
VoiceProfileEnrollmentResult

Formato da saída

VoiceProfilePhraseResult

Formato da saída

VoiceProfileResult

Formato da saída

Interfaces

CancellationEventArgs
ConversationInfo
IParticipant

Representa um participante em uma conversa. Adicionado na versão 1.4.0

IPlayer

Representa a interface do player de áudio para controlar a reprodução de áudio, como pausar, retomar etc.

MeetingInfo
VoiceSignature

Enumerações

AudioFormatTag
CancellationErrorCode

Define o código de erro caso CancellationReason seja Error. Adicionado na versão 1.1.0.

CancellationReason

Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser cancelado.

LanguageIdMode

Modo de Identificação de Idioma

LogLevel
NoMatchReason

Define os possíveis motivos pelos quais um resultado de reconhecimento pode não ser reconhecido.

OutputFormat

Definir formatos de saída do Reconhecimento de Fala.

ParticipantChangedReason
ProfanityOption

Opção de profanidade. Adicionado na versão 1.7.0.

PronunciationAssessmentGradingSystem

Define o sistema de pontos para calibragem de pontuação de pronúncia; o valor padrão é FivePoint. Adicionado na versão 1.15.0

PronunciationAssessmentGranularity

Define a granularidade da avaliação de pronúncia; o valor padrão é Phoneme. Adicionado na versão 1.15.0

PropertyId

Define ids de propriedade de fala.

ResultReason

Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser gerado.

ServicePropertyChannel

Define canais usados para passar as configurações de propriedade para o serviço. Adicionado na versão 1.7.0.

SpeakerRecognitionResultType
SpeechSynthesisBoundaryType

Define o tipo de limite do evento de limite de síntese de fala.

SpeechSynthesisOutputFormat

Definir formatos de saída de áudio de síntese de fala. SpeechSynthesisOutputFormat Atualizado na versão 1.17.0

VoiceProfileType

Formato da saída