microsoft-cognitiveservices-speech-sdk package
Classes
ActivityReceivedEventArgs |
Define o conteúdo de mensagens/eventos recebidos. |
AudioConfig |
Representa a configuração de entrada de áudio usada para especificar que tipo de entrada usar (microfone, arquivo, fluxo). |
AudioInputStream |
Representa o fluxo de entrada de áudio usado para configurações de entrada de áudio personalizadas. |
AudioOutputStream |
Representa o fluxo de saída de áudio usado para configurações de saída de áudio personalizadas. |
AudioStreamFormat |
Representa o formato de fluxo de áudio usado para configurações de entrada de áudio personalizadas. |
AutoDetectSourceLanguageConfig |
Configuração de detecção automática de linguagem. |
AutoDetectSourceLanguageResult |
Formato da saída |
AvatarConfig |
Define a configuração de avatar falante. |
AvatarEventArgs |
Define o conteúdo para eventos de avatar de fala. |
AvatarSynthesizer |
Define o sintetizador de avatar. |
AvatarVideoFormat |
Define o formato de vídeo de saída do avatar. |
AvatarWebRTCConnectionResult |
Define o resultado da conexão WebRTC do avatar. |
BaseAudioPlayer |
Classe de player de áudio base TODO: reproduz apenas o PCM por enquanto. |
BotFrameworkConfig |
Classe que define configurações para o objeto do conector do serviço de caixa de diálogo para usar um back-end do Bot Framework. |
CancellationDetails |
Contém informações detalhadas sobre por que um resultado foi cancelado. |
CancellationDetailsBase |
Contém informações detalhadas sobre por que um resultado foi cancelado. |
Connection |
Connection é uma classe proxy para gerenciar a conexão com o serviço de fala do Reconhecedor especificado. Por padrão, um Reconhecedor gerencia de forma autônoma a conexão com o serviço quando necessário. A classe Connection fornece métodos adicionais para que os usuários abram ou fechem explicitamente uma conexão e assinem a conexão status alterações. O uso de Conexão é opcional e, principalmente, para cenários em que o ajuste fino do comportamento do aplicativo com base em status de conexão é necessário. Opcionalmente, os usuários podem chamar Open() para configurar manualmente uma conexão com antecedência antes de iniciar o reconhecimento no Reconhecedor associado a essa Conexão. Se o Reconhecedor precisar se conectar ou desconectar ao serviço, ele configurará ou desligará a conexão de forma independente. Nesse caso, a Conexão será notificada por alteração de status de conexão por meio de eventos Conectados/Desconectados. Adicionado na versão 1.2.1. |
ConnectionEventArgs |
Define a carga para eventos de conexão, como Conectado/Desconectado. Adicionado na versão 1.2.0 |
ConnectionMessage |
ConnectionMessage representa mensagens específicas de implementação enviadas e recebidas do serviço de fala. Essas mensagens são fornecidas para fins de depuração e não devem ser usadas para casos de uso de produção com o Serviço de Fala dos Serviços Cognitivos do Azure. As mensagens enviadas e recebidas do Serviço de Fala estão sujeitas a alterações sem aviso prévio. Isso inclui conteúdo da mensagem, cabeçalhos, conteúdos, ordenação etc. Adicionado na versão 1.11.0. |
ConnectionMessageEventArgs | |
Conversation | |
ConversationExpirationEventArgs |
Define conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped. |
ConversationParticipantsChangedEventArgs |
Define conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped. |
ConversationTranscriber |
Executa o reconhecimento de fala com a separação do locutor do microfone, arquivo ou outros fluxos de entrada de áudio e obtém texto transcrito como resultado. |
ConversationTranscriptionCanceledEventArgs |
Define o conteúdo de um RecognitionErrorEvent. |
ConversationTranscriptionEventArgs |
Define o conteúdo do evento transcrito/transcrito da conversa. |
ConversationTranscriptionResult |
Define o resultado da transcrição da conversa. |
ConversationTranslationCanceledEventArgs | |
ConversationTranslationEventArgs |
Define a carga para eventos de sessão como Início/Término de Fala Detectado |
ConversationTranslationResult |
Resultado do texto de tradução. |
ConversationTranslator |
Ingressar, sair ou se conectar a uma conversa. |
Coordinate |
Define uma coordenada no espaço 2D. |
CustomCommandsConfig |
Classe que define configurações para o objeto do conector do serviço de caixa de diálogo para usar um back-end CustomCommands. |
Diagnostics |
Define diagnóstico API para gerenciar a saída do console adicionada na versão 1.21.0 |
DialogServiceConfig |
Classe que define configurações base para o conector do serviço de caixa de diálogo |
DialogServiceConnector |
Conector do Serviço de Caixa de Diálogo |
IntentRecognitionCanceledEventArgs |
Defina o conteúdo dos eventos de resultado cancelados do reconhecimento de intenção. |
IntentRecognitionEventArgs |
Argumentos de evento de resultado de reconhecimento de intenção. |
IntentRecognitionResult |
Resultado do reconhecimento de intenção. |
IntentRecognizer |
Reconhecedor de intenção. |
KeywordRecognitionModel |
Representa um modelo de reconhecimento de palavra-chave para reconhecer quando o usuário diz que um palavra-chave para iniciar o reconhecimento de fala adicional. |
LanguageUnderstandingModel |
Modelo de reconhecimento vocal |
Meeting | |
MeetingTranscriber | |
MeetingTranscriptionCanceledEventArgs |
Define o conteúdo de um MeetingTranscriptionCanceledEvent. |
MeetingTranscriptionEventArgs |
Define o conteúdo do evento transcrito/transcrito da reunião. |
NoMatchDetails |
Contém informações detalhadas para resultados de reconhecimento noMatch. |
Participant |
Representa um participante em uma conversa. Adicionado na versão 1.4.0 |
PhraseListGrammar |
Permite adições de novas frases para melhorar o reconhecimento de fala. As frases adicionadas ao reconhecedor são efetivas no início do próximo reconhecimento ou, na próxima vez, o SpeechSDK deve se reconectar ao serviço de fala. |
PronunciationAssessmentConfig |
Configuração de avaliação de pronúncia. |
PronunciationAssessmentResult |
Resultados da avaliação de pronúncia. |
PropertyCollection |
Representa a coleção de propriedades e seus valores. |
PullAudioInputStream |
Representa o fluxo de entrada de áudio usado para configurações de entrada de áudio personalizadas. |
PullAudioInputStreamCallback |
Uma classe base abstrata que define métodos de retorno de chamada (read() e close()) para fluxos de entrada de áudio personalizados. |
PullAudioOutputStream |
Representa o fluxo de saída de áudio por push com suporte de memória usado para configurações de saída de áudio personalizadas. |
PushAudioInputStream |
Representa o fluxo de entrada de áudio por push com suporte de memória usado para configurações de entrada de áudio personalizadas. |
PushAudioOutputStream |
Representa o fluxo de saída de áudio usado para configurações de saída de áudio personalizadas. |
PushAudioOutputStreamCallback |
Uma classe base abstrata que define métodos de retorno de chamada (write() e close()) para fluxos de saída de áudio personalizados). |
RecognitionEventArgs |
Define a carga para eventos de sessão como Início/Término de Fala Detectado |
RecognitionResult |
Define o resultado do reconhecimento de fala. |
Recognizer |
Define o Reconhecedor de classe base que contém principalmente manipuladores de eventos comuns. |
ServiceEventArgs |
Define o conteúdo de qualquer evento de mensagem de serviço adicionado na versão 1.9.0 |
SessionEventArgs |
Define conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped. |
SourceLanguageConfig |
Configuração do Idioma de Origem. |
SpeakerAudioDestination |
Representa o destino de áudio de reprodução do alto-falante, que funciona apenas no navegador. Observação: o SDK tentará usar extensões de origem de mídia para reproduzir áudio. O formato Mp3 tem suporte melhor no Microsoft Edge, Chrome e Safari (área de trabalho), portanto, é melhor especificar o formato mp3 para reprodução. |
SpeakerIdentificationModel |
Define a classe SpeakerIdentificationModel para o Modelo de Reconhecimento do Locutor contém um conjunto de perfis nos quais identificar os locutores |
SpeakerRecognitionCancellationDetails | |
SpeakerRecognitionResult |
Formato da saída |
SpeakerRecognizer |
Define a classe SpeakerRecognizer para operações de Identificadores de Reconhecimento do Locutor do usuário para operações de Perfil de Voz (por exemplo, createProfile, deleteProfile) |
SpeakerVerificationModel |
Define a classe SpeakerVerificationModel para o Modelo de Reconhecimento do Locutor contém um perfil no qual verificar um alto-falante |
SpeechConfig |
Configuração de fala. |
SpeechConfigImpl | |
SpeechRecognitionCanceledEventArgs | |
SpeechRecognitionEventArgs |
Define o conteúdo do evento reconhecimento/reconhecimento de fala. |
SpeechRecognitionResult |
Define o resultado do reconhecimento de fala. |
SpeechRecognizer |
Executa o reconhecimento de fala de microfone, arquivo ou outros fluxos de entrada de áudio e obtém texto transcrito como resultado. |
SpeechSynthesisBookmarkEventArgs |
Define o conteúdo do evento de indicador de síntese de fala. |
SpeechSynthesisEventArgs |
Define o conteúdo de eventos de síntese de fala. |
SpeechSynthesisResult |
Define o resultado da síntese de fala. |
SpeechSynthesisVisemeEventArgs |
Define o conteúdo do evento de visema de síntese de fala. |
SpeechSynthesisWordBoundaryEventArgs |
Define o conteúdo do evento de limite de palavra de síntese de fala. |
SpeechSynthesizer |
Define a classe SpeechSynthesizer para conversão de texto em fala. Atualizado na versão 1.16.0 |
SpeechTranslationConfig |
Configuração de tradução de fala. |
SynthesisResult |
Classe base para resultados de síntese |
SynthesisVoicesResult |
Define o resultado da síntese de fala. |
Synthesizer | |
TranslationRecognitionCanceledEventArgs |
Defina o conteúdo dos eventos de resultado cancelados do reconhecimento de fala. |
TranslationRecognitionEventArgs |
Argumentos de evento de resultado de texto de tradução. |
TranslationRecognitionResult |
Resultado do texto de tradução. |
TranslationRecognizer |
Reconhecedor de tradução |
TranslationSynthesisEventArgs |
Argumentos de evento de síntese de tradução |
TranslationSynthesisResult |
Define o resultado da síntese de tradução, ou seja, a saída de voz do texto traduzido no idioma de destino. |
Translations |
Representa a coleção de parâmetros e seus valores. |
TurnStatusReceivedEventArgs |
Define o conteúdo de mensagens/eventos recebidos. |
User | |
VoiceInfo |
Informações sobre a voz da Sintetização de Fala adicionadas na versão 1.20.0. |
VoiceProfile |
Define a classe Perfil de Voz para Reconhecimento de Locutor |
VoiceProfileCancellationDetails | |
VoiceProfileClient |
Define a classe VoiceProfileClient para operações de Identificadores de Reconhecimento do Locutor do usuário para operações de Perfil de Voz (por exemplo, createProfile, deleteProfile) |
VoiceProfileEnrollmentCancellationDetails | |
VoiceProfileEnrollmentResult |
Formato da saída |
VoiceProfilePhraseResult |
Formato da saída |
VoiceProfileResult |
Formato da saída |
Interfaces
CancellationEventArgs | |
ConversationInfo | |
IParticipant |
Representa um participante em uma conversa. Adicionado na versão 1.4.0 |
IPlayer |
Representa a interface do player de áudio para controlar a reprodução de áudio, como pausar, retomar etc. |
IVoiceJson | |
MeetingInfo | |
VoiceSignature |
Enumerações
AudioFormatTag | |
CancellationErrorCode |
Define o código de erro caso CancellationReason seja Error. Adicionado na versão 1.1.0. |
CancellationReason |
Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser cancelado. |
LanguageIdMode |
Modo de Identificação de Idioma |
LogLevel | |
NoMatchReason |
Define os possíveis motivos pelos quais um resultado de reconhecimento pode não ser reconhecido. |
OutputFormat |
Definir formatos de saída do Reconhecimento de Fala. |
ParticipantChangedReason | |
ProfanityOption |
Opção de profanidade. Adicionado na versão 1.7.0. |
PronunciationAssessmentGradingSystem |
Define o sistema de pontos para calibragem de pontuação de pronúncia; o valor padrão é FivePoint. Adicionado na versão 1.15.0 |
PronunciationAssessmentGranularity |
Define a granularidade da avaliação de pronúncia; o valor padrão é Phoneme. Adicionado na versão 1.15.0 |
PropertyId |
Define ids de propriedade de fala. |
ResultReason |
Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser gerado. |
ServicePropertyChannel |
Define canais usados para passar as configurações de propriedade para o serviço. Adicionado na versão 1.7.0. |
SpeakerRecognitionResultType | |
SpeechSynthesisBoundaryType |
Define o tipo de limite do evento de limite de síntese de fala. |
SpeechSynthesisOutputFormat |
Definir formatos de saída de áudio de síntese de fala. SpeechSynthesisOutputFormat Atualizado na versão 1.17.0 |
VoiceProfileType |
Formato da saída |