microsoft-cognitiveservices-speech-sdk package
Classes
ActivityReceivedEventArgs |
Define o conteúdo de mensagens/eventos recebidos. |
AudioConfig |
Representa a configuração de entrada de áudio utilizada para especificar o tipo de entrada a utilizar (microfone, ficheiro, fluxo). |
AudioInputStream |
Representa o fluxo de entrada de áudio utilizado para configurações de entrada de áudio personalizadas. |
AudioOutputStream |
Representa o fluxo de saída de áudio utilizado para configurações de saída de áudio personalizadas. |
AudioStreamFormat |
Representa o formato de fluxo de áudio utilizado para configurações de entrada de áudio personalizadas. |
AutoDetectSourceLanguageConfig |
Configuração de deteção automática de idiomas. |
AutoDetectSourceLanguageResult |
Formato de saída |
AvatarConfig |
Define a configuração do avatar falante. |
AvatarEventArgs |
Define conteúdo para eventos de avatar falantes. |
AvatarSynthesizer |
Define o sintetizador de avatar. |
AvatarVideoFormat |
Define o formato de vídeo de saída do avatar. |
AvatarWebRTCConnectionResult |
Define o resultado da ligação WebRTC do avatar. |
BaseAudioPlayer |
Classe de leitor de áudio base TODO: reproduz apenas PCM por enquanto. |
BotFrameworkConfig |
Classe que define configurações para o objeto do conector do serviço de diálogo para utilizar um back-end do Bot Framework. |
CancellationDetails |
Contém informações detalhadas sobre o motivo pelo qual um resultado foi cancelado. |
CancellationDetailsBase |
Contém informações detalhadas sobre o motivo pelo qual um resultado foi cancelado. |
Connection |
A ligação é uma classe de proxy para gerir a ligação ao serviço de voz do Reconhecedor especificado. Por predefinição, um Reconhecedor gere de forma autónoma a ligação ao serviço quando necessário. A classe Ligação fornece métodos adicionais para os utilizadores abrirem ou fecharem explicitamente uma ligação e subscreverem as alterações ao estado da ligação. A utilização da Ligação é opcional e principalmente para cenários em que é necessária uma otimização do comportamento da aplicação com base no estado da ligação. Opcionalmente, os utilizadores podem chamar Open() para configurar manualmente uma ligação com antecedência antes de iniciarem o reconhecimento no Reconhecedor associado a esta Ligação. Se o Reconhecedor precisar de se ligar ou desligar ao serviço, irá configurar ou encerrar a ligação de forma independente. Neste caso, a Ligação será notificada através da alteração do estado da ligação através de eventos Ligados/Desligados. Adicionado na versão 1.2.1. |
ConnectionEventArgs |
Define o payload para eventos de ligação como Ligado/Desligado. Adicionado na versão 1.2.0 |
ConnectionMessage |
ConnectionMessage representa mensagens específicas de implementação enviadas e recebidas do serviço de voz. Estas mensagens são fornecidas para fins de depuração e não devem ser utilizadas para casos de utilização de produção com o Serviço de Voz dos Serviços Cognitivos do Azure. As mensagens enviadas e recebidas do Serviço de Voz estão sujeitas a alterações sem aviso prévio. Isto inclui conteúdos de mensagens, cabeçalhos, payloads, encomendas, etc. Adicionado na versão 1.11.0. |
ConnectionMessageEventArgs | |
Conversation | |
ConversationExpirationEventArgs |
Define conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped. |
ConversationParticipantsChangedEventArgs |
Define conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped. |
ConversationTranscriber |
Efetua o reconhecimento de voz com a separação de altifalantes do microfone, ficheiro ou outros fluxos de entrada de áudio e obtém texto transcrito como resultado. |
ConversationTranscriptionCanceledEventArgs |
Define o conteúdo de um RecognitionErrorEvent. |
ConversationTranscriptionEventArgs |
Define os conteúdos do evento transcrito/transcrito de conversação. |
ConversationTranscriptionResult |
Define o resultado da transcrição de conversação. |
ConversationTranslationCanceledEventArgs | |
ConversationTranslationEventArgs |
Define o payload para eventos de sessão, como Início/Fim da Voz Detetado |
ConversationTranslationResult |
Resultado do texto de tradução. |
ConversationTranslator |
Participar, sair ou ligar a uma conversação. |
Coordinate |
Define uma coordenada no espaço 2D. |
CustomCommandsConfig |
Classe que define configurações para o objeto do conector do serviço de diálogo para utilizar um back-end CustomCommands. |
Diagnostics |
Define a API de diagnóstico para gerir a saída da consola Adicionada na versão 1.21.0 |
DialogServiceConfig |
Classe que define as configurações de base para o conector do serviço de caixa de diálogo |
DialogServiceConnector |
Conector do Serviço de Caixa de Diálogo |
IntentRecognitionCanceledEventArgs |
Defina o payload dos eventos de resultados cancelados do reconhecimento de intenção. |
IntentRecognitionEventArgs |
Argumentos de evento de resultados de reconhecimento de intenção. |
IntentRecognitionResult |
Resultado de reconhecimento de intenção. |
IntentRecognizer |
Reconhecedor de intenções. |
KeywordRecognitionModel |
Representa um modelo de reconhecimento de palavras-chave para reconhecer quando o utilizador diz uma palavra-chave para iniciar o reconhecimento de voz adicional. |
LanguageUnderstandingModel |
Modelo de compreensão de linguagem |
Meeting | |
MeetingTranscriber | |
MeetingTranscriptionCanceledEventArgs |
Define o conteúdo de um MeetingTranscriptionCanceledEvent. |
MeetingTranscriptionEventArgs |
Define os conteúdos do evento transcrito/transcrito da reunião. |
NoMatchDetails |
Contém informações detalhadas sobre os resultados do reconhecimento NoMatch. |
Participant |
Representa um participante numa conversação. Adicionado na versão 1.4.0 |
PhraseListGrammar |
Permite adições de novas expressões para melhorar o reconhecimento de voz. As expressões adicionadas ao reconhecedor são eficazes no início do próximo reconhecimento ou da próxima vez que o SpeechSDK tiver de voltar a ligar ao serviço de voz. |
PronunciationAssessmentConfig |
Configuração da avaliação da pronúncia. |
PronunciationAssessmentResult |
Resultados da avaliação da pronúncia. |
PropertyCollection |
Representa a coleção de propriedades e os respetivos valores. |
PullAudioInputStream |
Representa o fluxo de entrada de áudio utilizado para configurações de entrada de áudio personalizadas. |
PullAudioInputStreamCallback |
Uma classe base abstrata que define métodos de chamada de retorno (read() e close()) para fluxos de entrada de áudio personalizados). |
PullAudioOutputStream |
Representa o fluxo de saída de áudio push com suporte de memória utilizado para configurações de saída de áudio personalizadas. |
PushAudioInputStream |
Representa o fluxo de entrada de áudio push com suporte de memória utilizado para configurações de entrada de áudio personalizadas. |
PushAudioOutputStream |
Representa o fluxo de saída de áudio utilizado para configurações de saída de áudio personalizadas. |
PushAudioOutputStreamCallback |
Uma classe base abstrata que define métodos de chamada de retorno (write() e close()) para fluxos de saída de áudio personalizados. |
RecognitionEventArgs |
Define o payload para eventos de sessão, como Início/Fim da Voz Detetado |
RecognitionResult |
Define o resultado do reconhecimento de voz. |
Recognizer |
Define o Reconhecedor de classe base que contém principalmente processadores de eventos comuns. |
ServiceEventArgs |
Define o payload para qualquer evento de mensagem de serviço Adicionado na versão 1.9.0 |
SessionEventArgs |
Define conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped. |
SourceLanguageConfig |
Configuração da Linguagem de Origem. |
SpeakerAudioDestination |
Representa o destino de áudio de reprodução de orador, que só funciona no browser. Nota: o SDK tentará utilizar as Extensões de Origem de Multimédia para reproduzir áudio. O formato Mp3 suporta melhor o Microsoft Edge, Chrome e Safari (ambiente de trabalho), pelo que é melhor especificar o formato mp3 para reprodução. |
SpeakerIdentificationModel |
Define SpeakerIdentificationModel class for Speaker Recognition Model (Classe SpeakerIdentificationModel para Modelo de Reconhecimento de Orador) que contém um conjunto de perfis para identificar os oradores |
SpeakerRecognitionCancellationDetails | |
SpeakerRecognitionResult |
Formato de saída |
SpeakerRecognizer |
Define a classe SpeakerRecognizer para Reconhecimento de Orador Processa operações do utilizador para operações do Perfil de Voz (por exemplo, createProfile, deleteProfile) |
SpeakerVerificationModel |
Define a classe SpeakerVerificationModel para o Modelo de Reconhecimento de Orador contém um perfil para verificar um orador |
SpeechConfig |
Configuração de voz. |
SpeechConfigImpl | |
SpeechRecognitionCanceledEventArgs | |
SpeechRecognitionEventArgs |
Define o conteúdo do evento reconhecido/reconhecimento de voz. |
SpeechRecognitionResult |
Define o resultado do reconhecimento de voz. |
SpeechRecognizer |
Efetua o reconhecimento de voz a partir do microfone, ficheiro ou outros fluxos de entrada de áudio e obtém texto transcrito como resultado. |
SpeechSynthesisBookmarkEventArgs |
Define o conteúdo do evento de marcador de sintetização de voz. |
SpeechSynthesisEventArgs |
Define conteúdos de eventos de sintetização de voz. |
SpeechSynthesisResult |
Define o resultado da sintetização de voz. |
SpeechSynthesisVisemeEventArgs |
Define os conteúdos do evento viseme de sintetização de voz. |
SpeechSynthesisWordBoundaryEventArgs |
Define o conteúdo do evento de limite de palavras de sintetização de voz. |
SpeechSynthesizer |
Define a classe SpeechSynthesizer para conversão de texto em voz. Atualizado na versão 1.16.0 |
SpeechTranslationConfig |
Configuração da tradução de voz. |
SynthesisResult |
Classe base para resultados de sintetização |
SynthesisVoicesResult |
Define o resultado da sintetização de voz. |
Synthesizer | |
TranslationRecognitionCanceledEventArgs |
Defina payload de eventos de resultados cancelados do reconhecimento de voz. |
TranslationRecognitionEventArgs |
Argumentos de eventos de resultado de texto de tradução. |
TranslationRecognitionResult |
Resultado do texto de tradução. |
TranslationRecognizer |
Reconhecedor de tradução |
TranslationSynthesisEventArgs |
Argumentos de eventos de Sintetização de Tradução |
TranslationSynthesisResult |
Define o resultado da sintetização de tradução, ou seja, a saída de voz do texto traduzido no idioma de destino. |
Translations |
Representa a coleção de parâmetros e os respetivos valores. |
TurnStatusReceivedEventArgs |
Define o conteúdo de mensagens/eventos recebidos. |
User | |
VoiceInfo |
Informações sobre a voz de Sintetização de Voz Adicionada na versão 1.20.0. |
VoiceProfile |
Define a classe Perfil de Voz para Reconhecimento de Orador |
VoiceProfileCancellationDetails | |
VoiceProfileClient |
Define a classe VoiceProfileClient para o Reconhecimento de Orador Processa operações do utilizador para operações de Perfil de Voz (por exemplo, createProfile, deleteProfile) |
VoiceProfileEnrollmentCancellationDetails | |
VoiceProfileEnrollmentResult |
Formato de saída |
VoiceProfilePhraseResult |
Formato de saída |
VoiceProfileResult |
Formato de saída |
Interfaces
CancellationEventArgs | |
ConversationInfo | |
IParticipant |
Representa um participante numa conversação. Adicionado na versão 1.4.0 |
IPlayer |
Representa a interface do leitor de áudio para controlar a reprodução de áudio, como colocar em pausa, retomar, etc. |
IVoiceJson | |
MeetingInfo | |
VoiceSignature |
Enumerações
AudioFormatTag | |
CancellationErrorCode |
Define o código de erro no caso de CancellationReason ser Erro. Adicionado na versão 1.1.0. |
CancellationReason |
Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser cancelado. |
LanguageIdMode |
Modo de Identificação de Idioma |
LogLevel | |
NoMatchReason |
Define as possíveis razões pelas quais um resultado de reconhecimento pode não ser reconhecido. |
OutputFormat |
Definir formatos de saída do Reconhecedor de Voz. |
ParticipantChangedReason | |
ProfanityOption |
Opção de profanidade. Adicionado na versão 1.7.0. |
PronunciationAssessmentGradingSystem |
Define o sistema de pontos para a calibragem da pontuação de pronúncia; o valor predefinido é FivePoint. Adicionado na versão 1.15.0 |
PronunciationAssessmentGranularity |
Define a granularidade da avaliação da pronúncia; o valor predefinido é Phoneme. Adicionado na versão 1.15.0 |
PropertyId |
Define ids de propriedade de voz. |
ResultReason |
Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser gerado. |
ServicePropertyChannel |
Define os canais utilizados para transmitir as definições de propriedades para o serviço. Adicionado na versão 1.7.0. |
SpeakerRecognitionResultType | |
SpeechSynthesisBoundaryType |
Define o tipo de limite do evento de limite de sintetização de voz. |
SpeechSynthesisOutputFormat |
Definir formatos de saída de áudio de sintetização de voz. SpeechSynthesisOutputFormat Atualizado na versão 1.17.0 |
VoiceProfileType |
Formato de saída |