microsoft-cognitiveservices-speech-sdk package
Classi
ActivityReceivedEventArgs |
Definisce il contenuto dei messaggi/eventi ricevuti. |
AudioConfig |
Rappresenta la configurazione di input audio usata per specificare il tipo di input da usare (microfono, file, flusso). |
AudioInputStream |
Rappresenta il flusso di input audio usato per configurazioni di input audio personalizzate. |
AudioOutputStream |
Rappresenta il flusso di output audio usato per configurazioni di output audio personalizzate. |
AudioStreamFormat |
Rappresenta il formato di flusso audio usato per configurazioni di input audio personalizzate. |
AutoDetectSourceLanguageConfig |
Configurazione del rilevamento automatico della lingua. |
AutoDetectSourceLanguageResult |
Formato di output |
AvatarConfig |
Definisce la configurazione dell'avatar parlanti. |
AvatarEventArgs |
Definisce il contenuto per parlare degli eventi avatar. |
AvatarSynthesizer |
Definisce il sintetizzatore avatar. |
AvatarVideoFormat |
Definisce il formato video di output dell'avatar. |
AvatarWebRTCConnectionResult |
Definisce il risultato della connessione WebRTC avatar. |
BaseAudioPlayer |
Classe di lettore audio di base TODO: riproduce solo PCM per ora. |
BotFrameworkConfig |
Classe che definisce le configurazioni per l'oggetto del connettore del servizio di dialogo per l'uso di un back-end di Bot Framework. |
CancellationDetails |
Contiene informazioni dettagliate sul motivo per cui è stato annullato un risultato. |
CancellationDetailsBase |
Contiene informazioni dettagliate sul motivo per cui è stato annullato un risultato. |
Connection |
La connessione è una classe proxy per la gestione della connessione al servizio voce del riconoscimento vocale specificato. Per impostazione predefinita, un riconoscimento gestisce autonomamente la connessione al servizio quando necessario. La classe Connection fornisce metodi aggiuntivi per gli utenti per aprire o chiudere in modo esplicito una connessione e sottoscrivere le modifiche dello stato della connessione. L'uso della connessione è facoltativo e principalmente per gli scenari in cui è necessario ottimizzare il comportamento dell'applicazione in base allo stato di connessione. Gli utenti possono chiamare facoltativamente Open() per configurare manualmente una connessione in anticipo prima di avviare il riconoscimento nel riconoscimento associato a questa connessione. Se il riconoscimento deve connettersi o disconnettersi al servizio, verrà configurato o arrestato la connessione in modo indipendente. In questo caso, la connessione verrà notificata modificando lo stato della connessione tramite eventi Connessi/Disconnessi. Aggiunta nella versione 1.2.1. |
ConnectionEventArgs |
Definisce il payload per gli eventi di connessione come Connesso/Disconnesso. Aggiunta nella versione 1.2.0 |
ConnectionMessage |
ConnectionMessage rappresenta i messaggi specifici dell'implementazione inviati a e ricevuti dal servizio voce. Questi messaggi vengono forniti per scopi di debug e non devono essere usati per i casi d'uso di produzione con il servizio riconoscimento vocale di Servizi cognitivi di Azure. I messaggi inviati e ricevuti dal servizio voce sono soggetti a modifiche senza preavviso. Ciò include contenuto del messaggio, intestazioni, payload, ordinamento e così via. Aggiunta nella versione 1.11.0. |
ConnectionMessageEventArgs | |
Conversation | |
ConversationExpirationEventArgs |
Definisce il contenuto per gli eventi di sessione, ad esempio SessionStarted/Stopped, SoundStarted/Stopped. |
ConversationParticipantsChangedEventArgs |
Definisce il contenuto per gli eventi di sessione, ad esempio SessionStarted/Stopped, SoundStarted/Stopped. |
ConversationTranscriber |
Esegue il riconoscimento vocale con la separazione dell'altoparlante dal microfono, dal file o da altri flussi di input audio e ottiene il testo trascritto come risultato. |
ConversationTranscriptionCanceledEventArgs |
Definisce il contenuto di un recognitionErrorEvent. |
ConversationTranscriptionEventArgs |
Definisce il contenuto dell'evento trascritto/trascritto della conversazione. |
ConversationTranscriptionResult |
Definisce il risultato della trascrizione della conversazione. |
ConversationTranslationCanceledEventArgs | |
ConversationTranslationEventArgs |
Definisce il payload per gli eventi di sessione come Speech Start/End Rilevati |
ConversationTranslationResult |
Risultato del testo di traduzione. |
ConversationTranslator |
Aggiungere, lasciare o connettersi a una conversazione. |
Coordinate |
Definisce una coordinata nello spazio 2D. |
CustomCommandsConfig |
Classe che definisce le configurazioni per l'oggetto del connettore del servizio di dialogo per l'uso di un back-end CustomCommands. |
Diagnostics |
Definisce l'API diagnostica per la gestione dell'output della console Aggiunta nella versione 1.21.0 |
DialogServiceConfig |
Classe che definisce le configurazioni di base per il connettore del servizio di dialogo |
DialogServiceConnector |
Finestra di dialogo Connettore del servizio |
IntentRecognitionCanceledEventArgs |
Definire il payload degli eventi dei risultati annullati per il riconoscimento delle finalità. |
IntentRecognitionEventArgs |
Argomenti dell'evento di riconoscimento finalità. |
IntentRecognitionResult |
Risultato del riconoscimento delle finalità. |
IntentRecognizer |
Riconoscimento finalità. |
KeywordRecognitionModel |
Rappresenta un modello di riconoscimento delle parole chiave per riconoscere quando l'utente dice una parola chiave per avviare ulteriormente il riconoscimento vocale. |
LanguageUnderstandingModel |
Modello di comprensione del linguaggio |
Meeting | |
MeetingTranscriber | |
MeetingTranscriptionCanceledEventArgs |
Definisce il contenuto di una riunioneTranscriptionCanceledEvent. |
MeetingTranscriptionEventArgs |
Definisce il contenuto dell'evento trascritto/trascritto della riunione. |
NoMatchDetails |
Contiene informazioni dettagliate per i risultati del riconoscimento NoMatch. |
Participant |
Rappresenta un partecipante in una conversazione. Aggiunta nella versione 1.4.0 |
PhraseListGrammar |
Consente di aggiungere nuove frasi per migliorare il riconoscimento vocale. Le frasi aggiunte al riconoscimento sono effettive all'inizio del riconoscimento successivo oppure alla successiva connessione al servizio voce. |
PronunciationAssessmentConfig |
Configurazione della valutazione della pronuncia. |
PronunciationAssessmentResult |
Risultati della valutazione della pronuncia. |
PropertyCollection |
Rappresenta la raccolta di proprietà e i relativi valori. |
PullAudioInputStream |
Rappresenta il flusso di input audio usato per configurazioni di input audio personalizzate. |
PullAudioInputStreamCallback |
Classe base astratta che definisce i metodi di callback (read() e close() per flussi di input audio personalizzati. |
PullAudioOutputStream |
Rappresenta il flusso di output audio push supportato dalla memoria usato per configurazioni di output audio personalizzate. |
PushAudioInputStream |
Rappresenta il flusso di input audio push supportato dalla memoria usato per configurazioni di input audio personalizzate. |
PushAudioOutputStream |
Rappresenta il flusso di output audio usato per configurazioni di output audio personalizzate. |
PushAudioOutputStreamCallback |
Classe base astratta che definisce i metodi di callback (write() e close() per i flussi di output audio personalizzati. |
RecognitionEventArgs |
Definisce il payload per gli eventi di sessione come Speech Start/End Rilevati |
RecognitionResult |
Definisce il risultato del riconoscimento vocale. |
Recognizer |
Definisce il riconoscimento della classe di base che contiene principalmente gestori eventi comuni. |
ServiceEventArgs |
Definisce il payload per qualsiasi evento del messaggio di servizio aggiunto nella versione 1.9.0 |
SessionEventArgs |
Definisce il contenuto per gli eventi di sessione, ad esempio SessionStarted/Stopped, SoundStarted/Stopped. |
SourceLanguageConfig |
Configurazione del linguaggio di origine. |
SpeakerAudioDestination |
Rappresenta la destinazione audio di riproduzione dell'altoparlante, che funziona solo nel browser. Nota: l'SDK tenterà di usare estensioni di origine multimediale per riprodurre audio. Il formato Mp3 offre supporto migliore in Microsoft Edge, Chrome e Safari (desktop), quindi è meglio specificare il formato mp3 per la riproduzione. |
SpeakerIdentificationModel |
Definisce la classe SpeakerIdentificationModel per Il modello di riconoscimento altoparlanti contiene un set di profili su cui identificare gli altoparlanti |
SpeakerRecognitionCancellationDetails | |
SpeakerRecognitionResult |
Formato di output |
SpeakerRecognizer |
Definisce la classe SpeakerRecognizer per le operazioni di Riconoscimento altoparlante gestite dall'utente per le operazioni del profilo vocale (ad esempio createProfile, deleteProfile) |
SpeakerVerificationModel |
Definisce la classe SpeakerVerificationModel per Il modello di riconoscimento altoparlante contiene un profilo in base al quale verificare un altoparlante |
SpeechConfig |
Configurazione voce. |
SpeechConfigImpl | |
SpeechRecognitionCanceledEventArgs | |
SpeechRecognitionEventArgs |
Definisce il contenuto dell'evento riconoscimento vocale/riconosciuto. |
SpeechRecognitionResult |
Definisce il risultato del riconoscimento vocale. |
SpeechRecognizer |
Esegue il riconoscimento vocale da microfono, file o altri flussi di input audio e ottiene il testo trascritto come risultato. |
SpeechSynthesisBookmarkEventArgs |
Definisce il contenuto dell'evento segnalibro di sintesi vocale. |
SpeechSynthesisEventArgs |
Definisce il contenuto degli eventi di sintesi vocale. |
SpeechSynthesisResult |
Definisce il risultato della sintesi vocale. |
SpeechSynthesisVisemeEventArgs |
Definisce il contenuto dell'evento viseme di sintesi vocale. |
SpeechSynthesisWordBoundaryEventArgs |
Definisce il contenuto dell'evento limite della parola di sintesi vocale. |
SpeechSynthesizer |
Definisce la classe SpeechSynthesizer per la sintesi vocale. Aggiornamento nella versione 1.16.0 |
SpeechTranslationConfig |
Configurazione della traduzione vocale. |
SynthesisResult |
Classe di base per i risultati di sintesi |
SynthesisVoicesResult |
Definisce il risultato della sintesi vocale. |
Synthesizer | |
TranslationRecognitionCanceledEventArgs |
Definire il payload degli eventi dei risultati annullati del riconoscimento vocale. |
TranslationRecognitionEventArgs |
Argomenti dell'evento del risultato del testo della traduzione. |
TranslationRecognitionResult |
Risultato del testo della traduzione. |
TranslationRecognizer |
Sistema di riconoscimento di traduzione |
TranslationSynthesisEventArgs |
Argomenti dell'evento Translation Synthesis |
TranslationSynthesisResult |
Definisce il risultato della sintesi della traduzione, ovvero l'output vocale del testo tradotto nella lingua di destinazione. |
Translations |
Rappresenta la raccolta di parametri e i relativi valori. |
TurnStatusReceivedEventArgs |
Definisce il contenuto dei messaggi/eventi ricevuti. |
User | |
VoiceInfo |
Informazioni sulla voce Sintesi vocale aggiunta nella versione 1.20.0. |
VoiceProfile |
Definisce la classe Profilo vocale per riconoscimento del parlante |
VoiceProfileCancellationDetails | |
VoiceProfileClient |
Definisce la classe VoiceProfileClient per le operazioni Di riconoscimento del parlante dall'utente per le operazioni del profilo vocale ( ad esempio createProfile, deleteProfile) |
VoiceProfileEnrollmentCancellationDetails | |
VoiceProfileEnrollmentResult |
Formato di output |
VoiceProfilePhraseResult |
Formato di output |
VoiceProfileResult |
Formato di output |
Interfacce
CancellationEventArgs | |
ConversationInfo | |
IParticipant |
Rappresenta un partecipante in una conversazione. Aggiunta nella versione 1.4.0 |
IPlayer |
Rappresenta l'interfaccia del lettore audio per controllare la riproduzione audio, ad esempio pausa, ripresa e così via. |
IVoiceJson | |
MeetingInfo | |
VoiceSignature |
Enumerazioni
AudioFormatTag | |
CancellationErrorCode |
Definisce il codice di errore nel caso in cui CancellationReason sia Error. Aggiunta nella versione 1.1.0. |
CancellationReason |
Definisce i possibili motivi per cui un risultato di riconoscimento potrebbe essere annullato. |
LanguageIdMode |
Modalità di identificazione del linguaggio |
LogLevel | |
NoMatchReason |
Definisce i possibili motivi per cui un risultato di riconoscimento potrebbe non essere riconosciuto. |
OutputFormat |
Definire i formati di output di Riconoscimento vocale. |
ParticipantChangedReason | |
ProfanityOption |
Opzione Volgarity. Aggiunta nella versione 1.7.0. |
PronunciationAssessmentGradingSystem |
Definisce il sistema di punti per la calibrazione del punteggio di pronuncia; il valore predefinito è FivePoint. Aggiunta nella versione 1.15.0 |
PronunciationAssessmentGranularity |
Definisce la granularità della valutazione della pronuncia; il valore predefinito è Phoneme. Aggiunta nella versione 1.15.0 |
PropertyId |
Definisce gli ID della proprietà vocale. |
ResultReason |
Definisce i possibili motivi per cui è possibile generare un risultato di riconoscimento. |
ServicePropertyChannel |
Definisce i canali usati per passare le impostazioni delle proprietà al servizio. Aggiunta nella versione 1.7.0. |
SpeakerRecognitionResultType | |
SpeechSynthesisBoundaryType |
Definisce il tipo di limite dell'evento limite di sintesi vocale. |
SpeechSynthesisOutputFormat |
Definire i formati di output audio di sintesi vocale. SpeechSynthesisOutputFormat aggiornato nella versione 1.17.0 |
VoiceProfileType |
Formato di output |