Udostępnij za pośrednictwem


microsoft-cognitiveservices-speech-sdk package

Klasy

ActivityReceivedEventArgs

Definiuje zawartość odebranego komunikatu/zdarzeń.

AudioConfig

Reprezentuje konfigurację danych wejściowych audio używanych do określania typu danych wejściowych do użycia (mikrofon, plik, strumień).

AudioInputStream

Reprezentuje strumień wejściowy audio używany do niestandardowych konfiguracji danych wejściowych audio.

AudioOutputStream

Reprezentuje strumień wyjściowy audio używany do niestandardowych konfiguracji danych wyjściowych dźwięku.

AudioStreamFormat

Reprezentuje format strumienia audio używany do niestandardowych konfiguracji danych wejściowych audio.

AutoDetectSourceLanguageConfig

Automatyczna konfiguracja wykrywania języka.

AutoDetectSourceLanguageResult

Format danych wyjściowych

AvatarConfig

Definiuje konfigurację mówiącego awatara.

AvatarEventArgs

Definiuje zawartość do rozmów zdarzeń awatara.

AvatarSynthesizer

Definiuje syntetyzator awatara.

AvatarVideoFormat

Definiuje format wideo wyjściowego awatara.

AvatarWebRTCConnectionResult

Definiuje wynik połączenia awatara WebRTC.

BaseAudioPlayer

Podstawowa klasa TODO odtwarzacza audio: odtwarza tylko PCM na razie.

BotFrameworkConfig

Klasa definiująca konfiguracje obiektu łącznika usługi dialogowej na potrzeby korzystania z zaplecza platformy Bot Framework.

CancellationDetails

Zawiera szczegółowe informacje o tym, dlaczego wynik został anulowany.

CancellationDetailsBase

Zawiera szczegółowe informacje o tym, dlaczego wynik został anulowany.

Connection

Połączenie to klasa serwera proxy do zarządzania połączeniem z usługą rozpoznawania mowy określonego rozpoznawania. Domyślnie rozpoznawanie autonomiczne zarządza połączeniem z usługą w razie potrzeby. Klasa Connection udostępnia dodatkowe metody jawnego otwierania lub zamykania połączenia oraz subskrybowania zmian stanu połączenia. Użycie połączenia jest opcjonalne i dotyczy głównie scenariuszy, w których wymagane jest precyzyjne dostrajanie zachowania aplikacji na podstawie stanu połączenia. Użytkownicy mogą opcjonalnie wywołać metodę Open(), aby ręcznie skonfigurować połączenie z wyprzedzeniem przed rozpoczęciem rozpoznawania w rozpoznawaniu skojarzonym z tym połączeniem. Jeśli narzędzie rozpoznawania musi nawiązać połączenie lub rozłączyć się z usługą, skonfiguruje lub wyłączy połączenie niezależnie. W takim przypadku połączenie zostanie powiadomione o zmianie stanu połączenia za pośrednictwem zdarzeń Połączony/Rozłączony. Dodano w wersji 1.2.1.

ConnectionEventArgs

Definiuje ładunek dla zdarzeń połączenia, takich jak Połączone/Rozłączone. Dodano w wersji 1.2.0

ConnectionMessage

ConnectionMessage reprezentuje komunikaty specyficzne dla implementacji wysyłane do i odbierane z usługi mowy. Te komunikaty są udostępniane do celów debugowania i nie powinny być używane w przypadku przypadków użycia w środowisku produkcyjnym w usłudze Mowa w usługach Azure Cognitive Services. Komunikaty wysyłane do usługi mowa i odbierane z tej usługi mogą ulec zmianie bez powiadomienia. Obejmuje to zawartość wiadomości, nagłówki, ładunki, kolejność itp. Dodano w wersji 1.11.0.

ConnectionMessageEventArgs
Conversation
ConversationExpirationEventArgs

Definiuje zawartość zdarzeń sesji, takich jak SessionStarted/Stopped, SoundStarted/Stopped.

ConversationParticipantsChangedEventArgs

Definiuje zawartość zdarzeń sesji, takich jak SessionStarted/Stopped, SoundStarted/Stopped.

ConversationTranscriber

Wykonuje rozpoznawanie mowy z oddzieleniem osoby mówiącej od mikrofonu, pliku lub innych strumieni wejściowych audio i otrzymuje transkrypcję tekstu w wyniku.

ConversationTranscriptionCanceledEventArgs

Definiuje zawartość elementu RecognitionErrorEvent.

ConversationTranscriptionEventArgs

Definiuje zawartość zdarzenia transkrybowanego/transkrypcji konwersacji.

ConversationTranscriptionResult

Definiuje wynik transkrypcji konwersacji.

ConversationTranslationCanceledEventArgs
ConversationTranslationEventArgs

Definiuje ładunek dla zdarzeń sesji, takich jak początek/koniec mowy wykryte

ConversationTranslationResult

Wynik tłumaczenia tekstu.

ConversationTranslator

Dołącz, pozostaw lub połącz się z konwersacją.

Coordinate

Definiuje współrzędną w przestrzeni 2D.

CustomCommandsConfig

Klasa, która definiuje konfiguracje obiektu łącznika usługi dialogowej do używania zaplecza CustomCommands.

Diagnostics

Definiuje interfejs API diagnostyki do zarządzania danymi wyjściowymi konsoli dodanymi w wersji 1.21.0

DialogServiceConfig

Klasa definiująca podstawowe konfiguracje łącznika usługi dialogowej

DialogServiceConnector

Łącznik usługi dialogowej

IntentRecognitionCanceledEventArgs

Zdefiniuj ładunek anulowanych zdarzeń wyników rozpoznawania intencji.

IntentRecognitionEventArgs

Argumenty zdarzeń wyniku rozpoznawania intencji.

IntentRecognitionResult

Wynik rozpoznawania intencji.

IntentRecognizer

Rozpoznawanie intencji.

KeywordRecognitionModel

Reprezentuje model rozpoznawania słów kluczowych do rozpoznawania, gdy użytkownik mówi słowo kluczowe, aby zainicjować dalsze rozpoznawanie mowy.

LanguageUnderstandingModel

Model interpretacji języka

Meeting
MeetingTranscriber
MeetingTranscriptionCanceledEventArgs

Definiuje zawartość obiektu MeetingTranscriptionCanceledEvent.

MeetingTranscriptionEventArgs

Definiuje zawartość zdarzenia transkrypcji/transkrypcji spotkania.

NoMatchDetails

Zawiera szczegółowe informacje dotyczące wyników rozpoznawania NoMatch.

Participant

Reprezentuje uczestnika konwersacji. Dodano w wersji 1.4.0

PhraseListGrammar

Umożliwia dodawanie nowych fraz w celu poprawy rozpoznawania mowy.

Frazy dodane do rozpoznawania są skuteczne na początku następnego rozpoznawania lub następnym razem, gdy zestaw SpeechSDK musi ponownie nawiązać połączenie z usługą mowy.

PronunciationAssessmentConfig

Konfiguracja oceny wymowy.

PronunciationAssessmentResult

Wyniki oceny wymowy.

PropertyCollection

Reprezentuje kolekcję właściwości i ich wartości.

PullAudioInputStream

Reprezentuje strumień wejściowy audio używany do niestandardowych konfiguracji danych wejściowych audio.

PullAudioInputStreamCallback

Abstrakcyjna klasa bazowa, która definiuje metody wywołania zwrotnego (read() i close()) dla niestandardowych strumieni wejściowych audio).

PullAudioOutputStream

Reprezentuje oparty na pamięci strumień danych wyjściowych wypychanych dźwięku używany do niestandardowych konfiguracji danych wyjściowych audio.

PushAudioInputStream

Reprezentuje oparty na pamięci strumień wejściowy wypychania audio używany do niestandardowych konfiguracji danych wejściowych audio.

PushAudioOutputStream

Reprezentuje strumień wyjściowy audio używany do niestandardowych konfiguracji danych wyjściowych dźwięku.

PushAudioOutputStreamCallback

Abstrakcyjna klasa bazowa, która definiuje metody wywołania zwrotnego (write() i close()) dla niestandardowych strumieni wyjściowych audio).

RecognitionEventArgs

Definiuje ładunek dla zdarzeń sesji, takich jak początek/koniec mowy wykryte

RecognitionResult

Definiuje wynik rozpoznawania mowy.

Recognizer

Definiuje klasę bazową Rozpoznawanie, która zawiera głównie typowe programy obsługi zdarzeń.

ServiceEventArgs

Definiuje ładunek dla dowolnego zdarzenia komunikatu usługi Dodane w wersji 1.9.0

SessionEventArgs

Definiuje zawartość zdarzeń sesji, takich jak SessionStarted/Stopped, SoundStarted/Stopped.

SourceLanguageConfig

Konfiguracja języka źródłowego.

SpeakerAudioDestination

Reprezentuje miejsce docelowe odtwarzania dźwięku osoby mówiącej, które działa tylko w przeglądarce. Uwaga: zestaw SDK spróbuje użyć rozszerzeń źródła multimediów do odtwarzania dźwięku. Format Mp3 ma lepszą obsługę w przeglądarce Microsoft Edge, Chrome i Safari (na pulpicie), dlatego lepiej jest określić format mp3 do odtwarzania.

SpeakerIdentificationModel

Definiuje klasę SpeakerIdentificationModel dla modelu rozpoznawania osoby mówiącej zawiera zestaw profilów, dla których można zidentyfikować osoby mówiące

SpeakerRecognitionCancellationDetails
SpeakerRecognitionResult

Format danych wyjściowych

SpeakerRecognizer

Definiuje klasę SpeakerRecognizer dla operacji rozpoznawania osoby mówiącej na podstawie operacji profilu głosowego (np. createProfile, deleteProfile)

SpeakerVerificationModel

Definiuje klasę SpeakerVerificationModel dla modelu rozpoznawania osoby mówiącej zawiera profil umożliwiający zweryfikowanie osoby mówiącej

SpeechConfig

Konfiguracja mowy.

SpeechConfigImpl
SpeechRecognitionCanceledEventArgs
SpeechRecognitionEventArgs

Definiuje zawartość zdarzenia rozpoznawania/rozpoznawania mowy.

SpeechRecognitionResult

Definiuje wynik rozpoznawania mowy.

SpeechRecognizer

Wykonuje rozpoznawanie mowy z mikrofonu, pliku lub innych strumieni wejściowych audio i otrzymuje transkrypcję tekstu w wyniku.

SpeechSynthesisBookmarkEventArgs

Definiuje zawartość zdarzenia zakładki syntezy mowy.

SpeechSynthesisEventArgs

Definiuje zawartość zdarzeń syntezy mowy.

SpeechSynthesisResult

Definiuje wynik syntezy mowy.

SpeechSynthesisVisemeEventArgs

Definiuje zawartość zdarzenia viseme syntezy mowy.

SpeechSynthesisWordBoundaryEventArgs

Definiuje zawartość zdarzenia granic słowa syntezy mowy.

SpeechSynthesizer

Definiuje klasę SpeechSynthesizer dla zamiany tekstu na mowę. Zaktualizowano w wersji 1.16.0

SpeechTranslationConfig

Konfiguracja tłumaczenia mowy.

SynthesisResult

Klasa bazowa na potrzeby wyników syntezy

SynthesisVoicesResult

Definiuje wynik syntezy mowy.

Synthesizer
TranslationRecognitionCanceledEventArgs

Zdefiniuj ładunek anulowanych zdarzeń wyników rozpoznawania mowy.

TranslationRecognitionEventArgs

Argumenty zdarzenia wyniku tłumaczenia tekstu.

TranslationRecognitionResult

Wynik tłumaczenia tekstu.

TranslationRecognizer

Rozpoznawanie tłumaczenia

TranslationSynthesisEventArgs

Argumenty zdarzenia syntezy tłumaczenia

TranslationSynthesisResult

Definiuje wynik syntezy tłumaczenia, czyli dane wyjściowe głosu przetłumaczonego tekstu w języku docelowym.

Translations

Reprezentuje kolekcję parametrów i ich wartości.

TurnStatusReceivedEventArgs

Definiuje zawartość odebranego komunikatu/zdarzeń.

User
VoiceInfo

Informacje o głosie syntezy mowy dodane w wersji 1.20.0.

VoiceProfile

Definiuje klasę profilu głosowego na potrzeby rozpoznawania osoby mówiącej

VoiceProfileCancellationDetails
VoiceProfileClient

Definiuje klasę VoiceProfileClient dla operacji rozpoznawania osoby mówiącej na podstawie operacji profilu głosowego (np. createProfile, deleteProfile)

VoiceProfileEnrollmentCancellationDetails
VoiceProfileEnrollmentResult

Format danych wyjściowych

VoiceProfilePhraseResult

Format danych wyjściowych

VoiceProfileResult

Format danych wyjściowych

Interfejsy

CancellationEventArgs
ConversationInfo
IParticipant

Reprezentuje uczestnika konwersacji. Dodano w wersji 1.4.0

IPlayer

Reprezentuje interfejs odtwarzacza audio do kontrolowania odtwarzania dźwięku, takiego jak wstrzymywanie, wznawianie itp.

IVoiceJson
MeetingInfo
VoiceSignature

Wyliczenia

AudioFormatTag
CancellationErrorCode

Definiuje kod błędu w przypadku, gdy element CancellationReason to Błąd. Dodano w wersji 1.1.0.

CancellationReason

Definiuje możliwe przyczyny anulowania wyniku rozpoznawania.

LanguageIdMode

Tryb identyfikacji języka

LogLevel
NoMatchReason

Definiuje możliwe przyczyny, dla których wynik rozpoznawania może nie zostać rozpoznany.

OutputFormat

Zdefiniuj formaty danych wyjściowych rozpoznawania mowy.

ParticipantChangedReason
ProfanityOption

Opcja wulgaryzmów. Dodano w wersji 1.7.0.

PronunciationAssessmentGradingSystem

Definiuje system punktów do kalibracji wyniku wymowy; wartość domyślna to FivePoint. Dodano w wersji 1.15.0

PronunciationAssessmentGranularity

Definiuje stopień szczegółowości oceny wymowy; wartość domyślna to Phoneme. Dodano w wersji 1.15.0

PropertyId

Definiuje identyfikatory właściwości mowy.

ResultReason

Definiuje możliwe przyczyny wygenerowania wyniku rozpoznawania.

ServicePropertyChannel

Definiuje kanały używane do przekazywania ustawień właściwości do usługi. Dodano w wersji 1.7.0.

SpeakerRecognitionResultType
SpeechSynthesisBoundaryType

Definiuje typ granicy zdarzenia granic syntezy mowy.

SpeechSynthesisOutputFormat

Zdefiniuj formaty danych wyjściowych syntezy mowy. SpeechSynthesisOutputFormat zaktualizowano w wersji 1.17.0

VoiceProfileType

Format danych wyjściowych