microsoft-cognitiveservices-speech-sdk package
クラス
ActivityReceivedEventArgs |
受信したメッセージ/イベントの内容を定義します。 |
AudioConfig |
使用する入力の種類 (マイク、ファイル、ストリーム) を指定するために使用されるオーディオ入力構成を表します。 |
AudioInputStream |
カスタム オーディオ入力構成に使用されるオーディオ入力ストリームを表します。 |
AudioOutputStream |
カスタム オーディオ出力構成に使用されるオーディオ出力ストリームを表します。 |
AudioStreamFormat |
カスタム オーディオ入力構成に使用されるオーディオ ストリーム形式を表します。 |
AutoDetectSourceLanguageConfig |
言語自動検出の構成。 |
AutoDetectSourceLanguageResult |
出力形式 |
AvatarConfig |
話すアバターの構成を定義します。 |
AvatarEventArgs |
アバター イベントを話すコンテンツを定義します。 |
AvatarSynthesizer |
アバター シンセサイザーを定義します。 |
AvatarVideoFormat |
アバター出力ビデオ形式を定義します。 |
AvatarWebRTCConnectionResult |
アバター WebRTC 接続の結果を定義します。 |
BaseAudioPlayer |
基本オーディオ プレーヤー クラス TODO: 現在は PCM のみを再生します。 |
BotFrameworkConfig |
Bot Framework バックエンドを使用するためのダイアログ サービス コネクタ オブジェクトの構成を定義するクラス。 |
CancellationDetails |
結果が取り消された理由に関する詳細情報が含まれます。 |
CancellationDetailsBase |
結果が取り消された理由に関する詳細情報が含まれます。 |
Connection |
接続は、指定した Recognizer の音声サービスへの接続を管理するためのプロキシ クラスです。 既定では、必要に応じて、Recognizer によってサービスへの接続が自律的に管理されます。 Connection クラスは、ユーザーが接続を明示的に開いたり閉んだりしたり、接続状態の変更をサブスクライブしたりするための追加のメソッドを提供します。 Connection の使用は省略可能であり、主に接続状態に基づいてアプリケーションの動作を微調整する必要があるシナリオに使用します。 ユーザーは必要に応じて Open() を呼び出して、この接続に関連付けられている認識エンジンで認識を開始する前に、手動で接続を事前に設定できます。 認識エンジンは、サービスに接続または切断する必要がある場合、接続を個別にセットアップまたはシャットダウンします。 この場合、接続/切断されたイベントを介して接続状態の変更によって接続が通知されます。 バージョン 1.2.1 で追加されました。 |
ConnectionEventArgs |
接続/切断などの接続イベントのペイロードを定義します。 バージョン 1.2.0 で追加されました |
ConnectionMessage |
ConnectionMessage は、音声サービスとの間で送受信される実装固有のメッセージを表します。 これらのメッセージはデバッグ目的で提供され、Azure Cognitive Services Speech Service での運用環境のユース ケースには使用しないでください。 Speech Service との間で送受信されるメッセージは、予告なく変更される場合があります。 これには、メッセージの内容、ヘッダー、ペイロード、順序などが含まれます。バージョン 1.11.0 で追加されました。 |
ConnectionMessageEventArgs | |
Conversation | |
ConversationExpirationEventArgs |
SessionStarted/Stopped、SoundStarted/Stopped などのセッション イベントのコンテンツを定義します。 |
ConversationParticipantsChangedEventArgs |
SessionStarted/Stopped、SoundStarted/Stopped などのセッション イベントのコンテンツを定義します。 |
ConversationTranscriber |
マイク、ファイル、またはその他のオーディオ入力ストリームから話者を分離して音声認識を実行し、結果として文字起こしされたテキストを取得します。 |
ConversationTranscriptionCanceledEventArgs |
RecognitionErrorEvent のコンテンツを定義します。 |
ConversationTranscriptionEventArgs |
会話の文字起こし/文字起こしイベントの内容を定義します。 |
ConversationTranscriptionResult |
会話の文字起こしの結果を定義します。 |
ConversationTranslationCanceledEventArgs | |
ConversationTranslationEventArgs |
Speech Start/End Detected などのセッション イベントのペイロードを定義します |
ConversationTranslationResult |
翻訳テキストの結果。 |
ConversationTranslator |
会話に参加、脱退、または接続します。 |
Coordinate |
2D 空間で座標を定義します。 |
CustomCommandsConfig |
CustomCommands バックエンドを使用するためのダイアログ サービス コネクタ オブジェクトの構成を定義するクラス。 |
Diagnostics |
コンソール出力を管理するための診断 API を定義します。バージョン 1.21.0 で追加されました |
DialogServiceConfig |
ダイアログ サービス コネクタの基本構成を定義するクラス |
DialogServiceConnector |
ダイアログ サービス コネクタ |
IntentRecognitionCanceledEventArgs |
意図認識で取り消された結果イベントのペイロードを定義します。 |
IntentRecognitionEventArgs |
意図認識の結果イベント引数。 |
IntentRecognitionResult |
意図認識の結果。 |
IntentRecognizer |
意図認識エンジン。 |
KeywordRecognitionModel |
ユーザーが音声認識を開始するキーワード (keyword)を言ったときに認識するためのキーワード (keyword)認識モデルを表します。 |
LanguageUnderstandingModel |
言語理解モデル |
Meeting | |
MeetingTranscriber | |
MeetingTranscriptionCanceledEventArgs |
MeetingTranscriptionCanceledEvent のコンテンツを定義します。 |
MeetingTranscriptionEventArgs |
会議の文字起こし/文字起こしイベントの内容を定義します。 |
NoMatchDetails |
NoMatch 認識結果の詳細情報が含まれます。 |
Participant |
会話の参加者を表します。 バージョン 1.4.0 で追加されました |
PhraseListGrammar |
音声認識を向上させるために新しいフレーズを追加できます。 認識エンジンに追加されたフレーズは、次の認識の開始時、または次に SpeechSDK が音声サービスに再接続する必要がある場合に有効です。 |
PronunciationAssessmentConfig |
発音評価の構成。 |
PronunciationAssessmentResult |
発音評価の結果。 |
PropertyCollection |
プロパティとその値のコレクションを表します。 |
PullAudioInputStream |
カスタム オーディオ入力構成に使用されるオーディオ入力ストリームを表します。 |
PullAudioInputStreamCallback |
カスタム オーディオ入力ストリームのコールバック メソッド (read() と close()) を定義する抽象基本クラス。 |
PullAudioOutputStream |
カスタム オーディオ出力構成に使用されるメモリに基づくプッシュ オーディオ出力ストリームを表します。 |
PushAudioInputStream |
カスタム オーディオ入力構成に使用されるメモリ に基づくプッシュ オーディオ入力ストリームを表します。 |
PushAudioOutputStream |
カスタム オーディオ出力構成に使用されるオーディオ出力ストリームを表します。 |
PushAudioOutputStreamCallback |
カスタム オーディオ出力ストリームのコールバック メソッド (write() と close()) を定義する抽象基本クラス。 |
RecognitionEventArgs |
Speech Start/End Detected などのセッション イベントのペイロードを定義します |
RecognitionResult |
音声認識の結果を定義します。 |
Recognizer |
主に共通のイベント ハンドラーを含む基本クラス Recognizer を定義します。 |
ServiceEventArgs |
バージョン 1.9.0 で追加されたサービス メッセージ イベントのペイロードを定義します |
SessionEventArgs |
SessionStarted/Stopped、SoundStarted/Stopped などのセッション イベントのコンテンツを定義します。 |
SourceLanguageConfig |
ソース言語の構成。 |
SpeakerAudioDestination |
ブラウザーでのみ動作するスピーカー再生オーディオの宛先を表します。 注: SDK では、 メディア ソース拡張機能 を使用してオーディオを再生しようとします。 Mp3 形式では、Microsoft Edge、Chrome、Safari (デスクトップ) のサポートが優れているため、再生用に mp3 形式を指定することをお勧めします。 |
SpeakerIdentificationModel |
Speaker Recognition Model の SpeakerIdentificationModel クラスを定義します。このクラスには、話者を識別するためのプロファイルのセットが含まれています |
SpeakerRecognitionCancellationDetails | |
SpeakerRecognitionResult |
出力形式 |
SpeakerRecognizer |
音声プロファイル操作 (createProfile、deleteProfile など) のユーザーからの Speaker Recognition Handles 操作の SpeakerRecognizer クラスを定義します。 |
SpeakerVerificationModel |
Speaker Recognition Model の SpeakerVerificationModel クラスを定義します。このクラスには、話者を検証するためのプロファイルが含まれています |
SpeechConfig |
音声の構成。 |
SpeechConfigImpl | |
SpeechRecognitionCanceledEventArgs | |
SpeechRecognitionEventArgs |
音声認識/認識イベントの内容を定義します。 |
SpeechRecognitionResult |
音声認識の結果を定義します。 |
SpeechRecognizer |
マイク、ファイル、またはその他のオーディオ入力ストリームから音声認識を実行し、結果として文字起こしされたテキストを取得します。 |
SpeechSynthesisBookmarkEventArgs |
音声合成ブックマーク イベントの内容を定義します。 |
SpeechSynthesisEventArgs |
音声合成イベントの内容を定義します。 |
SpeechSynthesisResult |
音声合成の結果を定義します。 |
SpeechSynthesisVisemeEventArgs |
音声合成口形素イベントの内容を定義します。 |
SpeechSynthesisWordBoundaryEventArgs |
音声合成ワード境界イベントの内容を定義します。 |
SpeechSynthesizer |
テキスト読み上げ用の SpeechSynthesizer クラスを定義します。 バージョン 1.16.0 で更新されました |
SpeechTranslationConfig |
音声翻訳の構成。 |
SynthesisResult |
合成結果の基底クラス |
SynthesisVoicesResult |
音声合成の結果を定義します。 |
Synthesizer | |
TranslationRecognitionCanceledEventArgs |
音声認識で取り消された結果イベントのペイロードを定義します。 |
TranslationRecognitionEventArgs |
翻訳テキストの結果イベント引数。 |
TranslationRecognitionResult |
翻訳テキストの結果。 |
TranslationRecognizer |
翻訳認識エンジン |
TranslationSynthesisEventArgs |
変換合成イベント引数 |
TranslationSynthesisResult |
翻訳合成の結果 (ターゲット言語の翻訳されたテキストの音声出力) を定義します。 |
Translations |
パラメーターとその値のコレクションを表します。 |
TurnStatusReceivedEventArgs |
受信したメッセージ/イベントの内容を定義します。 |
User | |
VoiceInfo |
音声合成音声に関する情報バージョン 1.20.0 で追加されました。 |
VoiceProfile |
話者認識の音声プロファイル クラスを定義します |
VoiceProfileCancellationDetails | |
VoiceProfileClient |
Speaker Recognition の VoiceProfileClient クラスを定義します。音声プロファイル操作 (createProfile、deleteProfile など) のユーザーからの操作を処理します。 |
VoiceProfileEnrollmentCancellationDetails | |
VoiceProfileEnrollmentResult |
出力形式 |
VoiceProfilePhraseResult |
出力形式 |
VoiceProfileResult |
出力形式 |
インターフェイス
CancellationEventArgs | |
ConversationInfo | |
IParticipant |
会話の参加者を表します。 バージョン 1.4.0 で追加されました |
IPlayer |
一時停止、再開など、オーディオ再生を制御するオーディオ プレーヤー インターフェイスを表します。 |
IVoiceJson | |
MeetingInfo | |
VoiceSignature |
列挙型
AudioFormatTag | |
CancellationErrorCode |
CancellationReason が Error の場合のエラー コードを定義します。 バージョン 1.1.0 で追加されました。 |
CancellationReason |
認識結果が取り消される可能性がある理由を定義します。 |
LanguageIdMode |
言語識別モード |
LogLevel | |
NoMatchReason |
認識結果が認識されない可能性がある理由を定義します。 |
OutputFormat |
Speech Recognizer の出力形式を定義します。 |
ParticipantChangedReason | |
ProfanityOption |
不適切な表現オプション。 バージョン 1.7.0 で追加されました。 |
PronunciationAssessmentGradingSystem |
発音スコア調整のポイント システムを定義します。既定値は FivePoint です。 バージョン 1.15.0 で追加されました |
PronunciationAssessmentGranularity |
発音評価の粒度を定義します。既定値は Phoneme です。 バージョン 1.15.0 で追加されました |
PropertyId |
音声プロパティ ID を定義します。 |
ResultReason |
認識結果が生成される可能性がある理由を定義します。 |
ServicePropertyChannel |
プロパティ設定をサービスに渡すために使用されるチャネルを定義します。 バージョン 1.7.0 で追加されました。 |
SpeakerRecognitionResultType | |
SpeechSynthesisBoundaryType |
音声合成境界イベントの境界の種類を定義します。 |
SpeechSynthesisOutputFormat |
音声合成オーディオ出力形式を定義します。 SpeechSynthesisOutputFormat バージョン 1.17.0 で更新されました |
VoiceProfileType |
出力形式 |