microsoft-cognitiveservices-speech-sdk package
クラス
| ActivityReceivedEventArgs |
受信したメッセージ/イベントの内容を定義します。 |
| AudioConfig |
使用する入力の種類 (マイク、ファイル、ストリーム) を指定するために使用されるオーディオ入力構成を表します。 |
| AudioInputStream |
カスタム オーディオ入力構成に使用されるオーディオ入力ストリームを表します。 |
| AudioOutputStream |
カスタム オーディオ出力構成に使用されるオーディオ出力ストリームを表します。 |
| AudioStreamFormat |
カスタム オーディオ入力構成に使用されるオーディオ ストリーム形式を表します。 |
| AutoDetectSourceLanguageConfig |
言語自動検出の構成。 |
| AutoDetectSourceLanguageResult |
出力形式 |
| AvatarConfig |
話すアバターの構成を定義します。 |
| AvatarEventArgs |
アバター イベントを話すコンテンツを定義します。 |
| AvatarSynthesizer |
アバター シンセサイザーを定義します。 |
| AvatarVideoFormat |
アバター出力ビデオ形式を定義します。 |
| AvatarWebRTCConnectionResult |
アバター WebRTC 接続の結果を定義します。 |
| BaseAudioPlayer |
基本オーディオ プレーヤー クラス TODO: 現時点では PCM のみを再生します。 |
| BotFrameworkConfig |
Bot Framework バックエンドを使用するためのダイアログ サービス コネクタ オブジェクトの構成を定義するクラス。 |
| CancellationDetails |
結果が取り消された理由に関する詳細情報が含まれます。 |
| CancellationDetailsBase |
結果が取り消された理由に関する詳細情報が含まれます。 |
| Connection |
Connection は、指定した Recognizer の音声サービスへの接続を管理するためのプロキシ クラスです。 既定では、Recognizer は、必要に応じてサービスへの接続を自律的に管理します。 Connection クラスには、ユーザーが接続を明示的に開いたり閉じたりしたり、接続状態の変更をサブスクライブしたりするための追加のメソッドが用意されています。 接続の使用は省略可能であり、主に接続状態に基づいてアプリケーションの動作を微調整する必要があるシナリオに使用します。 ユーザーは必要に応じて Open() を呼び出して、この接続に関連付けられている認識エンジンで認識を開始する前に、接続を手動で事前に設定できます。 Recognizer がサービスに接続または切断する必要がある場合は、接続を個別にセットアップまたはシャットダウンします。 この場合、接続/切断されたイベントを介して接続状態の変更によって接続が通知されます。 バージョン 1.2.1 で追加されました。 |
| ConnectionEventArgs |
接続/切断などの接続イベントのペイロードを定義します。 バージョン 1.2.0 で追加されました |
| ConnectionMessage |
ConnectionMessage は、音声サービスとの間で送受信される実装固有のメッセージを表します。 これらのメッセージはデバッグ目的で提供され、Azure Cognitive Services Speech Service の運用環境のユース ケースには使用しないでください。 Speech Service との間で送受信されるメッセージは、予告なしに変更されることがあります。 これには、メッセージの内容、ヘッダー、ペイロード、順序などが含まれます。バージョン 1.11.0 で追加されました。 |
| ConnectionMessageEventArgs | |
| Conversation | |
| ConversationExpirationEventArgs |
SessionStarted/Stopped、SoundStarted/Stopped などのセッション イベントのコンテンツを定義します。 |
| ConversationParticipantsChangedEventArgs |
SessionStarted/Stopped、SoundStarted/Stopped などのセッション イベントのコンテンツを定義します。 |
| ConversationTranscriber |
マイク、ファイル、またはその他のオーディオ入力ストリームから話者を分離して音声認識を実行し、結果として文字起こしされたテキストを取得します。 |
| ConversationTranscriptionCanceledEventArgs |
RecognitionErrorEvent のコンテンツを定義します。 |
| ConversationTranscriptionEventArgs |
会話の文字起こし/文字起こしイベントの内容を定義します。 |
| ConversationTranscriptionResult |
会話の文字起こしの結果を定義します。 |
| ConversationTranslationCanceledEventArgs | |
| ConversationTranslationEventArgs |
Speech Start/End Detected などのセッション イベントのペイロードを定義します |
| ConversationTranslationResult |
翻訳テキストの結果。 |
| ConversationTranslator |
会話に参加、退出、または接続します。 |
| Coordinate |
2D 空間で座標を定義します。 |
| CustomCommandsConfig |
CustomCommands バックエンドを使用するためのダイアログ サービス コネクタ オブジェクトの構成を定義するクラス。 |
| Diagnostics |
バージョン 1.21.0 で追加されたコンソール出力を管理するための診断 API を定義します |
| DialogServiceConfig |
ダイアログ サービス コネクタの基本構成を定義するクラス |
| DialogServiceConnector |
ダイアログサービスコネクタ |
| KeywordRecognitionModel |
ユーザーがキーワードを言って音声認識を開始したときに認識するキーワード認識モデルを表します。 |
| Meeting | |
| MeetingTranscriber | |
| MeetingTranscriptionCanceledEventArgs |
MeetingTranscriptionCanceledEvent のコンテンツを定義します。 |
| MeetingTranscriptionEventArgs |
会議の文字起こし/文字起こしイベントの内容を定義します。 |
| NoMatchDetails |
NoMatch 認識結果の詳細情報が含まれています。 |
| Participant |
会話の参加者を表します。 バージョン 1.4.0 で追加されました |
| PhraseListGrammar |
音声認識を向上させるために新しいフレーズを追加できます。 認識エンジンに追加された語句は、次の認識の開始時、または次に SpeechSDK が音声サービスに再接続する必要がある場合に有効になります。 |
| PronunciationAssessmentConfig |
発音評価の構成。 |
| PronunciationAssessmentResult |
発音評価の結果。 |
| PropertyCollection |
プロパティとその値のコレクションを表します。 |
| PullAudioInputStream |
カスタム オーディオ入力構成に使用されるオーディオ入力ストリームを表します。 |
| PullAudioInputStreamCallback |
カスタム オーディオ入力ストリームのコールバック メソッド (read() と close()) を定義する抽象基本クラス。 |
| PullAudioOutputStream |
カスタム オーディオ出力構成に使用されるメモリベースのプッシュ オーディオ出力ストリームを表します。 |
| PushAudioInputStream |
カスタム オーディオ入力構成に使用されるメモリベースのプッシュ オーディオ入力ストリームを表します。 |
| PushAudioOutputStream |
カスタム オーディオ出力構成に使用されるオーディオ出力ストリームを表します。 |
| PushAudioOutputStreamCallback |
カスタム オーディオ出力ストリームのコールバック メソッド (write() と close()) を定義する抽象基本クラス。 |
| RecognitionEventArgs |
Speech Start/End Detected などのセッション イベントのペイロードを定義します |
| RecognitionResult |
音声認識の結果を定義します。 |
| Recognizer |
主に共通のイベント ハンドラーを含む基本クラス Recognizer を定義します。 |
| ServiceEventArgs |
バージョン 1.9.0 で追加されたサービス メッセージ イベントのペイロードを定義します |
| SessionEventArgs |
SessionStarted/Stopped、SoundStarted/Stopped などのセッション イベントのコンテンツを定義します。 |
| SourceLanguageConfig |
ソース言語の構成。 |
| SpeakerAudioDestination |
ブラウザーでのみ動作するスピーカー再生オーディオ変換先を表します。 注: SDK は、Media Source Extensions を使用してオーディオを再生しようとします。 Mp3 形式は、Microsoft Edge、Chrome、Safari (デスクトップ) でのサポートが向上しているため、再生用に mp3 形式を指定することをお勧めします。 |
| SpeechConfig |
音声構成。 |
| SpeechConfigImpl | |
| SpeechRecognitionCanceledEventArgs | |
| SpeechRecognitionEventArgs |
音声認識/認識イベントの内容を定義します。 |
| SpeechRecognitionResult |
音声認識の結果を定義します。 |
| SpeechRecognizer |
マイク、ファイル、またはその他のオーディオ入力ストリームから音声認識を実行し、結果として文字起こしされたテキストを取得します。 |
| SpeechSynthesisBookmarkEventArgs |
音声合成ブックマーク イベントの内容を定義します。 |
| SpeechSynthesisEventArgs |
音声合成イベントの内容を定義します。 |
| SpeechSynthesisResult |
音声合成の結果を定義します。 |
| SpeechSynthesisVisemeEventArgs |
音声合成の口形素イベントの内容を定義します。 |
| SpeechSynthesisWordBoundaryEventArgs |
音声合成ワード境界イベントの内容を定義します。 |
| SpeechSynthesizer |
テキスト読み上げ用の SpeechSynthesizer クラスを定義します。 バージョン 1.16.0 で更新されました |
| SpeechTranslationConfig |
音声翻訳の構成。 |
| SynthesisResult |
合成結果の基本クラス |
| SynthesisVoicesResult |
音声合成の結果を定義します。 |
| Synthesizer | |
| TranslationRecognitionCanceledEventArgs |
音声認識のキャンセルされた結果イベントのペイロードを定義します。 |
| TranslationRecognitionEventArgs |
翻訳テキストの結果イベント引数。 |
| TranslationRecognitionResult |
翻訳テキストの結果。 |
| TranslationRecognizer |
翻訳認識エンジン |
| TranslationSynthesisEventArgs |
変換合成イベントの引数 |
| TranslationSynthesisResult |
翻訳合成の結果 (ターゲット言語での翻訳されたテキストの音声出力) を定義します。 |
| Translations |
パラメーターとその値のコレクションを表します。 |
| TurnStatusReceivedEventArgs |
受信したメッセージ/イベントの内容を定義します。 |
| User | |
| VoiceInfo |
バージョン 1.20.0 で追加された音声合成音声に関する情報。 |
インターフェイス
| CancellationEventArgs | |
| ConversationInfo | |
| IParticipant |
会話の参加者を表します。 バージョン 1.4.0 で追加されました |
| IPlayer |
一時停止、再開など、オーディオ再生を制御するオーディオ プレーヤー インターフェイスを表します。 |
| IVoiceJson | |
| MeetingInfo | |
| VoiceSignature | |
列挙型
| AudioFormatTag | |
| CancellationErrorCode |
CancellationReason が Error の場合のエラー コードを定義します。 バージョン 1.1.0 で追加されました。 |
| CancellationReason |
認識結果が取り消される可能性がある理由を定義します。 |
| LanguageIdMode |
言語識別モード |
| LogLevel | |
| NoMatchReason |
認識結果が認識されない可能性がある理由を定義します。 |
| OutputFormat |
Speech Recognizer の出力形式を定義します。 |
| ParticipantChangedReason | |
| ProfanityOption |
不適切な表現オプション。 バージョン 1.7.0 で追加されました。 |
| PronunciationAssessmentGradingSystem |
発音スコア調整のポイント システムを定義します。既定値は FivePoint です。 バージョン 1.15.0 で追加されました |
| PronunciationAssessmentGranularity |
発音評価の粒度を定義します。既定値は Phoneme です。 バージョン 1.15.0 で追加されました |
| PropertyId |
音声プロパティ ID を定義します。 |
| ResultReason |
認識結果が生成される可能性のある理由を定義します。 |
| ServicePropertyChannel |
プロパティ設定をサービスに渡すために使用されるチャネルを定義します。 バージョン 1.7.0 で追加されました。 |
| SpeechSynthesisBoundaryType |
音声合成境界イベントの境界の種類を定義します。 |
| SpeechSynthesisOutputFormat |
音声合成オーディオ出力形式を定義します。 SpeechSynthesisOutputFormat バージョン 1.17.0 で更新 |
| SynthesisVoiceGender |
合成音声の性別を定義します。 バージョン 1.20.0 で追加されました。 |
| SynthesisVoiceType | |