次の方法で共有


microsoft-cognitiveservices-speech-sdk package

クラス

ActivityReceivedEventArgs

受信したメッセージ/イベントの内容を定義します。

AudioConfig

使用する入力の種類 (マイク、ファイル、ストリーム) を指定するために使用されるオーディオ入力構成を表します。

AudioInputStream

カスタム オーディオ入力構成に使用されるオーディオ入力ストリームを表します。

AudioOutputStream

カスタム オーディオ出力構成に使用されるオーディオ出力ストリームを表します。

AudioStreamFormat

カスタム オーディオ入力構成に使用されるオーディオ ストリーム形式を表します。

AutoDetectSourceLanguageConfig

言語自動検出の構成。

AutoDetectSourceLanguageResult

出力形式

AvatarConfig

話すアバターの構成を定義します。

AvatarEventArgs

アバター イベントを話すコンテンツを定義します。

AvatarSynthesizer

アバター シンセサイザーを定義します。

AvatarVideoFormat

アバター出力ビデオ形式を定義します。

AvatarWebRTCConnectionResult

アバター WebRTC 接続の結果を定義します。

BaseAudioPlayer

基本オーディオ プレーヤー クラス TODO: 現在は PCM のみを再生します。

BotFrameworkConfig

Bot Framework バックエンドを使用するためのダイアログ サービス コネクタ オブジェクトの構成を定義するクラス。

CancellationDetails

結果が取り消された理由に関する詳細情報が含まれます。

CancellationDetailsBase

結果が取り消された理由に関する詳細情報が含まれます。

Connection

接続は、指定した Recognizer の音声サービスへの接続を管理するためのプロキシ クラスです。 既定では、必要に応じて、Recognizer によってサービスへの接続が自律的に管理されます。 Connection クラスは、ユーザーが接続を明示的に開いたり閉んだりしたり、接続状態の変更をサブスクライブしたりするための追加のメソッドを提供します。 Connection の使用は省略可能であり、主に接続状態に基づいてアプリケーションの動作を微調整する必要があるシナリオに使用します。 ユーザーは必要に応じて Open() を呼び出して、この接続に関連付けられている認識エンジンで認識を開始する前に、手動で接続を事前に設定できます。 認識エンジンは、サービスに接続または切断する必要がある場合、接続を個別にセットアップまたはシャットダウンします。 この場合、接続/切断されたイベントを介して接続状態の変更によって接続が通知されます。 バージョン 1.2.1 で追加されました。

ConnectionEventArgs

接続/切断などの接続イベントのペイロードを定義します。 バージョン 1.2.0 で追加されました

ConnectionMessage

ConnectionMessage は、音声サービスとの間で送受信される実装固有のメッセージを表します。 これらのメッセージはデバッグ目的で提供され、Azure Cognitive Services Speech Service での運用環境のユース ケースには使用しないでください。 Speech Service との間で送受信されるメッセージは、予告なく変更される場合があります。 これには、メッセージの内容、ヘッダー、ペイロード、順序などが含まれます。バージョン 1.11.0 で追加されました。

ConnectionMessageEventArgs
Conversation
ConversationExpirationEventArgs

SessionStarted/Stopped、SoundStarted/Stopped などのセッション イベントのコンテンツを定義します。

ConversationParticipantsChangedEventArgs

SessionStarted/Stopped、SoundStarted/Stopped などのセッション イベントのコンテンツを定義します。

ConversationTranscriber

マイク、ファイル、またはその他のオーディオ入力ストリームから話者を分離して音声認識を実行し、結果として文字起こしされたテキストを取得します。

ConversationTranscriptionCanceledEventArgs

RecognitionErrorEvent のコンテンツを定義します。

ConversationTranscriptionEventArgs

会話の文字起こし/文字起こしイベントの内容を定義します。

ConversationTranscriptionResult

会話の文字起こしの結果を定義します。

ConversationTranslationCanceledEventArgs
ConversationTranslationEventArgs

Speech Start/End Detected などのセッション イベントのペイロードを定義します

ConversationTranslationResult

翻訳テキストの結果。

ConversationTranslator

会話に参加、脱退、または接続します。

Coordinate

2D 空間で座標を定義します。

CustomCommandsConfig

CustomCommands バックエンドを使用するためのダイアログ サービス コネクタ オブジェクトの構成を定義するクラス。

Diagnostics

コンソール出力を管理するための診断 API を定義します。バージョン 1.21.0 で追加されました

DialogServiceConfig

ダイアログ サービス コネクタの基本構成を定義するクラス

DialogServiceConnector

ダイアログ サービス コネクタ

IntentRecognitionCanceledEventArgs

意図認識で取り消された結果イベントのペイロードを定義します。

IntentRecognitionEventArgs

意図認識の結果イベント引数。

IntentRecognitionResult

意図認識の結果。

IntentRecognizer

意図認識エンジン。

KeywordRecognitionModel

ユーザーが音声認識を開始するキーワード (keyword)を言ったときに認識するためのキーワード (keyword)認識モデルを表します。

LanguageUnderstandingModel

言語理解モデル

Meeting
MeetingTranscriber
MeetingTranscriptionCanceledEventArgs

MeetingTranscriptionCanceledEvent のコンテンツを定義します。

MeetingTranscriptionEventArgs

会議の文字起こし/文字起こしイベントの内容を定義します。

NoMatchDetails

NoMatch 認識結果の詳細情報が含まれます。

Participant

会話の参加者を表します。 バージョン 1.4.0 で追加されました

PhraseListGrammar

音声認識を向上させるために新しいフレーズを追加できます。

認識エンジンに追加されたフレーズは、次の認識の開始時、または次に SpeechSDK が音声サービスに再接続する必要がある場合に有効です。

PronunciationAssessmentConfig

発音評価の構成。

PronunciationAssessmentResult

発音評価の結果。

PropertyCollection

プロパティとその値のコレクションを表します。

PullAudioInputStream

カスタム オーディオ入力構成に使用されるオーディオ入力ストリームを表します。

PullAudioInputStreamCallback

カスタム オーディオ入力ストリームのコールバック メソッド (read() と close()) を定義する抽象基本クラス。

PullAudioOutputStream

カスタム オーディオ出力構成に使用されるメモリに基づくプッシュ オーディオ出力ストリームを表します。

PushAudioInputStream

カスタム オーディオ入力構成に使用されるメモリ に基づくプッシュ オーディオ入力ストリームを表します。

PushAudioOutputStream

カスタム オーディオ出力構成に使用されるオーディオ出力ストリームを表します。

PushAudioOutputStreamCallback

カスタム オーディオ出力ストリームのコールバック メソッド (write() と close()) を定義する抽象基本クラス。

RecognitionEventArgs

Speech Start/End Detected などのセッション イベントのペイロードを定義します

RecognitionResult

音声認識の結果を定義します。

Recognizer

主に共通のイベント ハンドラーを含む基本クラス Recognizer を定義します。

ServiceEventArgs

バージョン 1.9.0 で追加されたサービス メッセージ イベントのペイロードを定義します

SessionEventArgs

SessionStarted/Stopped、SoundStarted/Stopped などのセッション イベントのコンテンツを定義します。

SourceLanguageConfig

ソース言語の構成。

SpeakerAudioDestination

ブラウザーでのみ動作するスピーカー再生オーディオの宛先を表します。 注: SDK では、 メディア ソース拡張機能 を使用してオーディオを再生しようとします。 Mp3 形式では、Microsoft Edge、Chrome、Safari (デスクトップ) のサポートが優れているため、再生用に mp3 形式を指定することをお勧めします。

SpeakerIdentificationModel

Speaker Recognition Model の SpeakerIdentificationModel クラスを定義します。このクラスには、話者を識別するためのプロファイルのセットが含まれています

SpeakerRecognitionCancellationDetails
SpeakerRecognitionResult

出力形式

SpeakerRecognizer

音声プロファイル操作 (createProfile、deleteProfile など) のユーザーからの Speaker Recognition Handles 操作の SpeakerRecognizer クラスを定義します。

SpeakerVerificationModel

Speaker Recognition Model の SpeakerVerificationModel クラスを定義します。このクラスには、話者を検証するためのプロファイルが含まれています

SpeechConfig

音声の構成。

SpeechConfigImpl
SpeechRecognitionCanceledEventArgs
SpeechRecognitionEventArgs

音声認識/認識イベントの内容を定義します。

SpeechRecognitionResult

音声認識の結果を定義します。

SpeechRecognizer

マイク、ファイル、またはその他のオーディオ入力ストリームから音声認識を実行し、結果として文字起こしされたテキストを取得します。

SpeechSynthesisBookmarkEventArgs

音声合成ブックマーク イベントの内容を定義します。

SpeechSynthesisEventArgs

音声合成イベントの内容を定義します。

SpeechSynthesisResult

音声合成の結果を定義します。

SpeechSynthesisVisemeEventArgs

音声合成口形素イベントの内容を定義します。

SpeechSynthesisWordBoundaryEventArgs

音声合成ワード境界イベントの内容を定義します。

SpeechSynthesizer

テキスト読み上げ用の SpeechSynthesizer クラスを定義します。 バージョン 1.16.0 で更新されました

SpeechTranslationConfig

音声翻訳の構成。

SynthesisResult

合成結果の基底クラス

SynthesisVoicesResult

音声合成の結果を定義します。

Synthesizer
TranslationRecognitionCanceledEventArgs

音声認識で取り消された結果イベントのペイロードを定義します。

TranslationRecognitionEventArgs

翻訳テキストの結果イベント引数。

TranslationRecognitionResult

翻訳テキストの結果。

TranslationRecognizer

翻訳認識エンジン

TranslationSynthesisEventArgs

変換合成イベント引数

TranslationSynthesisResult

翻訳合成の結果 (ターゲット言語の翻訳されたテキストの音声出力) を定義します。

Translations

パラメーターとその値のコレクションを表します。

TurnStatusReceivedEventArgs

受信したメッセージ/イベントの内容を定義します。

User
VoiceInfo

音声合成音声に関する情報バージョン 1.20.0 で追加されました。

VoiceProfile

話者認識の音声プロファイル クラスを定義します

VoiceProfileCancellationDetails
VoiceProfileClient

Speaker Recognition の VoiceProfileClient クラスを定義します。音声プロファイル操作 (createProfile、deleteProfile など) のユーザーからの操作を処理します。

VoiceProfileEnrollmentCancellationDetails
VoiceProfileEnrollmentResult

出力形式

VoiceProfilePhraseResult

出力形式

VoiceProfileResult

出力形式

インターフェイス

CancellationEventArgs
ConversationInfo
IParticipant

会話の参加者を表します。 バージョン 1.4.0 で追加されました

IPlayer

一時停止、再開など、オーディオ再生を制御するオーディオ プレーヤー インターフェイスを表します。

IVoiceJson
MeetingInfo
VoiceSignature

列挙型

AudioFormatTag
CancellationErrorCode

CancellationReason が Error の場合のエラー コードを定義します。 バージョン 1.1.0 で追加されました。

CancellationReason

認識結果が取り消される可能性がある理由を定義します。

LanguageIdMode

言語識別モード

LogLevel
NoMatchReason

認識結果が認識されない可能性がある理由を定義します。

OutputFormat

Speech Recognizer の出力形式を定義します。

ParticipantChangedReason
ProfanityOption

不適切な表現オプション。 バージョン 1.7.0 で追加されました。

PronunciationAssessmentGradingSystem

発音スコア調整のポイント システムを定義します。既定値は FivePoint です。 バージョン 1.15.0 で追加されました

PronunciationAssessmentGranularity

発音評価の粒度を定義します。既定値は Phoneme です。 バージョン 1.15.0 で追加されました

PropertyId

音声プロパティ ID を定義します。

ResultReason

認識結果が生成される可能性がある理由を定義します。

ServicePropertyChannel

プロパティ設定をサービスに渡すために使用されるチャネルを定義します。 バージョン 1.7.0 で追加されました。

SpeakerRecognitionResultType
SpeechSynthesisBoundaryType

音声合成境界イベントの境界の種類を定義します。

SpeechSynthesisOutputFormat

音声合成オーディオ出力形式を定義します。 SpeechSynthesisOutputFormat バージョン 1.17.0 で更新されました

VoiceProfileType

出力形式