次の方法で共有


名前空間 Microsoft::CognitiveServices::Speech

まとめ

メンバー 説明
enum PropertyId 音声プロパティ ID を定義します。 バージョン 1.4.0 で変更されました。
enum OutputFormat 出力形式。
enum ProfanityOption 不適切な表現 (悪口) を削除するか、不適切な単語の文字を星で置き換えます。 バージョン 1.5.0 で追加されました。
enum ResultReason 認識結果が生成される可能性がある理由を指定します。
enum CancellationReason 認識結果が取り消される可能性がある理由を定義します。
enum CancellationErrorCode CancellationReason が Error の場合のエラー コードを定義します。 バージョン 1.1.0 で追加されました。
enum NoMatchReason 認識結果が認識されない可能性がある理由を定義します。
enum ActivityJSONType アクティビティ json 値に使用できる型を定義します。 バージョン 1.5.0 で追加されました。
enum SpeechSynthesisOutputFormat 可能な音声合成出力オーディオ形式を定義します。 バージョン 1.19.0 で更新されました。
enum StreamStatus オーディオ データ ストリームの使用可能な状態を定義します。 バージョン 1.4.0 で追加されました。
enum ServicePropertyChannel プロパティ設定をサービスに渡すために使用されるチャネルを定義します。 バージョン 1.5.0 で追加されました。
enum VoiceProfileType 音声プロファイルの種類を定義します。
enum RecognitionFactorScope 認識係数を適用するスコープを定義します。
enum PronunciationAssessmentGradingSystem 発音スコア調整のポイント システムを定義します。既定値は FivePoint です。 バージョン 1.14.0 で追加されました。
enum PronunciationAssessmentGranularity 発音評価の粒度を定義します。既定値は Phoneme です。 バージョン 1.14.0 で追加されました。
enum SynthesisVoiceType バージョン 1.16.0 で追加された合成音声の種類を定義します。
enum SynthesisVoiceGender バージョン 1.17.0 で追加された合成音声の性別を定義します。
enum SpeechSynthesisBoundaryType バージョン 1.21.0 で追加された音声合成境界イベントの境界の種類を定義します。
クラス AsyncRecognizer AsyncRecognizer 抽象基本クラス。
AudioDataStream クラス オーディオ データをストリームとして操作するために使用されるオーディオ データ ストリームを表します。 バージョン 1.4.0 で追加されました。
クラス AutoDetectSourceLanguageConfig 自動検出ソース構成を定義するクラス 1.13.0 で更新されました。
クラス AutoDetectSourceLanguageResult 自動検出されたソース言語の結果が含まれています。1.8.0 に追加されました。
クラス BaseAsyncRecognizer BaseAsyncRecognizer クラス。
クラス CancellationDetails 結果が取り消された理由に関する詳細情報が含まれます。
class ClassLanguageModel 動的な文法シナリオの文法の一覧を表します。 バージョン 1.7.0 で追加されました。
クラス Connection 接続は、指定した Recognizer の音声サービスへの接続を管理するためのプロキシ クラスです。 既定では、必要に応じて、Recognizer によってサービスへの接続が自律的に管理されます。 Connection クラスは、ユーザーが接続を明示的に開いたり閉んだりしたり、接続状態の変更をサブスクライブしたりするための追加のメソッドを提供します。 Connection の使用は省略可能です。 これは、接続状態に基づいてアプリケーションの動作を微調整する必要があるシナリオを対象としています。 ユーザーは必要に応じて Open() を呼び出して、この接続に関連付けられている認識エンジンで認識を開始する前に、サービス接続を手動で開始できます。 認識を開始すると、Open() または Close() の呼び出しが失敗する可能性があります。 これは、認識エンジンや進行中の認識には影響しません。 さまざまな理由で接続が切断される可能性があります。認識エンジンは、継続的な操作を保証するために、必要に応じて常に接続の再確立を試みます。 これらすべての場合、接続/切断されたイベントは、接続状態の変更を示します。 バージョン 1.17.0 で更新されました。
ConnectionEventArgs クラス ConnectionEvent のデータを提供します。 バージョン 1.2.0 で追加されました。
ConnectionMessage クラス ConnectionMessage は、音声サービスとの間で送受信される実装固有のメッセージを表します。 これらのメッセージはデバッグ目的で提供され、Azure Cognitive Services Speech Service での運用環境のユース ケースには使用しないでください。 Speech Service との間で送受信されるメッセージは、予告なく変更される場合があります。 これには、メッセージの内容、ヘッダー、ペイロード、順序などが含まれます。バージョン 1.10.0 で追加されました。
ConnectionMessageEventArgs クラス ConnectionMessageEvent のデータを提供します。
EmbeddedSpeechConfig クラス 埋め込み (オフライン) 音声構成を定義するクラス。
クラス EventArgs イベント引数の基本クラス。
クラス EventSignal クライアントはイベント信号に接続してイベントを受信したり、イベント信号から切断してイベントの受信を停止したりできます。
クラス EventSignalBase クライアントはイベント信号に接続してイベントを受信したり、イベント信号から切断してイベントの受信を停止したりできます。
クラス文法 音声認識をカスタマイズするための基本クラスの文法を表します。 バージョン 1.5.0 で追加されました。
クラス GrammarList 動的な文法シナリオの文法の一覧を表します。 バージョン 1.7.0 で追加されました。
クラス GrammarPhrase ユーザーが読み上げることができる語句を表します。 バージョン 1.5.0 で追加されました。
HybridSpeechConfig クラス 音声認識または音声合成用のハイブリッド (クラウドおよび埋め込み) 構成を定義するクラス。
クラス KeywordRecognitionEventArgs KeywordRecognizer によって送信されたイベントのクラス。
class KeywordRecognitionModel StartKeywordRecognitionAsync メソッドキーワード (keyword)使用される認識モデルを表します。
クラス KeywordRecognitionResult KeywordRecognizer によって出力される結果を定義する クラス。
クラス KeywordRecognizer アクティブ化のみを処理するために特化された認識エンジンの種類キーワード (keyword)。
クラス NoMatchDetails NoMatch 認識結果の詳細情報が含まれます。
クラス PhraseListGrammar 動的文法シナリオのフレーズ リスト文法を表します。 バージョン 1.5.0 で追加されました。
クラスの発音AssessmentConfig 発音評価の構成を定義するクラス 1.14.0 に追加されました。
クラスの発音AssessmentResult 発音評価結果のクラス。
クラスの発音ContentAssessmentResult コンテンツ評価結果のクラス。
クラス PropertyCollection プロパティ コレクションからプロパティ値を取得または設定するクラス。
RecognitionEventArgs クラス RecognitionEvent のデータを提供します。
RecognitionResult クラス 認識操作の結果に関する詳細情報が含まれます。
クラス Recognizer Recognizer 基本クラス。
SessionEventArgs クラス セッション イベント引数の基本クラス。
SmartHandle クラス スマート ハンドル クラス。
SourceLanguageConfig クラス 1.8.0 で追加されたソース言語の構成を定義するクラス。
クラス SourceLanguageRecognizer ソース言語認識エンジンのクラス。 このクラスは、スタンドアロン言語の検出に使用できます。 バージョン 1.17.0 で追加されました。
SpeechConfig クラス 音声/意図認識、または音声合成の構成を定義するクラス。
SpeechRecognitionCanceledEventArgs クラス 音声認識のクラスがイベント引数を取り消しました。
SpeechRecognitionEventArgs クラス 音声認識イベント引数のクラス。
SpeechRecognitionModel クラス 音声認識モデル情報。
SpeechRecognitionResult クラス 音声認識結果の基本クラス。
SpeechRecognizer クラス 音声認識エンジンのクラス。
SpeechSynthesisBookmarkEventArgs クラス 音声合成ブックマーク イベント引数のクラス。 バージョン 1.16.0 で追加されました。
Class SpeechSynthesisCancellationDetails 結果が取り消された理由に関する詳細情報が含まれます。 バージョン 1.4.0 で追加されました。
SpeechSynthesisEventArgs クラス 音声合成イベント引数のクラス。 バージョン 1.4.0 で追加されました。
SpeechSynthesisResult クラス テキスト読み上げ合成の結果に関する情報が含まれます。 バージョン 1.4.0 で追加されました。
SpeechSynthesisVisemeEventArgs クラス 音声合成の口形素イベント引数のクラス。 バージョン 1.16.0 で追加されました。
SpeechSynthesisWordBoundaryEventArgs クラス 音声合成ワード境界イベント引数のクラス。 バージョン 1.7.0 で追加されました。
SpeechSynthesizer クラス 音声シンセサイザーのクラス。 バージョン 1.14.0 で更新されました。
SpeechTranslationModel クラス 音声翻訳モデル情報。
クラス SynthesisVoicesResult 音声シンセサイザーの音声リストからの結果に関する情報が含まれます。 バージョン 1.16.0 で追加されました。
クラス VoiceInfo バージョン 1.17.0 で更新された合成音声情報に関する情報が含まれています。

メンバー

enum PropertyId

説明
SpeechServiceConnection_Key Cognitive Services Speech Service サブスクリプション キー。 意図認識エンジンを使用している場合は、特定の LUIS アプリの LUIS エンドポイント キーを指定する必要があります。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::FromSubscription を使用します
SpeechServiceConnection_Endpoint Cognitive Services Speech Service エンドポイント (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::FromEndpoint を使用します。 注: このエンドポイントは、アクセス トークンの取得に使用されるエンドポイントと同じではありません。
SpeechServiceConnection_Region Cognitive Services Speech Service リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::FromSubscriptionSpeechConfig::FromEndpointSpeechConfig::FromHostSpeechConfig::FromAuthorizationToken を使用します。
SpeechServiceAuthorization_Token Cognitive Services Speech Service 承認トークン (アクセス トークンとも呼ばれます)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::FromAuthorizationTokenSpeechRecognizer::SetAuthorizationToken、IntentRecognizer::SetAuthorizationToken、TranslationRecognizer::SetAuthorizationToken を使用します。
SpeechServiceAuthorization_Type Cognitive Services Speech Service 承認の種類。 現在使用されていません。
SpeechServiceConnection_EndpointId Cognitive Services Custom Speech または Custom Voice Service エンドポイント ID。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SpeechConfig::SetEndpointId を使用します。 注: エンドポイント ID は、[エンドポイントの詳細] の下に表示されている Custom Speech ポータルで使用できます。
SpeechServiceConnection_Host Cognitive Services Speech Service ホスト (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::FromHost を使用します。
SpeechServiceConnection_ProxyHostName Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのホスト名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::SetProxy を使用します。 注: このプロパティ ID は、バージョン 1.1.0 で追加されました。
SpeechServiceConnection_ProxyPort Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのポート。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::SetProxy を使用します。 注: このプロパティ ID は、バージョン 1.1.0 で追加されました。
SpeechServiceConnection_ProxyUserName Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのユーザー名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::SetProxy を使用します。 注: このプロパティ ID は、バージョン 1.1.0 で追加されました。
SpeechServiceConnection_ProxyPassword Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのパスワード。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::SetProxy を使用します。 注: このプロパティ ID は、バージョン 1.1.0 で追加されました。
SpeechServiceConnection_Url 音声構成から構築された URL 文字列。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 注: バージョン 1.5.0 で追加されました。
SpeechServiceConnection_TranslationToLanguages ターゲット翻訳言語として使用されるコンマ区切り言語の一覧。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechTranslationConfig::AddTargetLanguage と SpeechTranslationConfig::GetTargetLanguages を使用します。
SpeechServiceConnection_TranslationVoice Cognitive Service Text to Speech Service 音声の名前。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、SpeechTranslationConfig::SetVoiceName を使用します。 注: 有効な音声名については、 こちらを参照してください
SpeechServiceConnection_TranslationFeatures 翻訳機能。 内部使用です。
SpeechServiceConnection_IntentRegion Language Understanding サービス リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに LanguageUnderstandingModel を使用します。
SpeechServiceConnection_RecoMode Cognitive Services Speech Service 認識モード。 "INTERACTIVE"、"CONVERSATION"、"DICTATION" を指定できます。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。
SpeechServiceConnection_RecoLanguage 認識される音声言語 (BCP-47 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig::SetSpeechRecognitionLanguage を使用します。
Speech_SessionId セッション ID。この ID は、オーディオ入力ストリームと、それがバインドされている基になる音声認識インスタンスの特定のバインドを表す汎用一意識別子 (UUID) です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに 、SessionEventArgs::SessionId を使用します
SpeechServiceConnection_UserDefinedQueryParameters ユーザーによって提供されるクエリ パラメーター。 これらは、URL クエリ パラメーターとしてサービスに渡されます。 バージョン 1.5.0 で追加されました。
SpeechServiceConnection_RecoBackend 音声認識に使用するバックエンドを指定する文字列。許可されているオプションはオンラインとオフラインです。 通常の状況では、このプロパティを直接使用しないでください。 現在、オフライン オプションは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_RecoModelName 音声認識に使用するモデルの名前。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_RecoModelKey 音声認識に使用するモデルの復号化キー。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_RecoModelIniFile 音声認識に使用するモデルの ini ファイルへのパス。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_SynthLanguage 合成する音声言語 (en-US など) がバージョン 1.4.0 で追加されました。
SpeechServiceConnection_SynthVoice 音声合成に使用する TTS 音声の名前がバージョン 1.4.0 で追加されました。
SpeechServiceConnection_SynthOutputFormat バージョン 1.4.0 で追加された TTS 出力オーディオ形式を指定する文字列。
SpeechServiceConnection_SynthEnableCompressedAudioTransmission 音声合成オーディオ送信に圧縮オーディオ形式を使用するかどうかを示します。 このプロパティは、SpeechServiceConnection_SynthOutputFormatが pcm 形式に設定されている場合にのみ影響します。 このプロパティが設定されておらず、GStreamer が使用可能な場合、SDK では合成オーディオ転送に圧縮形式が使用され、デコードされます。 このプロパティを "false" に設定すると、ネットワーク上の伝送に生の pcm 形式を使用できます。 バージョン 1.16.0 で追加されました。
SpeechServiceConnection_SynthBackend TTS バックエンドを指定する文字列。有効なオプションはオンラインとオフラインです。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 EmbeddedSpeechConfig::FromPath または EmbeddedSpeechConfig::FromPaths を使用して、合成バックエンドをオフラインに設定します。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_SynthOfflineDataPath オフライン合成エンジンのデータ ファイル パス。は、合成バックエンドがオフラインの場合にのみ有効です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 EmbeddedSpeechConfig::FromPath または EmbeddedSpeechConfig::FromPaths を使用します。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_SynthOfflineVoice 音声合成に使用するオフライン TTS 音声の名前 通常の状況では、このプロパティを直接使用しないでください。 代わりに、 EmbeddedSpeechConfig::SetSpeechSynthesisVoiceEmbeddedSpeechConfig::GetSpeechSynthesisVoiceName を使用します。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_SynthModelKey 音声合成に使用する音声の復号化キー。 通常の状況では、このプロパティを直接使用しないでください。 代わりに、 EmbeddedSpeechConfig::SetSpeechSynthesisVoice を使用します。 バージョン 1.19.0 で追加されました。
SpeechServiceConnection_VoicesListEndpoint Cognitive Services Speech Service の音声リスト API エンドポイント (URL)。 通常の状況では、このプロパティを指定する必要はありません。SDK は SpeechConfig のリージョン/ホスト/エンドポイントに基づいてそれを構築します。 バージョン 1.16.0 で追加されました。
SpeechServiceConnection_InitialSilenceTimeoutMs サービスで使用される初期無音タイムアウト値 (ミリ秒単位)。 バージョン 1.5.0 で追加されました。
SpeechServiceConnection_EndSilenceTimeoutMs サービスで使用される終了無音タイムアウト値 (ミリ秒単位)。 バージョン 1.5.0 で追加されました。
SpeechServiceConnection_EnableAudioLogging サービスでオーディオ ログを有効にするかどうかを指定するブール値。 オーディオ ログとコンテンツ ログは、Microsoft が所有するストレージ、または Cognitive Services サブスクリプションにリンクされている独自のストレージ アカウント (Bring Your Own Storage (BYOS) 対応 Speech リソース) のいずれかに格納されます。 バージョン 1.5.0 で追加されました。
SpeechServiceConnection_LanguageIdMode 音声サービス接続言語識別子モード。 "AtStart" (既定値) または "Continuous" を指定できます。 言語識別に関するドキュメントを参照してください。 1.25.0 で追加されました。
SpeechServiceConnection_AutoDetectSourceLanguages バージョン 1.8.0 で追加されたソース言語の自動検出。
SpeechServiceConnection_AutoDetectSourceLanguageResult ソース言語の自動検出の結果がバージョン 1.8.0 で追加されました。
SpeechServiceResponse_RequestDetailedResultTrueFalse 要求された Cognitive Services Speech Service 応答出力形式 (単純または詳細)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SpeechConfig::SetOutputFormat を使用します。
SpeechServiceResponse_RequestProfanityFilterTrueFalse 要求された Cognitive Services Speech Service 応答出力の不適切なレベル。 現在使用されていません。
SpeechServiceResponse_ProfanityOption 要求された Cognitive Services Speech Service 応答出力の不適切な設定。 使用できる値は、"masked"、"removed"、"raw" です。 バージョン 1.5.0 で追加されました。
SpeechServiceResponse_PostProcessingOption サービスで使用する後処理オプションを指定する文字列値。 使用できる値は "TrueText" です。 バージョン 1.5.0 で追加されました。
SpeechServiceResponse_RequestWordLevelTimestamps 応答結果に単語レベルのタイムスタンプを含めるかどうかを指定するブール値。 バージョン 1.5.0 で追加されました。
SpeechServiceResponse_StablePartialResultThreshold 単語が部分的な結果になる必要がある回数を返します。 バージョン 1.5.0 で追加されました。
SpeechServiceResponse_OutputFormatOption 応答結果の出力形式オプションを指定する文字列値。 内部使用のみです。 バージョン 1.5.0 で追加されました。
SpeechServiceResponse_RequestSnr 応答結果に SNR (信号対ノイズ比) を含めるかどうかを指定するブール値。 バージョン 1.18.0 で追加されました。
SpeechServiceResponse_TranslationRequestStablePartialResult 末尾の単語を省略して翻訳の一部の結果を安定させるために要求するブール値。 バージョン 1.5.0 で追加されました。
SpeechServiceResponse_RequestWordBoundary WordBoundary イベントを要求するかどうかを指定するブール値。 バージョン 1.21.0 で追加されました。
SpeechServiceResponse_RequestPunctuationBoundary WordBoundary イベントで句読点の境界を要求するかどうかを指定するブール値。 既定値は true です。 バージョン 1.21.0 で追加されました。
SpeechServiceResponse_RequestSentenceBoundary WordBoundary イベントで文の境界を要求するかどうかを指定するブール値。 既定値は false です。 バージョン 1.21.0 で追加されました。
SpeechServiceResponse_SynthesisEventsSyncToAudio SDK が合成メタデータ イベント (単語の境界、口形素など) をオーディオ再生に同期するかどうかを指定するブール値。 これは、オーディオが SDK を介して再生される場合にのみ有効になります。 既定値は true です。 false に設定すると、SDK はサービスからのイベントを発生させます。これは、オーディオ再生と同期していない可能性があります。 バージョン 1.31.0 で追加されました。
SpeechServiceResponse_JsonResult Cognitive Services Speech Service 応答出力 (JSON 形式)。 このプロパティは、認識結果オブジェクトでのみ使用できます。
SpeechServiceResponse_JsonErrorDetails Cognitive Services Speech Service エラーの詳細 (JSON 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 CancellationDetails::ErrorDetails を使用します。
SpeechServiceResponse_RecognitionLatencyMs 認識待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声/翻訳/意図の結果で使用できます。 これにより、SDK でオーディオ入力を受信してから、サービスから最終的な結果を受信するまでの待機時間が測定されます。 SDK は、最終的な結果に寄与しているオーディオ入力の最後のオーディオ フラグメントと、音声サービスから最終的な結果を受信した時刻の時間差を計算します。 バージョン 1.3.0 で追加されました。
SpeechServiceResponse_RecognitionBackend 認識バックエンド。 読み取り専用。音声認識結果で使用できます。 これは、クラウド (オンライン) または埋め込み (オフライン) 認識を使用して結果を生成したかどうかを示します。
SpeechServiceResponse_SynthesisFirstByteLatencyMs 音声合成の最初のバイト待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始され、最初のバイト オーディオが使用可能になった瞬間までの待機時間が測定されます。 バージョン 1.17.0 で追加されました。
SpeechServiceResponse_SynthesisFinishLatencyMs 音声合成のすべてのバイト待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始されたときと、オーディオ全体が合成された瞬間までの待機時間が測定されます。 バージョン 1.17.0 で追加されました。
SpeechServiceResponse_SynthesisUnderrunTimeMs 音声合成のアンダーラン時間 (ミリ秒単位)。 読み取り専用。SynthesisCompleted イベントの結果で使用できます。 これにより、合成が完了するまでの PropertyId::AudioConfig_PlaybackBufferLengthInMs からのアンダーラン時間の合計が測定されます。 バージョン 1.17.0 で追加されました。
SpeechServiceResponse_SynthesisConnectionLatencyMs 音声合成接続の待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始され、HTTP/WebSocket 接続が確立された時点までの待機時間が測定されます。 バージョン 1.26.0 で追加されました。
SpeechServiceResponse_SynthesisNetworkLatencyMs 音声合成ネットワークの待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、ネットワークのラウンド トリップ時間が測定されます。 バージョン 1.26.0 で追加されました。
SpeechServiceResponse_SynthesisServiceLatencyMs 音声合成サービスの待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、オーディオの最初のバイトを合成するためのサービス処理時間が測定されます。 バージョン 1.26.0 で追加されました。
SpeechServiceResponse_SynthesisBackend 合成が完了したバックエンドを示します。 読み取り専用。音声合成結果で使用できます。ただし、SynthesisStarted イベントの結果を除き、バージョン 1.17.0 で追加されました。
CancellationDetails_Reason 取り消しの理由。 現在使用されていません。
CancellationDetails_ReasonText 取り消しテキスト。 現在使用されていません。
CancellationDetails_ReasonDetailedText 取り消しの詳細なテキスト。 現在使用されていません。
LanguageUnderstandingServiceResponse_JsonResult Language Understanding サービス応答出力 (JSON 形式)。 IntentRecognitionResult.Properties を使用して使用できます。
AudioConfig_DeviceNameForCapture オーディオ キャプチャのデバイス名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、AudioConfig::FromMicrophoneInput を使用します。 注: このプロパティ ID は、バージョン 1.3.0 で追加されました。
AudioConfig_NumberOfChannelsForCapture オーディオ キャプチャ用のチャネルの数。 内部使用のみです。 注: このプロパティ ID は、バージョン 1.3.0 で追加されました。
AudioConfig_SampleRateForCapture オーディオ キャプチャのサンプル レート (Hz 単位)。 内部使用のみです。 注: このプロパティ ID は、バージョン 1.3.0 で追加されました。
AudioConfig_BitsPerSampleForCapture オーディオ キャプチャ用の各サンプルのビット数。 内部使用のみです。 注: このプロパティ ID は、バージョン 1.3.0 で追加されました。
AudioConfig_AudioSource オーディオ ソース。 使用できる値は、"Microphones"、"File"、および "Stream" です。 バージョン 1.3.0 で追加されました。
AudioConfig_DeviceNameForRender オーディオ レンダリングのデバイス名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、AudioConfig::FromSpeakerOutput を使用します。 バージョン 1.14.0 で追加されました。
AudioConfig_PlaybackBufferLengthInMs 再生バッファーの長さ (ミリ秒)、既定値は 50 ミリ秒です。
AudioConfig_AudioProcessingOptions JSON 形式のオーディオ処理オプション。
Speech_LogFilename ログを書き込むファイル名。 バージョン 1.4.0 で追加されました。
Speech_SegmentationSilenceTimeoutMs 検出された無音の継続時間 (ミリ秒単位)。 その後、音声テキスト変換によって音声フレーズが終了したと判断され、最終的な Recognized 結果が生成されます。 このタイムアウトを構成すると、音声入力が通常よりも大幅に高速または低速になり、既定のセグメント化動作によって長すぎる、または短すぎる結果が一貫して生成される状況で役立つ場合があります。 セグメント化タイムアウト値が不適切に高いか低い場合は、音声テキスト変換の精度に悪影響を及ぼす可能性があります。このプロパティは慎重に構成し、結果の動作を意図したとおりに徹底的に検証する必要があります。
Conversation_ApplicationId バックエンド サービスへの接続に使用される識別子。 バージョン 1.5.0 で追加されました。
Conversation_DialogType 接続するダイアログ バックエンドの種類。 バージョン 1.7.0 で追加されました。
Conversation_Initial_Silence_Timeout リッスンの無音タイムアウト バージョン 1.5.0 で追加されました。
Conversation_From_Id 音声認識アクティビティで使用する ID から、バージョン 1.5.0 で追加されました。
Conversation_Conversation_Id セッションの ConversationId。 バージョン 1.8.0 で追加されました。
Conversation_Custom_Voice_Deployment_Ids カスタム音声展開 ID のコンマ区切りの一覧。 バージョン 1.8.0 で追加されました。
Conversation_Speech_Activity_Template 音声アクティビティ テンプレート。音声用にサービスによって生成されたアクティビティのテンプレート内のプロパティをスタンプします。 バージョン 1.10.0 で追加されました。
Conversation_ParticipantId 現在の会話の参加者識別子。 バージョン 1.13.0 で追加されました。
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp Pull/Push オーディオ入力ストリームを使用するときにクライアントによって書き込まれたデータ バッファーに関連付けられたタイム スタンプ。 タイムスタンプは、解像度が 90 kHz の 64 ビット値です。 これは、MPEG トランスポート ストリームのプレゼンテーション タイムスタンプと同じです。 「バージョン 1.5.0 で追加されました」を参照してください https://en.wikipedia.org/wiki/Presentation_timestamp
DataBuffer_UserId Pull/Push オーディオ入力ストリームを使用するときにクライアントによって書き込まれたデータ バッファーに関連付けられているユーザー ID。 バージョン 1.5.0 で追加されました。
PronunciationAssessment_ReferenceText 発音評価用のオーディオの参照テキスト。 このパラメーターと次の発音評価パラメーターについては、 発音評価パラメーターの表を参照してください。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::Create または PronunciationAssessmentConfig::SetReferenceText を使用します。 バージョン 1.14.0 で追加されました。
PronunciationAssessment_GradingSystem 発音スコア調整のポイント システム (FivePoint または HundredMark)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::Create を使用します。 バージョン 1.14.0 で追加されました。
PronunciationAssessment_Granularity 発音評価の粒度 (音素、Word、または FullText)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::Create を使用します。 バージョン 1.14.0 で追加されました。
PronunciationAssessment_EnableMiscue 誤った計算を有効にするかどうかを定義します。 これを有効にすると、発音された単語が参照テキストと比較され、比較に基づいて省略または挿入がマークされます。 既定の設定は [False] です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::Create を使用します。 バージョン 1.14.0 で追加されました。
PronunciationAssessment_PhonemeAlphabet 発音評価音素アルファベット。 有効な値は "SAPI" (既定値) と "IPA" です。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::SetPhonemeAlphabet を使用します。 バージョン 1.20.0 で追加されました。
PronunciationAssessment_NBestPhonemeCount 発音評価 nbest 音素数。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::SetNBestPhonemeCount を使用します。 バージョン 1.20.0 で追加されました。
PronunciationAssessment_EnableProsodyAssessment プロソディ評価を有効にするかどうか。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::EnableProsodyAssessment を使用します。 バージョン 1.33.0 で追加されました。
PronunciationAssessment_Json 発音評価パラメーターの json 文字列 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::Create を使用します。 バージョン 1.14.0 で追加されました。
PronunciationAssessment_Params 発音評価パラメーター。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 バージョン 1.14.0 で追加されました。
PronunciationAssessment_ContentTopic 発音評価のコンテンツ トピック。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 PronunciationAssessmentConfig::EnableContentAssessmentWithTopic を使用します。 バージョン 1.33.0 で追加されました。
SpeakerRecognition_Api_Version Speaker Recognition バックエンド API のバージョン。 このプロパティは、以前のバージョンの Speaker Recognition API (該当する場合) のテストと使用を可能にするために追加されます。 バージョン 1.18.0 で追加されました。
SpeechTranslation_ModelName 音声翻訳に使用するモデルの名前。 このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。
SpeechTranslation_ModelKey 音声翻訳に使用するモデルの復号化キー。 このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。
KeywordRecognition_ModelName キーワード (keyword)認識に使用するモデルの名前。 このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。
KeywordRecognition_ModelKey キーワード (keyword)認識に使用するモデルの復号化キー。 このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。
EmbeddedSpeech_EnablePerformanceMetrics 埋め込み音声を使用するデバイスの機能を評価するために使用できる埋め込み音声パフォーマンス メトリックのコレクションを有効にします。 収集されたデータは、音声認識などの特定のシナリオの結果に含まれます。 既定の設定は "false" です。 すべての埋め込み音声シナリオでメトリックを使用できない場合があることに注意してください。

音声プロパティ ID を定義します。 バージョン 1.4.0 で変更されました。

enum OutputFormat

説明
シンプル
詳細

出力形式。

enum ProfanityOption

説明
[マスク] 不適切な単語の文字をstar文字に置き換えます。
削除済み 不適切な単語を削除します。
Raw 不適切な言葉には何もしません。

不適切な表現 (悪口) を削除するか、不適切な単語の文字を星で置き換えます。 バージョン 1.5.0 で追加されました。

enum ResultReason

説明
NoMatch 音声を認識できなかったことを示します。 詳細については、NoMatchDetails オブジェクトを参照してください。
Canceled 認識が取り消されたことを示します。 詳細については、CancellationDetails オブジェクトを使用して確認できます。
RecognizingSpeech 音声結果に仮説テキストが含まれていることを示します。
RecognizedSpeech 読み上げ結果に、認識された最終的なテキストが含まれていることを示します。 これで、このフレーズに対する音声認識が完了しました。
RecognizingIntent 意図の結果に仮説のテキストと意図が含まれていることを示します。
RecognizedIntent 意図の結果に最終的なテキストと意図が含まれていることを示します。 これで、音声認識と意図の決定がこのフレーズに対して完了しました。
TranslatingSpeech 翻訳結果に仮説テキストとその翻訳が含まれていることを示します。
TranslatedSpeech 翻訳結果に最終的なテキストと対応する翻訳が含まれていることを示します。 これで、このフレーズに対する音声認識と翻訳が完了しました。
合成オーディオ 合成されたオーディオ結果に、0 以外の量のオーディオ データが含まれていることを示します。
SynthesizingAudioCompleted 合成されたオーディオがこのフレーズに対して完了したことを示します。
RecognizingKeyword 音声結果にテキストキーワード (keyword) (未検証) が含まれていることを示します。 バージョン 1.3.0 で追加されました。
RecognizedKeyword 指定したキーワード (keyword)キーワード (keyword)認識が完了したことを示します。 バージョン 1.3.0 で追加されました。
SynthesizingAudioStarted 音声合成が開始されたことを示します。バージョン 1.4.0 で追加されました。
TranslatingParticipantSpeech 文字起こし結果に、会話の他の参加者の仮説テキストとその翻訳が含まれていることを示します。 バージョン 1.8.0 で追加されました。
TranslatedParticipantSpeech 文字起こし結果に、会話の他の参加者の最終的なテキストと対応する翻訳が含まれていることを示します。 これで、このフレーズに対する音声認識と翻訳が完了しました。 バージョン 1.8.0 で追加されました。
TranslatedInstantMessage 文字起こし結果にインスタント メッセージと対応する翻訳が含まれていることを示します。 バージョン 1.8.0 で追加されました。
TranslatedParticipantInstantMessage 文字起こし結果に、会話の他の参加者のインスタント メッセージと、対応する翻訳が含まれていることを示します。 バージョン 1.8.0 で追加されました。
EnrollingVoiceProfile 音声プロファイルが登録中であり、お客様は音声プロファイルを作成するためにさらに多くの音声を送信する必要があることを示します。 バージョン 1.12.0 で追加されました。
EnrolledVoiceProfile 音声プロファイルが登録されています。 バージョン 1.12.0 で追加されました。
RecognizedSpeakers 一部のスピーカーが正常に識別されたことを示します。 バージョン 1.12.0 で追加されました。
RecognizedSpeaker 1 人の話者が正常に検証されたことを示します。 バージョン 1.12.0 で追加されました。
ResetVoiceProfile 音声プロファイルが正常にリセットされたことを示します。 バージョン 1.12.0 で追加されました。
DeletedVoiceProfile 音声プロファイルが正常に削除されたことを示します。 バージョン 1.12.0 で追加されました。
VoicesListRetrieved 音声リストが正常に取得されたことを示します。 バージョン 1.16.0 で追加されました。

認識結果が生成される可能性がある理由を指定します。

enum CancellationReason

説明
エラー 音声認識中にエラーが発生したことを示します。
EndOfStream オーディオ ストリームの末尾に達したことを示します。
CancelledByUser 要求がユーザーによって取り消されたことを示します。 バージョン 1.14.0 で追加されました。

認識結果が取り消される可能性がある理由を定義します。

enum CancellationErrorCode

説明
NoError エラーなし。 CancellationReason が EndOfStream の場合、CancellationErrorCode は NoError に設定されます。
AuthenticationFailure 認証エラーを示します。 サブスクリプション キーまたは承認トークンが無効であるか、有効期限が切れているか、使用されているリージョンと一致しない場合、認証エラーが発生します。
BadRequest 1 つ以上の認識パラメーターが無効であるか、オーディオ形式がサポートされていないことを示します。
TooManyRequests 並列要求の数が、サブスクリプションで許可されている同時文字起こしの数を超えたことを示します。
Forbidden 要求によって使用される無料サブスクリプションがクォータを使い果たしたことを示します。
ConnectionFailure 接続エラーを示します。
ServiceTimeout サービスからの応答を待機中にタイムアウト エラーが発生したことを示します。
ServiceError サービスによってエラーが返されることを示します。
ServiceUnavailable サービスが現在使用できないことを示します。
RuntimeError 予期しないランタイム エラーを示します。
ServiceRedirectTemporary Speech Service が別のエンドポイントへの再接続を一時的に要求することを示します。
ServiceRedirectPermanent Speech Service が別のエンドポイントへの再接続を永続的に要求することを示します。
EmbeddedModelError 埋め込み音声 (SR または TTS) モデルが使用できない、または破損したことを示します。

CancellationReason が Error の場合のエラー コードを定義します。 バージョン 1.1.0 で追加されました。

enum NoMatchReason

説明
NotRecognized 音声が検出されたが認識されなかったことを示します。
InitialSilenceTimeout オーディオ ストリームの開始に無音のみが含まれており、サービスが音声の待機中にタイムアウトしたことを示します。
InitialBabbleTimeout オーディオ ストリームの開始にノイズのみが含まれており、サービスが音声の待機中にタイムアウトしたことを示します。
KeywordNotRecognized キーワード (keyword)検証サービスによってスポットされたキーワード (keyword)が拒否されたことを示します。 バージョン 1.5.0 で追加されました。
EndSilenceTimeout オーディオ ストリームに、最後に認識された語句の後に無音のみが含まれていることを示します。

認識結果が認識されない可能性がある考えられる理由を定義します。

enum ActivityJSONType

説明
Null
Object
Array
String
Double
UInt
int
Boolean

アクティビティの json 値に使用できる型を定義します。 バージョン 1.5.0 で追加されました。

enum SpeechSynthesisOutputFormat

説明
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-siren サービスでサポートされていません。 この値は使用しないでください。
Audio16Khz16KbpsMonoSiren audio-16khz-16kbps-mono-siren サービスでサポートされていません。 この値は使用しないでください。
Audio16Khz32KBitRateMonoMp3 audio-16khz-32kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16khz-128kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16khz-64kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24khz-48kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24khz-96kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24khz-160kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16khz-16bit-mono-pcm
Riff8Khz16BitMonoPcm riff-8khz-16bit-mono-pcm
Riff24Khz16BitMonoPcm riff-24khz-16bit-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48khz-16bit-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus バージョン 1.16.0 で追加
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus バージョン 1.16.0 で追加
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus バージョン 1.16.0 で追加
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk バージョン 1.17.0 で追加
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw バージョン 1.17.0 で追加
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw バージョン 1.17.0 で追加
Webm24Khz16Bit24KbpsMonoOpus WebM コンテナー内の OPUS コーデックによって圧縮された webm-24khz-16bit-24kbps-mono-opus オーディオ。ビットレートは 24 kbps で、IoT シナリオ用に最適化されています。 (1.19.0 で追加)
Audio16Khz16Bit32KbpsMonoOpus audio-16khz-16bit-32kbps-mono-opus コンテナーなしの OPUS コーデックによって圧縮され、ビットレートは 32 kbps です。 (1.20.0 で追加)
Audio24Khz16Bit48KbpsMonoOpus audio-24khz-16bit-48kbps-mono-opus コンテナーなしの OPUS コーデックによって圧縮され、ビットレートは 48 kbps です。 (1.20.0 で追加)
Audio24Khz16Bit24KbpsMonoOpus audio-24khz-16bit-24kbps-mono-opus コンテナーなしの OPUS コーデックによって圧縮されたオーディオ。ビットレートは 24 kbps です。 (1.20.0 で追加)
Raw22050Hz16BitMonoPcm raw-22050hz-16bit-mono-pcm 22050Hz サンプリング レートと 16 ビット深度での RAW PCM オーディオ。 (1.22.0 で追加)
Riff22050Hz16BitMonoPcm riff-22050hz-16bit-mono-pcm PCM オーディオ (22050Hz サンプリング レートと 16 ビット深度)、RIFF ヘッダー付き。 (1.22.0 で追加)
Raw44100Hz16BitMonoPcm raw-44100hz-16bit-mono-pcm 44100Hz サンプリング レートと 16 ビット深度での RAW PCM オーディオ。 (1.22.0 で追加)
Riff44100Hz16BitMonoPcm riff-44100hz-16bit-mono-pcm PCM オーディオ (44100Hz サンプリング レートと 16 ビット深度)、RIFF ヘッダー付き。 (1.22.0 で追加)
AmrWb16000Hz amr-wb-16000hz AMR-WB オーディオ (16kHz サンプリング レート)。 (1.24.0 で追加)

可能な音声合成出力オーディオ形式を定義します。 バージョン 1.19.0 で更新されました。

enum StreamStatus

説明
Unknown オーディオ データ ストリームの状態が不明です。
Nodata オーディオ データ ストリームにデータが含まれない。
PartialData オーディオ データ ストリームには、読み上げ要求の部分的なデータが含まれています。
Alldata オーディオ データ ストリームには、speak 要求のすべてのデータが含まれます。
Canceled オーディオ データ ストリームが取り消されました。

オーディオ データ ストリームの使用可能な状態を定義します。 バージョン 1.4.0 で追加されました。

enum ServicePropertyChannel

説明
UriQueryParameter URI クエリ パラメーターを使用して、プロパティ設定をサービスに渡します。
HttpHeader HttpHeader を使用して、HTTP ヘッダーにキー/値を設定します。

プロパティ設定をサービスに渡すために使用されるチャネルを定義します。 バージョン 1.5.0 で追加されました。

enum VoiceProfileType

説明
TextIndependentIdentification テキストに依存しない話者識別。
TextDependentVerification テキスト依存の話者の検証。
TextIndependentVerification テキストに依存しない検証。

音声プロファイルの種類を定義します。

enum RecognitionFactorScope

説明
PartialPhrase 認識係数は、個々の部分フレーズとして参照できる文法に適用されます。

認識係数が適用されるスコープを定義します。

enum PronunciationAssessmentGradingSystem

説明
FivePoint 5 ポイントの校正。
HundredMark 100 のマーク。

発音スコア調整のポイント システムを定義します。既定値は FivePoint です。 バージョン 1.14.0 で追加されました。

enum PronunciationAssessmentGranularity

説明
音素 フルテキスト、単語、音素レベルのスコアを表示します。
Word フルテキストレベルとワードレベルのスコアを表示します。
FullText フルテキスト レベルでのみスコアを表示します。

発音評価の粒度を定義します。既定値は Phoneme です。 バージョン 1.14.0 で追加されました。

enum SynthesisVoiceType

説明
OnlineNeural オンライン ニューラル音声。
OnlineStandard オンライン標準音声。
OfflineNeural オフライン ニューラル音声。
OfflineStandard オフライン標準音声。

バージョン 1.16.0 で追加された合成音声の種類を定義します。

enum SynthesisVoiceGender

説明
Unknown 性別不明。
Female 女性の声。
Male 男性の声。

バージョン 1.17.0 で追加された合成音声の性別を定義します。

enum SpeechSynthesisBoundaryType

説明
Word Word境界。
句読点 句読点の境界。
文の境界。

バージョン 1.21.0 で追加された音声合成境界イベントの境界の種類を定義します。