次の方法で共有


PropertyId 列挙型

定義

音声プロパティ ID を一覧表示します。

public enum PropertyId
type PropertyId = 
Public Enum PropertyId
継承
PropertyId

フィールド

AudioConfig_DeviceNameForRender 8005

オーディオ レンダリングのデバイス名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに FromSpeakerOutput(String) を使用してください。 バージョン 1.17.0 で追加されました

AudioConfig_PlaybackBufferLengthInMs 8006

再生バッファーの長さ (ミリ秒)、既定値は 50 ミリ秒です。 バージョン 1.17.0 で追加されました

CancellationDetails_Reason 6000

未使用。 取り消しの理由。

CancellationDetails_ReasonDetailedText 6002

未使用。 キャンセルの詳細なテキスト。

CancellationDetails_ReasonText 6001

未使用。 取り消しテキスト。

Conversation_ApplicationId 10000

バックエンド サービスへの接続に使用される識別子。 1.5.0 で追加

Conversation_Connection_Id 10009

バックエンド サービスで認証するために使用されるDirect Line トークンなどの追加の識別情報。 1.16.0 で追加

Conversation_Conversation_Id 10004

セッションの ConversationId。 1.8.0 で追加

Conversation_Custom_Voice_Deployment_Ids 10005

カスタム音声デプロイ ID のコンマ区切りの一覧。 1.8.0 で追加

Conversation_DialogType 10001

接続するダイアログ バックエンドの種類。 1.7.0 で追加

Conversation_From_Id 10003

音声認識アクティビティに追加する from 識別子。 1.5.0 で追加

Conversation_Initial_Silence_Timeout 10002

リッスンの無音タイムアウト。 1.5.0 で追加

Conversation_ParticipantId 10007

会話内の識別子を取得します。 1.13.0 で追加されました

Conversation_Request_Bot_Status_Messages 10008

クライアントがターン ステータス メッセージを受信し、対応する TurnStatusReceived イベントを生成するかどうかを指定するブール値。 既定値は true です。 1.15.0 で追加

Conversation_Speech_Activity_Template 10006

Speech アクティビティ テンプレート。サービスによって音声用に生成されたアクティビティのテンプレートのスタンプ プロパティ。 「1.10.0 で追加された」を参照してくださいSpeechActivityTemplate

ConversationTranscribingService_DataBufferTimeStamp 11001

Pull/Push オーディオ モード ストリームを使用する場合にクライアントによって書き込まれたデータ バッファーに関連付けられたタイム スタンプ。 タイムスタンプは、解像度が 90 kHz の 64 ビット値です。 MPEG トランスポート ストリームのプレゼンテーション タイムスタンプと同じです。 「https://en.wikipedia.org/wiki/Presentation_timestamp」を参照してください。 1.5.0 で追加

ConversationTranscribingService_DataBufferUserId 11002

Pull/Push オーディオ モード ストリームを使用するときにクライアントによって書き込まれたデータ バッファーに関連付けられているユーザー識別子。 1.5.0 で追加

LanguageUnderstandingServiceResponse_JsonResult 7000

Language Understanding サービス応答出力 (JSON 形式)。 を使用して Properties使用できます。

PronunciationAssessment_EnableMiscue 12005

計算の誤った状態を示します。 有効にすると、発音された単語は参照テキストと比較され、比較に基づいて省略/挿入でマークされます。 既定の設定は false です。 通常の状況では、このプロパティを直接使用する必要はありません。 1.14.0 で追加されました

PronunciationAssessment_GradingSystem 12002

発音スコア調整のポイント システム (FivePoint または HundredMark)。 通常の状況では、このプロパティを直接使用する必要はありません。 1.14.0 で追加されました

PronunciationAssessment_Granularity 12003

発音評価の粒度 (音素、Word、または FullText)。 通常の状況では、このプロパティを直接使用する必要はありません。 1.14.0 で追加されました

PronunciationAssessment_Json 12009

発音評価パラメーターの JSON 文字列。 通常の状況では、このプロパティを直接使用する必要はありません。 1.14.0 で追加されました

PronunciationAssessment_NBestPhonemeCount 12007

発音評価 nbest 音素数。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに NBestPhonemeCount を使用してください。 バージョン 1.20.0 で追加されました

PronunciationAssessment_Params 12010

発音評価パラメーター。 このプロパティは読み取り専用です。 1.14.0 で追加されました

PronunciationAssessment_PhonemeAlphabet 12006

発音評価音素アルファベット。 有効な値は "SAPI" (既定値) と "IPA" です。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに PhonemeAlphabet を使用してください。 バージョン 1.20.0 で追加されました

PronunciationAssessment_ReferenceText 12001

発音評価用のオーディオの参照テキスト。 このパラメーターと次の発音評価パラメーターについては、発音 評価パラメーター に関するページを参照してください。 通常の状況では、このプロパティを直接使用する必要はありません。 1.14.0 で追加されました

SpeakerRecognition_Api_Version 13001

話者認識 API のバージョン。 1.18.0 で追加されました

Speech_LogFilename 9001

ログを書き込むファイル名。 1.4.0 で追加

Speech_SegmentationSilenceTimeoutMs 9002

検出された無音の継続時間 (ミリ秒単位)。 その後、音声テキスト変換によって音声フレーズが終了したと判断され、最終的な Recognized 結果が生成されます。 このタイムアウトを構成すると、音声入力が通常よりも大幅に高速または低速になり、既定のセグメント化動作によって長すぎる、または短すぎる結果が一貫して生成される状況で役立つ場合があります。 セグメント化タイムアウト値が不適切に高いか低い場合は、音声テキスト変換の精度に悪影響を及ぼす可能性があります。このプロパティは慎重に構成し、結果の動作を意図したとおりに徹底的に検証する必要があります。

既定の動作の説明を含むタイムアウト構成の詳細については、 を参照 https://aka.ms/csspeech/timeoutsしてください。

Speech_SessionId 3002

セッション ID。この ID は、オーディオ入力ストリームと、それがバインドされている基になる音声認識インスタンスの特定のバインドを表す汎用一意識別子 (UUID) です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SessionId を使用します。

SpeechServiceAuthorization_Token 1003

Speech サービス承認トークン (別名アクセス トークン)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、、AuthorizationTokenAuthorizationToken、 を使用FromAuthorizationToken(String, String)AuthorizationTokenします。

SpeechServiceAuthorization_Type 1004

未使用。 Speech サービスの承認の種類。

SpeechServiceConnection_AutoDetectSourceLanguageResult 3301

ソース言語の自動検出の結果。 1.9.0 で追加されました

SpeechServiceConnection_AutoDetectSourceLanguages 3300

ソース言語の自動検出。 1.9.0 で追加されました

SpeechServiceConnection_EnableAudioLogging 3202

サービスでオーディオ ログを有効にするかどうかを指定するブール値。 オーディオ ログとコンテンツ ログは、Microsoft が所有するストレージ、または Cognitive Services サブスクリプションにリンクされている独自のストレージ アカウント (Bring Your Own Storage (BYOS) 対応 Speech リソース) のいずれかに格納されます。 1.5.0 で追加されました。

SpeechServiceConnection_Endpoint 1001

Speech サービス エンドポイント(URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 または を使用 FromEndpoint(Uri, String)します FromEndpoint(Uri)。 注: このエンドポイントは、アクセス トークンの取得に使用されるエンドポイントと同じではありません。

SpeechServiceConnection_EndpointId 1005

Custom Speech または Custom Voice Service エンドポイント ID。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 または を使用 FromEndpoint(Uri, String)します FromEndpoint(Uri)。 注: エンドポイント ID は、[エンドポイントの詳細] の下に表示されている Custom Speech ポータルで使用できます。

SpeechServiceConnection_EndSilenceTimeoutMs 3201

サービスで使用される終了無音タイムアウト値 (ミリ秒単位)。 1.5.0 で追加

SpeechServiceConnection_Host 1006

Speech サービス ホスト (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 または を使用 FromHost(Uri, String)します FromHost(Uri)

SpeechServiceConnection_InitialSilenceTimeoutMs 3200

サービスで使用される初期無音タイムアウト値 (ミリ秒単位)。 1.5.0 で追加

SpeechServiceConnection_IntentRegion 2003

Language Understanding サービス リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに LanguageUnderstandingModel を使用します。

SpeechServiceConnection_Key 1000

Speech サービス エンドポイントで使用されるサブスクリプション キー。 意図認識エンジンを使用している場合は、特定の LUIS アプリの LUIS エンドポイント キーを指定する必要があります。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに FromSubscription(String, String) を使用してください。

SpeechServiceConnection_LanguageIdMode 3205

音声サービス接続言語識別子モード。 "AtStart" (既定値) または "Continuous" を指定できます。 言語識別に関するドキュメントを参照してください。 1.25.0 で追加

SpeechServiceConnection_ProxyHostName 1100

Speech サービスへの接続に使用されるプロキシ サーバーのホスト名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SetProxy(String, Int32, String, String) を使用します。 1.1.0 で追加

SpeechServiceConnection_ProxyPassword 1103

Speech サービスへの接続に使用されるプロキシ サーバーのパスワード。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SetProxy(String, Int32, String, String) を使用します。 1.1.0 で追加

SpeechServiceConnection_ProxyPort 1101

Speech サービスへの接続に使用されるプロキシ サーバーのポート。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SetProxy(String, Int32, String, String) を使用します。 1.1.0 で追加

SpeechServiceConnection_ProxyUserName 1102

Speech サービスへの接続に使用するプロキシ サーバーのユーザー名。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SetProxy(String, Int32, String, String) を使用します。 1.1.0 で追加

SpeechServiceConnection_RecoBackend 3004

音声認識に使用するバックエンドを指定する文字列。許可されているオプションはオンラインとオフラインです。 通常の状況では、このプロパティを直接使用しないでください。 現在、オフライン オプションは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました

SpeechServiceConnection_RecoLanguage 3001

認識される音声言語 (BCP-47 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SpeechRecognitionLanguage を使用してください。

SpeechServiceConnection_RecoMode 3000

Speech Service 認識モード。 対話型、会話、ディクテーションを指定できます。 このプロパティは読み取り専用です。 SDK では内部的に使用されます。

SpeechServiceConnection_RecoModelKey 3006

音声認識に使用するモデルの復号化キー。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました

SpeechServiceConnection_RecoModelName 3005

音声認識に使用するモデルの名前。 通常の状況では、このプロパティを直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。 バージョン 1.19.0 で追加されました

SpeechServiceConnection_Region 1002

サブスクリプション キーに関連付けられている Speech サービス リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、、、、、、 を使用FromSubscription(String, String)FromEndpoint(Uri, String)します。 FromAuthorizationToken(String, String)FromHost(Uri)FromHost(Uri, String)FromEndpoint(Uri)

SpeechServiceConnection_SynthBackend 3110

TTS バックエンドを指定する文字列。有効なオプションはオンラインとオフラインです。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、FromPath(String) または FromPaths(String[]) を使用します。 合成バックエンドをオフラインに設定します。 バージョン 1.19.0 で追加されました

SpeechServiceConnection_SynthEnableCompressedAudioTransmission 3103

音声合成オーディオ送信に圧縮オーディオ形式を使用するかどうかを示します。 このプロパティは、SpeechServiceConnection_SynthOutputFormatが pcm 形式に設定されている場合にのみ重要です。 このプロパティが true に設定されておらず、GStreamer が使用可能な場合、SDK は合成オーディオ転送に圧縮形式を使用し、デコードします。 このプロパティを false に設定すると、ネットワーク上の伝送に生の pcm 形式を使用できます。 1.16.0 で追加

SpeechServiceConnection_SynthLanguage 3100

合成する音声言語 (en-US など)。 1.4.0 で追加

SpeechServiceConnection_SynthModelKey 3114

音声合成に使用するモデルの復号化キー。 通常の状況では、このプロパティを直接使用しないでください。 代わりに SetSpeechSynthesisVoice(String, String) を使用してください。 バージョン 1.19.0 で追加されました

SpeechServiceConnection_SynthOfflineDataPath 3112

オフライン合成エンジンのデータ ファイル パス。は、合成バックエンドがオフラインの場合にのみ有効です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、FromPath(String) または FromPaths(String[]) を使用します。 バージョン 1.19.0 で追加されました

SpeechServiceConnection_SynthOfflineVoice 3113

音声合成に使用するオフライン TTS 音声の名前。 通常の状況では、このプロパティを直接使用しないでください。 代わりに SetSpeechSynthesisVoice(String, String) を使用してください。 バージョン 1.19.0 で追加されました

SpeechServiceConnection_SynthOutputFormat 3102

音声合成出力オーディオ形式を指定する文字列 (例: riff-16khz-16bit-mono-pcm) 1.4.0 で追加

SpeechServiceConnection_SynthVoice 3101

テキスト読み上げに使用する音声の名前。 1.4.0 で追加

SpeechServiceConnection_TranslationFeatures 2002

翻訳機能。 内部使用です。

SpeechServiceConnection_TranslationToLanguages 2000

ターゲット翻訳言語として使用されるコンマ区切り言語 (BCP-47 形式) の一覧。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 と の読み取り専用TargetLanguagesコレクションを使用AddTargetLanguage(String)します。

SpeechServiceConnection_TranslationVoice 2001

テキスト読み上げに使用される音声の名前。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに VoiceName を使用します。 有効な音声名 については、こちらを参照してください

SpeechServiceConnection_Url 1104

音声構成から構築された URL 文字列。 このプロパティは読み取り専用です。 SDK では、この値が内部的に使用されます。 1.5.0 で追加

SpeechServiceConnection_VoicesListEndpoint 3130

Cognitive Services Speech Service 音声リスト API エンドポイント (URL)。 通常の状況では、このプロパティを指定する必要はありません。SDK では、 のリージョン/ホスト/エンドポイント SpeechConfigに基づいて構築されます。 1.16.0 で追加

SpeechServiceResponse_JsonErrorDetails 5001

音声サービスのエラーの詳細 (JSON 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに ErrorDetails を使用します。

SpeechServiceResponse_JsonResult 5000

音声サービスの応答出力 (JSON 形式)。 このプロパティは、認識結果オブジェクトでのみ使用できます。

SpeechServiceResponse_OutputFormatOption 4006

応答結果の出力形式オプションを指定する文字列値。 内部使用のみです。 1.5.0 で追加

SpeechServiceResponse_PostProcessingOption 4003

サービスで使用する後処理オプションを指定する文字列値。 使用できる値: TrueText。 1.5.0 で追加

SpeechServiceResponse_ProfanityOption 4002

要求された Speech サービス応答出力の不適切な設定。 使用できる値は、マスク、削除、未加工です。 1.5.0 で追加

SpeechServiceResponse_RecognitionBackend 5003

認識バックエンド。 読み取り専用。音声認識結果で使用できます。 これは、クラウド (オンライン) または埋め込み (オフライン) 認識を使用して結果を生成したかどうかを示します。

SpeechServiceResponse_RecognitionLatencyMs 5002

認識の待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声/翻訳/意図の結果で使用できます。 これにより、SDK によってオーディオ入力が受信されたときと、サービスから最終的な結果が受信された時点までの待機時間が測定されます。 SDK は、最終的な結果に寄与するオーディオ入力からの最後のオーディオ フラグメントと、音声サービスから最終的な結果を受信した時刻の時間差を計算します。 1.3.0 で追加

SpeechServiceResponse_RequestDetailedResultTrueFalse 4000

要求された Speech サービス応答出力形式 (OutputFormat.Simple または OutputFormat.Detailed)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに OutputFormat を使用してください。

SpeechServiceResponse_RequestProfanityFilterTrueFalse 4001

未使用。 要求された Speech サービス応答出力の不適切なレベル。

SpeechServiceResponse_RequestPunctuationBoundary 4201

WordBoundary イベントで句読点の境界を要求するかどうかを指定するブール値。 既定値は true です。 バージョン 1.21.0 で追加されました。

SpeechServiceResponse_RequestSentenceBoundary 4202

WordBoundary イベントで文の境界を要求するかどうかを指定するブール値。 既定値は false です。 バージョン 1.21.0 で追加されました。

SpeechServiceResponse_RequestSnr 4007

応答結果に SNR (信号対ノイズ比) を含めるかどうかを指定するブール値。 バージョン 1.18.0 で追加されました

SpeechServiceResponse_RequestWordBoundary 4200

WordBoundary イベントを要求するかどうかを指定するブール値。 バージョン 1.21.0 で追加されました。

SpeechServiceResponse_RequestWordLevelTimestamps 4004

応答結果に単語レベルのタイムスタンプを含めるかどうかを指定するブール値。 1.5.0 で追加

SpeechServiceResponse_StablePartialResultThreshold 4005

単語が部分的な結果に含まれている必要がある回数を返します。 1.5.0 で追加

SpeechServiceResponse_SynthesisBackend 5020

合成を終了するバックエンドを示します。 読み取り専用。音声合成の結果で使用できます。ただし、SynthesisStarted イベントの結果を除きます。 バージョン 1.19.0 で追加されました。

SpeechServiceResponse_SynthesisConnectionLatencyMs 5013

音声合成接続の待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始された時間と、HTTP/WebSocket 接続が確立された時点までの待機時間が測定されます。 バージョン 1.26.0 で追加されました。

SpeechServiceResponse_SynthesisEventsSyncToAudio 4210

SDK で合成メタデータ イベント (単語の境界、口形素など) をオーディオ再生に同期するかどうかを指定するブール値。 これは、オーディオが SDK を介して再生される場合にのみ有効になります。 既定値は true です。 false に設定すると、SDK はサービスからのイベントを発生させます。これは、オーディオ再生と同期できない可能性があります。 バージョン 1.31.0 で追加されました。

SpeechServiceResponse_SynthesisFinishLatencyMs 5011

音声合成のすべてのバイト待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始されたときと、オーディオ全体が合成された時点までの待機時間が測定されます。 バージョン 1.17.0 で追加されました。

SpeechServiceResponse_SynthesisFirstByteLatencyMs 5010

音声合成の最初のバイト待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、合成の処理が開始され、最初のバイト オーディオが使用可能になった時点までの待機時間が測定されます。 バージョン 1.17.0 で追加されました。

SpeechServiceResponse_SynthesisNetworkLatencyMs 5014

音声合成ネットワークの待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、ネットワークのラウンド トリップ時間が測定されます。 バージョン 1.26.0 で追加されました。

SpeechServiceResponse_SynthesisServiceLatencyMs 5015

音声合成サービスの待機時間 (ミリ秒単位)。 読み取り専用。最終的な音声合成結果で使用できます。 これにより、オーディオの最初のバイトを合成するためのサービス処理時間が測定されます。 バージョン 1.26.0 で追加されました。

SpeechServiceResponse_SynthesisUnderrunTimeMs 5012

音声合成のアンダーラン時間 (ミリ秒単位)。 読み取り専用。合成Completed イベントの結果で使用できます。 これにより、入力から AudioConfig_PlaybackBufferLengthInMs 合成完了までのアンダーラン時間の合計が測定されます。 バージョン 1.17.0 で追加されました。

SpeechServiceResponse_TranslationRequestStablePartialResult 4100

末尾の単語を省略して翻訳の部分的な結果を安定化するために要求するブール値。 1.5.0 で追加

SpeechTranslation_ModelKey 13101

音声翻訳に使用するモデルの復号化キー。 このプロパティは直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。

SpeechTranslation_ModelName 13100

音声翻訳に使用するモデルの名前。 このプロパティは直接使用しないでください。 現在、これは EmbeddedSpeechConfig が使用されている場合にのみ有効です。

適用対象