次の方法で共有


PropertyId enum

音声プロパティ ID を定義します。

フィールド

SpeechServiceConnection_Key = 0

Cognitive Services Speech Service サブスクリプション キー。 意図認識エンジンを使用している場合は、特定の LUIS アプリの LUIS エンドポイント キーを指定する必要があります。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.fromSubscription を使用します

SpeechServiceConnection_Endpoint = 1

Cognitive Services Speech Service エンドポイント (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.fromEndpoint を使用します。 注: このエンドポイントは、アクセス トークンの取得に使用されるエンドポイントと同じではありません。

SpeechServiceConnection_Region = 2

Cognitive Services Speech Service リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.fromSubscriptionSpeechConfig.fromEndpointSpeechConfig.fromAuthorizationToken を使用します

SpeechServiceAuthorization_Token = 3

Cognitive Services Speech Service 承認トークン (アクセス トークンとも呼ばれます)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.fromAuthorizationTokenSpeechRecognizer.authorizationTokenIntentRecognizer.authorizationTokenTranslationRecognizer.authorizationTokenSpeakerRecognizer.authorizationToken を使用します。

SpeechServiceAuthorization_Type = 4

Cognitive Services Speech Service 承認の種類。 現在使用されていません。

SpeechServiceConnection_EndpointId = 5

Cognitive Services Speech Service エンドポイント ID。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.endpointId を使用します。 注: エンドポイント ID は Speech Portal で使用できます。[エンドポイントの詳細] に一覧表示されます。

SpeechServiceConnection_TranslationToLanguages = 6

ターゲット翻訳言語として使用されるコンマ区切り言語 (BCP-47 形式) の一覧。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに 、SpeechTranslationConfig.addTargetLanguageSpeechTranslationConfig.targetLanguagesTranslationRecognizer.targetLanguages を使用します

SpeechServiceConnection_TranslationVoice = 7

Cognitive Service Text to Speech Service Voice の名前。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechTranslationConfig.voiceName を使用します。 注: 有効な音声名については、 こちらを参照してください

SpeechServiceConnection_TranslationFeatures = 8

翻訳機能。

SpeechServiceConnection_IntentRegion = 9

Language Understanding サービス リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 LanguageUnderstandingModel を使用します

SpeechServiceConnection_ProxyHostName = 10

Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのホスト名。 Node.js 環境でのみ関連します。 このプロパティを直接使用する必要はありません。 代わりに を使用します。 バージョン 1.4.0 で追加されました。

SpeechServiceConnection_ProxyPort = 11

Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのポート。 Node.js 環境でのみ関連します。 このプロパティを直接使用する必要はありません。 代わりに を使用します。 バージョン 1.4.0 で追加されました。

SpeechServiceConnection_ProxyUserName = 12

Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのユーザー名。 Node.js 環境でのみ関連します。 このプロパティを直接使用する必要はありません。 代わりに を使用します。 バージョン 1.4.0 で追加されました。

SpeechServiceConnection_ProxyPassword = 13

Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのパスワード。 Node.js 環境でのみ関連します。 このプロパティを直接使用する必要はありません。 代わりに を使用します。 バージョン 1.4.0 で追加されました。

SpeechServiceConnection_RecoMode = 14

Cognitive Services Speech Service 認識モード。 "INTERACTIVE"、"CONVERSATION"、"DICTATION" を指定できます。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。

SpeechServiceConnection_RecoLanguage = 15

認識される音声言語 (BCP-47 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.speechRecognitionLanguage を使用します

Speech_SessionId = 16

セッション ID。この ID は、オーディオ入力ストリームの特定のバインディングと、それがバインドされている基になる音声認識インスタンスを表す汎用一意識別子 (UUID) です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに 、SessionEventArgs.sessionId を使用します

SpeechServiceConnection_SynthLanguage = 17

合成される音声言語 (en-US など)

SpeechServiceConnection_SynthVoice = 18

音声合成に使用する TTS 音声の名前

SpeechServiceConnection_SynthOutputFormat = 19

TTS 出力オーディオ形式を指定する文字列

SpeechServiceConnection_AutoDetectSourceLanguages = 20

可能なソース言語として使用されるコンマ区切り言語の一覧バージョン 1.13.0 で追加

SpeechServiceResponse_RequestDetailedResultTrueFalse = 21

要求された Cognitive Services Speech Service 応答出力形式 (単純または詳細)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに SpeechConfig.outputFormat を使用します。

SpeechServiceResponse_RequestProfanityFilterTrueFalse = 22

要求された Cognitive Services Speech Service 応答出力の不適切なレベル。 現在使用されていません。

SpeechServiceResponse_JsonResult = 23

Cognitive Services Speech Service 応答出力 (JSON 形式)。 このプロパティは、認識結果オブジェクトでのみ使用できます。

SpeechServiceResponse_JsonErrorDetails = 24

Cognitive Services Speech Service エラーの詳細 (JSON 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに CancellationDetails.errorDetails を使用します。

CancellationDetails_Reason = 25

取り消しの理由。 現在使用されていません。

CancellationDetails_ReasonText = 26

取り消しテキスト。 現在使用されていません。

CancellationDetails_ReasonDetailedText = 27

キャンセルの詳細なテキスト。 現在使用されていません。

LanguageUnderstandingServiceResponse_JsonResult = 28

Language Understanding サービス応答出力 (JSON 形式)。 IntentRecognitionResult 経由で使用可能

SpeechServiceConnection_Url = 29

音声構成から構築された URL 文字列。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 注: バージョン 1.7.0 で追加されました。

SpeechServiceConnection_InitialSilenceTimeoutMs = 30

サービスで使用される初期無音タイムアウト値 (ミリ秒単位)。 バージョン 1.7.0 で追加されました

SpeechServiceConnection_EndSilenceTimeoutMs = 31

サービスで使用される終了無音タイムアウト値 (ミリ秒単位)。 バージョン 1.7.0 で追加されました

Speech_SegmentationSilenceTimeoutMs = 32

検出された無音の期間 (ミリ秒単位) で測定され、その後、音声テキスト変換によって音声フレーズが終了したと判断され、最終的な Recognized 結果が生成されます。 このタイムアウトを構成すると、音声入力が通常よりも大幅に高速または低速になり、既定のセグメント化動作によって一貫して長すぎる、または短すぎる結果が生成される場合に役立ちます。 不適切に高いか低いセグメント化タイムアウト値は、音声テキスト変換の精度に悪影響を及ぼす可能性があります。このプロパティは慎重に構成する必要があり、結果の動作は意図したとおりに十分に検証する必要があります。

既定の動作の説明を含むタイムアウト構成の詳細については、 を参照 https://aka.ms/csspeech/timeoutsしてください。

バージョン 1.21.0 で追加されました。

SpeechServiceConnection_EnableAudioLogging = 33

サービスでオーディオ ログを有効にするかどうかを指定するブール値。 オーディオログとコンテンツ ログは、Microsoft 所有のストレージ、または Cognitive Services サブスクリプションにリンクされた独自のストレージ アカウント (Bring Your Own Storage (BYOS) 対応 Speech リソース) に格納されます。 ログは 30 日後に削除されます。 バージョン 1.7.0 で追加されました

SpeechServiceConnection_LanguageIdMode = 34

Speech Service 接続言語識別子モード。 "AtStart" (既定値) または "Continuous" を指定できます。 詳細については、「言語識別ドキュメント https://aka.ms/speech/lid?pivots=programming-language-javascript 」を参照してください。 1.25.0 で追加

SpeechServiceConnection_RecognitionEndpointVersion = 35

音声認識の対象となる目的のエンドポイント バージョンを表す文字列値。 バージョン 1.21.0 で追加されました

SpeechServiceConnection_SpeakerIdMode = 36

/**

  • 現在の話者認識シナリオ/モード (TextIndependentIdentification など) の文字列値。
  • バージョン 1.23.0 で追加されました
SpeechServiceResponse_ProfanityOption = 37

要求された Cognitive Services Speech Service 応答出力の不適切な設定。 使用できる値は、"masked"、"removed"、"raw" です。 バージョン 1.7.0 で追加されました。

SpeechServiceResponse_PostProcessingOption = 38

サービスで使用する後処理オプションを指定する文字列値。 使用できる値は "TrueText" です。 バージョン 1.7.0 で追加されました

SpeechServiceResponse_RequestWordLevelTimestamps = 39

応答結果に単語レベルのタイムスタンプを含めるかどうかを指定するブール値。 バージョン 1.7.0 で追加されました

SpeechServiceResponse_StablePartialResultThreshold = 40

単語が部分的な結果に含まれている必要がある回数を返します。 バージョン 1.7.0 で追加されました

SpeechServiceResponse_OutputFormatOption = 41

応答結果の出力形式オプションを指定する文字列値。 内部使用のみです。 バージョン 1.7.0 で追加されました。

SpeechServiceResponse_TranslationRequestStablePartialResult = 42

末尾の単語を省略して翻訳の部分的な結果を安定化するために要求するブール値。 バージョン 1.7.0 で追加されました。

SpeechServiceResponse_RequestWordBoundary = 43

WordBoundary イベントを要求するかどうかを指定するブール値。

SpeechServiceResponse_RequestPunctuationBoundary = 44

WordBoundary イベントで句読点の境界を要求するかどうかを指定するブール値。 既定値は true です。

SpeechServiceResponse_RequestSentenceBoundary = 45

WordBoundary イベントで文の境界を要求するかどうかを指定するブール値。 既定値は false です。

Conversation_ApplicationId = 46

バックエンド サービスへの接続に使用される識別子。

Conversation_DialogType = 47

接続するダイアログ バックエンドの種類。

Conversation_Initial_Silence_Timeout = 48

リッスンの無音タイムアウト

Conversation_From_Id = 49

Id から音声認識アクティビティに追加します。

Conversation_Conversation_Id = 50

セッションの ConversationId。

Conversation_Custom_Voice_Deployment_Ids = 51

カスタム音声デプロイ ID のコンマ区切りの一覧。

Conversation_Speech_Activity_Template = 52

Speech アクティビティ テンプレート。サービスによって音声用に生成されたアクティビティのテンプレートのスタンプ プロパティ。

Conversation_Request_Bot_Status_Messages = 53

turnStatusReceived イベントで取得したターン ステータス メッセージの受信を有効または無効にします。

Conversation_Agent_Connection_Id = 54

エージェント構成メッセージに指定する接続 ID (チャネル認証用のDirect Lineトークンなど) を指定します。 バージョン 1.15.1 で追加されました。

SpeechServiceConnection_Host = 55

Cognitive Services Speech Service ホスト (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.fromHost を使用します

ConversationTranslator_Host = 56

Conversation Translator REST 管理と Websocket 呼び出しへのサービス呼び出しのホストを設定します。

ConversationTranslator_Name = 57

必要に応じて、ホストの表示名を設定します。 会話に参加するときに使用されます。

ConversationTranslator_CorrelationId = 58

必要に応じて、X-CorrelationId 要求ヘッダーの値を設定します。 サーバー ログのエラーのトラブルシューティングに使用されます。 有効な guid である必要があります。

ConversationTranslator_Token = 59

音声サービスに送信される会話トークンを設定します。 これにより、サービスは音声認識サービスから Conversation Translator サービスへの呼び出しを処理して、認識を中継できます。 内部使用です。

PronunciationAssessment_ReferenceText = 60

発音評価用のオーディオの参照テキスト。 このパラメーターと次の発音評価パラメーターについては、詳細を参照してください https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters 。 通常の状況では、このプロパティを直接使用する必要はありません。 バージョン 1.15.0 で追加されました

PronunciationAssessment_GradingSystem = 61

発音スコア調整のポイント システム (FivePoint または HundredMark)。 通常の状況では、このプロパティを直接使用する必要はありません。 バージョン 1.15.0 で追加されました

PronunciationAssessment_Granularity = 62

発音評価の粒度 (音素、Word、または FullText)。 通常の状況では、このプロパティを直接使用する必要はありません。 バージョン 1.15.0 で追加されました

PronunciationAssessment_EnableMiscue = 63

誤った計算を有効にするかどうかを定義します。 これを有効にすると、発音された単語が参照テキストと比較され、比較に基づいて省略または挿入がマークされます。 既定の設定は [False] です。 通常の状況では、このプロパティを直接使用する必要はありません。 バージョン 1.15.0 で追加されました

PronunciationAssessment_Json = 64

発音評価パラメーターの json 文字列 通常の状況では、このプロパティを直接使用する必要はありません。 バージョン 1.15.0 で追加されました

PronunciationAssessment_Params = 65

発音評価パラメーター。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 バージョン 1.15.0 で追加されました

SpeakerRecognition_Api_Version = 66

使用する Speaker Recognition API のバージョン。 バージョン 1.18.0 で追加されました

WebWorkerLoadType = 67

Web worker のデータ URL の読み込みを許可するかどうかを指定します。許可される値は "オフ" と "オン" です。 既定値は "on" です。 バージョン 1.32.0 で追加されました

TalkingAvatarService_WebRTC_SDP = 68

会話アバター サービス WebRTC セッション記述プロトコル。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 バージョン 1.33.0 で追加されました