SpeechRecognitionEngine.AudioPosition プロパティ
定義
重要
一部の情報は、リリース前に大きく変更される可能性があるプレリリースされた製品に関するものです。 Microsoft は、ここに記載されている情報について、明示または黙示を問わず、一切保証しません。
SpeechRecognitionEngine に入力を提供しているデバイスによって生成されているオーディオ ストリーム内の現在の位置を取得します。
public:
property TimeSpan AudioPosition { TimeSpan get(); };
public TimeSpan AudioPosition { get; }
member this.AudioPosition : TimeSpan
Public ReadOnly Property AudioPosition As TimeSpan
プロパティ値
入力デバイスによって生成されているオーディオ ストリームの現在の位置。
例
次の例では、インプロセス音声認識エンジンはディクテーション文法を使用して音声入力と一致します。 イベントのハンドラーは、 SpeechDetected 入力時に音声認識エンジンが音声を検出すると、コンソール AudioPositionに 、 RecognizerAudioPosition、および AudioLevel を書き込みます。
using System;
using System.Speech.Recognition;
namespace SampleRecognition
{
class Program
{
private static SpeechRecognitionEngine recognizer;
public static void Main(string[] args)
{
// Initialize an in-process speech recognition engine for US English.
using (recognizer = new SpeechRecognitionEngine(
new System.Globalization.CultureInfo("en-US")))
{
recognizer.SetInputToDefaultAudioDevice();
// Create a grammar for finding services in different cities.
Choices services = new Choices(new string[] { "restaurants", "hotels", "gas stations" });
Choices cities = new Choices(new string[] { "Seattle", "Boston", "Dallas" });
GrammarBuilder findServices = new GrammarBuilder("Find");
findServices.Append(services);
findServices.Append("near");
findServices.Append(cities);
// Create a Grammar object from the GrammarBuilder and load it to the recognizer.
Grammar servicesGrammar = new Grammar(findServices);
recognizer.LoadGrammarAsync(servicesGrammar);
// Add handlers for events.
recognizer.SpeechRecognized +=
new EventHandler<SpeechRecognizedEventArgs>(recognizer_SpeechRecognized);
recognizer.SpeechDetected +=
new EventHandler<SpeechDetectedEventArgs>(recognizer_SpeechDetected);
// Start asynchronous recognition.
recognizer.RecognizeAsync();
Console.WriteLine("Starting asynchronous recognition...");
// Keep the console window open.
Console.ReadLine();
}
}
// Gather information about detected speech and write it to the console.
static void recognizer_SpeechDetected(object sender, SpeechDetectedEventArgs e)
{
Console.WriteLine();
Console.WriteLine("Speech detected:");
Console.WriteLine(" Audio level: " + recognizer.AudioLevel);
Console.WriteLine(" Audio position at the event: " + e.AudioPosition);
Console.WriteLine(" Current audio position: " + recognizer.AudioPosition);
Console.WriteLine(" Current recognizer audio position: " +
recognizer.RecognizerAudioPosition);
}
// Write the text of the recognition result to the console.
static void recognizer_SpeechRecognized(object sender, SpeechRecognizedEventArgs e)
{
Console.WriteLine("\nSpeech recognized: " + e.Result.Text);
// Add event handler code here.
}
}
}
注釈
プロパティは AudioPosition 、生成されたオーディオ ストリーム内の入力デバイスの位置を参照します。 これに対し、 プロパティは RecognizerAudioPosition 、オーディオ入力内での認識エンジンの位置を参照します。 これらの位置は異なる場合があります。 たとえば、認識エンジンがまだ認識結果を生成していない入力を受け取った場合、プロパティの RecognizerAudioPosition 値は プロパティの AudioPosition 値より小さくなります。
適用対象
こちらもご覧ください
GitHub で Microsoft と共同作業する
このコンテンツのソースは GitHub にあります。そこで、issue や pull request を作成および確認することもできます。 詳細については、共同作成者ガイドを参照してください。
.NET