SpeechRecognitionEngine.AudioPosition Właściwość
Definicja
Ważne
Niektóre informacje odnoszą się do produktu w wersji wstępnej, który może zostać znacząco zmodyfikowany przed wydaniem. Firma Microsoft nie udziela żadnych gwarancji, jawnych lub domniemanych, w odniesieniu do informacji podanych w tym miejscu.
Pobiera bieżącą lokalizację w strumieniu audio generowanym przez urządzenie, które dostarcza dane wejściowe do elementu SpeechRecognitionEngine.
public:
property TimeSpan AudioPosition { TimeSpan get(); };
public TimeSpan AudioPosition { get; }
member this.AudioPosition : TimeSpan
Public ReadOnly Property AudioPosition As TimeSpan
Wartość właściwości
Bieżąca lokalizacja w strumieniu audio generowanym przez urządzenie wejściowe.
Przykłady
W poniższym przykładzie rozpoznawanie mowy w procesie używa gramatyki dyktowania, aby dopasować dane wejściowe mowy. Procedura obsługi zdarzeń SpeechDetected jest zapisywana w konsoli programu AudioPosition, RecognizerAudioPositioni AudioLevel gdy aparat rozpoznawania mowy wykrywa mowę w danych wejściowych.
using System;
using System.Speech.Recognition;
namespace SampleRecognition
{
class Program
{
private static SpeechRecognitionEngine recognizer;
public static void Main(string[] args)
{
// Initialize an in-process speech recognition engine for US English.
using (recognizer = new SpeechRecognitionEngine(
new System.Globalization.CultureInfo("en-US")))
{
recognizer.SetInputToDefaultAudioDevice();
// Create a grammar for finding services in different cities.
Choices services = new Choices(new string[] { "restaurants", "hotels", "gas stations" });
Choices cities = new Choices(new string[] { "Seattle", "Boston", "Dallas" });
GrammarBuilder findServices = new GrammarBuilder("Find");
findServices.Append(services);
findServices.Append("near");
findServices.Append(cities);
// Create a Grammar object from the GrammarBuilder and load it to the recognizer.
Grammar servicesGrammar = new Grammar(findServices);
recognizer.LoadGrammarAsync(servicesGrammar);
// Add handlers for events.
recognizer.SpeechRecognized +=
new EventHandler<SpeechRecognizedEventArgs>(recognizer_SpeechRecognized);
recognizer.SpeechDetected +=
new EventHandler<SpeechDetectedEventArgs>(recognizer_SpeechDetected);
// Start asynchronous recognition.
recognizer.RecognizeAsync();
Console.WriteLine("Starting asynchronous recognition...");
// Keep the console window open.
Console.ReadLine();
}
}
// Gather information about detected speech and write it to the console.
static void recognizer_SpeechDetected(object sender, SpeechDetectedEventArgs e)
{
Console.WriteLine();
Console.WriteLine("Speech detected:");
Console.WriteLine(" Audio level: " + recognizer.AudioLevel);
Console.WriteLine(" Audio position at the event: " + e.AudioPosition);
Console.WriteLine(" Current audio position: " + recognizer.AudioPosition);
Console.WriteLine(" Current recognizer audio position: " +
recognizer.RecognizerAudioPosition);
}
// Write the text of the recognition result to the console.
static void recognizer_SpeechRecognized(object sender, SpeechRecognizedEventArgs e)
{
Console.WriteLine("\nSpeech recognized: " + e.Result.Text);
// Add event handler code here.
}
}
}
Uwagi
Właściwość AudioPosition odwołuje się do pozycji urządzenia wejściowego w generowanym strumieniu audio. RecognizerAudioPosition Natomiast właściwość odwołuje się do pozycji rozpoznawania w danych wejściowych audio. Te pozycje mogą być różne. Jeśli na przykład aparat rozpoznawania otrzymał dane wejściowe, dla których nie wygenerował jeszcze wyniku rozpoznawania, wartość RecognizerAudioPosition właściwości jest mniejsza niż wartość AudioPosition właściwości.