Udostępnij za pośrednictwem


SpeechRecognitionEngine Konstruktory

Definicja

Inicjuje nowe wystąpienie klasy SpeechRecognitionEngine.

Przeciążenia

Nazwa Opis
SpeechRecognitionEngine()

Inicjuje nowe wystąpienie SpeechRecognitionEngine klasy przy użyciu domyślnego aparatu rozpoznawania mowy dla systemu.

SpeechRecognitionEngine(CultureInfo)

Inicjuje nowe wystąpienie SpeechRecognitionEngine klasy przy użyciu domyślnego aparatu rozpoznawania mowy dla określonych ustawień regionalnych.

SpeechRecognitionEngine(RecognizerInfo)

Inicjuje nowe wystąpienie SpeechRecognitionEngine obiektu przy użyciu informacji w RecognizerInfo obiekcie w celu określenia rozpoznawania do użycia.

SpeechRecognitionEngine(String)

Inicjuje nowe wystąpienie SpeechRecognitionEngine klasy za pomocą parametru ciągu, który określa nazwę aparatu rozpoznawania do użycia.

Uwagi

Wystąpienie można utworzyć SpeechRecognitionEngine na podstawie dowolnego z następujących elementów:

  • Domyślny aparat rozpoznawania mowy dla systemu

  • Określony aparat rozpoznawania mowy określony według nazwy

  • Domyślny aparat rozpoznawania mowy dla ustawień regionalnych, które określisz

  • Określony aparat rozpoznawania spełniający kryteria określone w RecognizerInfo obiekcie.

Aby rozpoznawanie mowy mogło rozpocząć rozpoznawanie, należy załadować co najmniej jedną gramatykę rozpoznawania mowy i skonfigurować dane wejściowe dla rozpoznawania.

Aby załadować gramatykę, wywołaj metodę LoadGrammar or LoadGrammarAsync .

Aby skonfigurować dane wejściowe audio, użyj jednej z następujących metod:

SpeechRecognitionEngine()

Źródło:
SpeechRecognitionEngine.cs
Źródło:
SpeechRecognitionEngine.cs
Źródło:
SpeechRecognitionEngine.cs
Źródło:
SpeechRecognitionEngine.cs

Inicjuje nowe wystąpienie SpeechRecognitionEngine klasy przy użyciu domyślnego aparatu rozpoznawania mowy dla systemu.

public:
 SpeechRecognitionEngine();
public SpeechRecognitionEngine();
Public Sub New ()

Uwagi

Aby rozpoznawanie mowy mogło rozpocząć rozpoznawanie mowy, należy załadować co najmniej jedną gramatykę rozpoznawania i skonfigurować dane wejściowe dla rozpoznawania.

Aby załadować gramatykę, wywołaj metodę LoadGrammar or LoadGrammarAsync .

Aby skonfigurować dane wejściowe audio, użyj jednej z następujących metod:

Dotyczy

SpeechRecognitionEngine(CultureInfo)

Źródło:
SpeechRecognitionEngine.cs
Źródło:
SpeechRecognitionEngine.cs
Źródło:
SpeechRecognitionEngine.cs
Źródło:
SpeechRecognitionEngine.cs

Inicjuje nowe wystąpienie SpeechRecognitionEngine klasy przy użyciu domyślnego aparatu rozpoznawania mowy dla określonych ustawień regionalnych.

public:
 SpeechRecognitionEngine(System::Globalization::CultureInfo ^ culture);
public SpeechRecognitionEngine(System.Globalization.CultureInfo culture);
new System.Speech.Recognition.SpeechRecognitionEngine : System.Globalization.CultureInfo -> System.Speech.Recognition.SpeechRecognitionEngine
Public Sub New (culture As CultureInfo)

Parametry

culture
CultureInfo

Ustawienia regionalne, które musi obsługiwać rozpoznawanie mowy.

Wyjątki

Żaden z zainstalowanych rozpoznawania mowy nie obsługuje określonych ustawień regionalnych lub culture jest niezmienną kulturą.

Parametr Culture ma wartość null.

Przykłady

Poniższy przykład przedstawia część aplikacji konsolowej, która demonstruje podstawowe rozpoznawanie mowy i inicjuje rozpoznawanie mowy dla ustawień regionalnych en-US.

using System;
using System.Speech.Recognition;

namespace SpeechRecognitionApp
{
  class Program
  {
    static void Main(string[] args)
    {

      // Create an in-process speech recognizer for the en-US locale.
      using (
      SpeechRecognitionEngine recognizer =
        new SpeechRecognitionEngine(
          new System.Globalization.CultureInfo("en-US")))
      {

        // Create and load a dictation grammar.
        recognizer.LoadGrammar(new DictationGrammar());

        // Add a handler for the speech recognized event.
        recognizer.SpeechRecognized +=
          new EventHandler<SpeechRecognizedEventArgs>(recognizer_SpeechRecognized);

        // Configure input to the speech recognizer.
        recognizer.SetInputToDefaultAudioDevice();

        // Start asynchronous, continuous speech recognition.
        recognizer.RecognizeAsync(RecognizeMode.Multiple);

        // Keep the console window open.
        while (true)
        {
          Console.ReadLine();
        }
      }
    }

    // Handle the SpeechRecognized event.
    static void recognizer_SpeechRecognized(object sender, SpeechRecognizedEventArgs e)
    {
      Console.WriteLine("Recognized text: " + e.Result.Text);
    }
  }
}

Uwagi

System Microsoft Windows i interfejs API System.Speech akceptują wszystkie prawidłowe kody krajów językowych. Aby przeprowadzić rozpoznawanie mowy przy użyciu języka określonego w argumencie CultureInfo , należy zainstalować aparat rozpoznawania mowy obsługujący ten kod kraju. Aparaty rozpoznawania mowy dostarczane z systemem Microsoft Windows 7 współpracują z następującymi kodami krajów językowych.

  • en-GB. Angielski (Zjednoczone Królestwo)

  • en-US. Angielski (Stany Zjednoczone)

  • de-DE. język niemiecki (Niemcy)

  • es-ES. Hiszpański (Hiszpania)

  • fr-FR. Francuski (Francja)

  • ja-JP. Japoński (Japonia)

  • zh-CN. Chiński (Chiny)

  • zh-TW. Chiński (Tajwan)

Dozwolone są również dwuliterowe kody językowe, takie jak "en", "fr" lub "es".

Aby rozpoznawanie mowy mogło rozpocząć rozpoznawanie, należy załadować co najmniej jedną gramatykę rozpoznawania mowy i skonfigurować dane wejściowe dla rozpoznawania.

Aby załadować gramatykę, wywołaj metodę LoadGrammar or LoadGrammarAsync .

Aby skonfigurować dane wejściowe audio, użyj jednej z następujących metod:

Dotyczy

SpeechRecognitionEngine(RecognizerInfo)

Źródło:
SpeechRecognitionEngine.cs
Źródło:
SpeechRecognitionEngine.cs
Źródło:
SpeechRecognitionEngine.cs
Źródło:
SpeechRecognitionEngine.cs

Inicjuje nowe wystąpienie SpeechRecognitionEngine obiektu przy użyciu informacji w RecognizerInfo obiekcie w celu określenia rozpoznawania do użycia.

public:
 SpeechRecognitionEngine(System::Speech::Recognition::RecognizerInfo ^ recognizerInfo);
public SpeechRecognitionEngine(System.Speech.Recognition.RecognizerInfo recognizerInfo);
new System.Speech.Recognition.SpeechRecognitionEngine : System.Speech.Recognition.RecognizerInfo -> System.Speech.Recognition.SpeechRecognitionEngine
Public Sub New (recognizerInfo As RecognizerInfo)

Parametry

recognizerInfo
RecognizerInfo

Informacje dotyczące określonego rozpoznawania mowy.

Przykłady

Poniższy przykład przedstawia część aplikacji konsolowej, która demonstruje podstawowe rozpoznawanie mowy i inicjuje rozpoznawanie mowy obsługującej język angielski.

 using System;
using System.Speech.Recognition;

namespace SpeechRecognitionApp
{
  class Program
  {
    static void Main(string[] args)
    {

      // Select a speech recognizer that supports English.
      RecognizerInfo info = null;
      foreach (RecognizerInfo ri in SpeechRecognitionEngine.InstalledRecognizers())
      {
        if (ri.Culture.TwoLetterISOLanguageName.Equals("en"))
        {
          info = ri;
          break;
        }
      }
      if (info == null) return;

      // Create the selected recognizer.
      using (SpeechRecognitionEngine recognizer =
        new SpeechRecognitionEngine(info))
      {

        // Create and load a dictation grammar.
        recognizer.LoadGrammar(new DictationGrammar());

        // Add a handler for the speech recognized event.
        recognizer.SpeechRecognized +=
          new EventHandler<SpeechRecognizedEventArgs>(recognizer_SpeechRecognized);

        // Configure input to the speech recognizer.
        recognizer.SetInputToDefaultAudioDevice();

        // Start asynchronous, continuous speech recognition.
        recognizer.RecognizeAsync(RecognizeMode.Multiple);

        // Keep the console window open.
        while (true)
        {
          Console.ReadLine();
        }
      }
    }

    // Handle the SpeechRecognized event.
    static void recognizer_SpeechRecognized(object sender, SpeechRecognizedEventArgs e)
    {
      Console.WriteLine("Recognized text: " + e.Result.Text);
    }
  }
}

Uwagi

Możesz utworzyć wystąpienie tej klasy dla dowolnego z zainstalowanych rozpoznawania mowy. Aby uzyskać informacje o instalowanych programach rozpoznawania, użyj InstalledRecognizers metody .

Aby rozpoznawanie mowy mogło rozpocząć rozpoznawanie, należy załadować co najmniej jedną gramatykę rozpoznawania mowy i skonfigurować dane wejściowe dla rozpoznawania.

Aby załadować gramatykę, wywołaj metodę LoadGrammar or LoadGrammarAsync .

Aby skonfigurować dane wejściowe audio, użyj jednej z następujących metod:

Dotyczy

SpeechRecognitionEngine(String)

Źródło:
SpeechRecognitionEngine.cs
Źródło:
SpeechRecognitionEngine.cs
Źródło:
SpeechRecognitionEngine.cs
Źródło:
SpeechRecognitionEngine.cs

Inicjuje nowe wystąpienie SpeechRecognitionEngine klasy za pomocą parametru ciągu, który określa nazwę aparatu rozpoznawania do użycia.

public:
 SpeechRecognitionEngine(System::String ^ recognizerId);
public SpeechRecognitionEngine(string recognizerId);
new System.Speech.Recognition.SpeechRecognitionEngine : string -> System.Speech.Recognition.SpeechRecognitionEngine
Public Sub New (recognizerId As String)

Parametry

recognizerId
String

Nazwa tokenu rozpoznawania mowy do użycia.

Wyjątki

Nie zainstalowano aparatu rozpoznawania mowy o tej nazwie tokenu lub recognizerId jest pustym ciągiem ("").

Parametr recognizerId ma wartość null.

Przykłady

W poniższym przykładzie przedstawiono część aplikacji konsolowej, która demonstruje podstawowe rozpoznawanie mowy i tworzy wystąpienie usługi Rozpoznawanie mowy 8.0 dla systemu Windows (angielski — STANY USA).

using System;
using System.Speech.Recognition;

namespace SpeechRecognitionApp
{
  class Program
  {
    static void Main(string[] args)
    {

      // Create an instance of the Microsoft Speech Recognizer 8.0 for
      // Windows (English - US).
      using (SpeechRecognitionEngine recognizer =
        new SpeechRecognitionEngine("MS-1033-80-DESK"))
      {

        // Create and load a dictation grammar.
        recognizer.LoadGrammar(new DictationGrammar());

        // Add a handler for the speech recognized event.
        recognizer.SpeechRecognized += new EventHandler(recognizer_SpeechRecognized);

        // Configure input to the speech recognizer.
        recognizer.SetInputToDefaultAudioDevice();

        // Start asynchronous, continuous speech recognition.
        recognizer.RecognizeAsync(RecognizeMode.Multiple);

        // Keep the console window open.
        while (true)
        {
          Console.ReadLine();
        }
      }
    }

    // Handle the SpeechRecognized event.
    static void recognizer_SpeechRecognized(object sender, SpeechRecognizedEventArgs e)
    {
      Console.WriteLine("Recognized text: " + e.Result.Text);
    }
  }
}

Uwagi

Nazwa tokenu rozpoznawania jest wartością Id właściwości RecognizerInfo obiektu zwróconego przez RecognizerInfo właściwość rozpoznawania. Aby uzyskać kolekcję wszystkich zainstalowanych funkcji rozpoznawania, użyj metody statycznej InstalledRecognizers .

Aby rozpoznawanie mowy mogło rozpocząć rozpoznawanie, należy załadować co najmniej jedną gramatykę rozpoznawania mowy i skonfigurować dane wejściowe dla rozpoznawania.

Aby załadować gramatykę, wywołaj metodę LoadGrammar or LoadGrammarAsync .

Aby skonfigurować dane wejściowe audio, użyj jednej z następujących metod:

Dotyczy