Cognitive Services Speech SDK für JavaScript
Übersicht
Um die Entwicklung sprachaktivierter Anwendungen zu vereinfachen, stellt Microsoft das Speech SDK für den Speech-Dienst bereit. Das Speech SDK bietet konsistente native Spracherkennungs- und Sprachübersetzungs-APIs.
Installieren des npm-Moduls
Installieren des npm-Moduls des Cognitive Services Speech SDK
npm install microsoft-cognitiveservices-speech-sdk
Beispiel
Die folgenden Codeausschnitte veranschaulichen, wie die einfache Spracherkennung in einer Datei funktioniert:
// Pull in the required packages.
var sdk = require("microsoft-cognitiveservices-speech-sdk");
var fs = require("fs");
// Replace with your own subscription key, service region (e.g., "westus"), and
// the name of the file you want to run through the speech recognizer.
var subscriptionKey = "YourSubscriptionKey";
var serviceRegion = "YourServiceRegion"; // e.g., "westus"
var filename = "YourAudioFile.wav"; // 16000 Hz, Mono
// Create the push stream we need for the speech sdk.
var pushStream = sdk.AudioInputStream.createPushStream();
// Open the file and push it to the push stream.
fs.createReadStream(filename).on('data', function(arrayBuffer) {
pushStream.write(arrayBuffer.buffer);
}).on('end', function() {
pushStream.close();
});
// We are done with the setup
console.log("Now recognizing from: " + filename);
// Create the audio-config pointing to our stream and
// the speech config specifying the language.
var audioConfig = sdk.AudioConfig.fromStreamInput(pushStream);
var speechConfig = sdk.SpeechConfig.fromSubscription(subscriptionKey, serviceRegion);
// Setting the recognition language to English.
speechConfig.speechRecognitionLanguage = "en-US";
// Create the speech recognizer.
var recognizer = new sdk.SpeechRecognizer(speechConfig, audioConfig);
// Start the recognizer and wait for a result.
recognizer.recognizeOnceAsync(
function (result) {
console.log(result);
recognizer.close();
recognizer = undefined;
},
function (err) {
console.trace("err - " + err);
recognizer.close();
recognizer = undefined;
});
Im vorherigen Beispiel wird die Single-Shot-Erkennung verwendet, die eine einzelne Äußerung erkennt. Sie können auch die fortlaufende Erkennung verwenden, um zu steuern, wann die Erkennung beendet werden soll. In unserer Schritt-für-Schritt-Schnellstartanleitung finden Sie viele weitere Optionen.
Beispiele
Azure SDK for JavaScript