microsoft-cognitiveservices-speech-sdk package

الفصول

ActivityReceivedEventArgs

يحدد محتويات الرسائل/الأحداث المستلمة.

AudioConfig

يمثل تكوين إدخال الصوت المستخدم لتحديد نوع الإدخال الذي يجب استخدامه (الميكروفون والملف والدفق).

AudioInputStream

يمثل دفق إدخال الصوت المستخدم لتكوينات إدخال الصوت المخصصة.

AudioOutputStream

يمثل دفق إخراج الصوت المستخدم لتكوينات إخراج الصوت المخصصة.

AudioStreamFormat

يمثل تنسيق دفق الصوت المستخدم لتكوينات إدخال الصوت المخصصة.

AutoDetectSourceLanguageConfig

تكوين الكشف التلقائي للغة.

AutoDetectSourceLanguageResult

نموذج الإخراج

AvatarConfig

يحدد تكوين الأفاتار الحديث.

AvatarEventArgs

يحدد المحتوى الخاص بأحداث الأفاتار الناطقة.

AvatarSynthesizer

يحدد تركيب الأفاتار.

AvatarVideoFormat

يحدد تنسيق فيديو إخراج الأفاتار.

AvatarWebRTCConnectionResult

يحدد نتيجة اتصال avatar WebRTC.

BaseAudioPlayer

فئة مشغل الصوت الأساسي TODO: يشغل PCM فقط في الوقت الحالي.

BotFrameworkConfig

الفئة التي تحدد تكوينات كائن موصل خدمة الحوار لاستخدام الواجهة الخلفية ل Bot Framework.

CancellationDetails

يحتوي على معلومات مفصلة حول سبب إلغاء النتيجة.

CancellationDetailsBase

يحتوي على معلومات مفصلة حول سبب إلغاء النتيجة.

Connection

الاتصال هو فئة وكيل لإدارة الاتصال بخدمة الكلام ل Recognizer المحدد. بشكل افتراضي، يدير Recognizer الاتصال بالخدمة بشكل مستقل عند الحاجة. توفر فئة الاتصال أساليب إضافية للمستخدمين لفتح اتصال أو إغلاقه بشكل صريح والاشتراك في تغييرات حالة الاتصال. استخدام الاتصال اختياري، وبشكل أساسي للسيناريوهات التي يلزم فيها ضبط سلوك التطبيق استنادا إلى حالة الاتصال. يمكن للمستخدمين اختياريا الاتصال ب Open() لإعداد اتصال يدويا مسبقا قبل بدء التعرف على Recognizer المقترن بهذا الاتصال. إذا كان أداة التعرف بحاجة إلى الاتصال بالخدمة أو قطع الاتصال بها، فسيتم إعداد الاتصال أو إيقاف تشغيله بشكل مستقل. في هذه الحالة سيتم إعلام الاتصال عن طريق تغيير حالة الاتصال عبر الأحداث المتصلة/غير المتصلة. تمت إضافته في الإصدار 1.2.1.

ConnectionEventArgs

يحدد البيانات الأساسية لأحداث الاتصال مثل متصل/غير متصل. تمت إضافته في الإصدار 1.2.0

ConnectionMessage

يمثل ConnectionMessage رسائل تنفيذ محددة يتم إرسالها إلى خدمة الكلام وتلقيها منها. يتم توفير هذه الرسائل لأغراض تصحيح الأخطاء ولا يجب استخدامها لحالات استخدام الإنتاج مع Azure Cognitive Services Speech Service. تخضع الرسائل المرسلة إلى خدمة الكلام والمستلمة منها للتغيير دون إشعار. يتضمن ذلك محتويات الرسائل والعناوين والحمولات وترتيبها وما إلى ذلك. تمت إضافته في الإصدار 1.11.0.

ConnectionMessageEventArgs
Conversation
ConversationExpirationEventArgs

يحدد المحتوى لأحداث جلسة العمل مثل SessionStarted/Stopped، SoundStarted/Stopped.

ConversationParticipantsChangedEventArgs

يحدد المحتوى لأحداث جلسة العمل مثل SessionStarted/Stopped، SoundStarted/Stopped.

ConversationTranscriber

يقوم بإجراء التعرف على الكلام مع فصل السماعة عن الميكروفون أو الملف أو تدفقات إدخال الصوت الأخرى، ويحصل على نص منسوخ نتيجة لذلك.

ConversationTranscriptionCanceledEventArgs

يحدد محتوى RecognitionErrorEvent.

ConversationTranscriptionEventArgs

يحدد محتويات الحدث المنسوخ/المنسوخ للمحادثة.

ConversationTranscriptionResult

يحدد نتيجة كتابة المحادثة.

ConversationTranslationCanceledEventArgs
ConversationTranslationEventArgs

يحدد البيانات الأساسية لأحداث الجلسة مثل Speech Start/End Detected

ConversationTranslationResult

نتيجة نص الترجمة.

ConversationTranslator

الانضمام إلى محادثة أو تركها أو الاتصال بها.

Coordinate

يحدد إحداثيات في مساحة ثنائية الأبعاد.

CustomCommandsConfig

الفئة التي تحدد تكوينات كائن موصل خدمة الحوار لاستخدام خلفية CustomCommands.

Diagnostics

تعريف واجهة برمجة تطبيقات التشخيص لإدارة إخراج وحدة التحكم المضافة في الإصدار 1.21.0

DialogServiceConfig

الفئة التي تحدد التكوينات الأساسية لموصل خدمة الحوار

DialogServiceConnector

موصل خدمة مربع الحوار

IntentRecognitionCanceledEventArgs

تعريف حمولة أحداث النتائج الملغاة للتعرف على الهدف.

IntentRecognitionEventArgs

وسيطات حدث نتيجة التعرف على الهدف.

IntentRecognitionResult

نتيجة التعرف على الهدف.

IntentRecognizer

أداة التعرف على الهدف.

KeywordRecognitionModel

يمثل نموذج التعرف على الكلمات الأساسية للتعرف عندما يقول المستخدم كلمة أساسية لبدء مزيد من التعرف على الكلام.

LanguageUnderstandingModel

نموذج فهم اللغة

Meeting
MeetingTranscriber
MeetingTranscriptionCanceledEventArgs

يحدد محتوى MeetingTranscriptionCanceledEvent.

MeetingTranscriptionEventArgs

يحدد محتويات حدث الاجتماع المنسوخ/الم transcribing.

NoMatchDetails

يحتوي على معلومات مفصلة لنتائج التعرف على NoMatch.

Participant

تمثيل مشارك في محادثة. تمت إضافته في الإصدار 1.4.0

PhraseListGrammar

يسمح بإضافات العبارات الجديدة لتحسين التعرف على الكلام.

العبارات المضافة إلى أداة التعرف فعالة في بداية التعرف التالي، أو في المرة التالية التي يجب فيها إعادة اتصال SpeechSDK بخدمة الكلام.

PronunciationAssessmentConfig

تكوين تقييم النطق.

PronunciationAssessmentResult

نتائج تقييم النطق.

PropertyCollection

يمثل مجموعة من الخصائص وقيمها.

PullAudioInputStream

يمثل دفق إدخال الصوت المستخدم لتكوينات إدخال الصوت المخصصة.

PullAudioInputStreamCallback

فئة أساسية مجردة تحدد أساليب رد الاتصال (read() و close()) لتدفقات إدخال الصوت المخصصة).

PullAudioOutputStream

يمثل دفق إخراج صوت الدفع المدعوم بالذاكرة المستخدم لتكوينات إخراج الصوت المخصصة.

PushAudioInputStream

يمثل دفق إدخال صوت الدفع المدعوم بالذاكرة المستخدم لتكوينات إدخال الصوت المخصصة.

PushAudioOutputStream

يمثل دفق إخراج الصوت المستخدم لتكوينات إخراج الصوت المخصصة.

PushAudioOutputStreamCallback

فئة أساسية مجردة تحدد أساليب رد الاتصال (write() و close()) لتدفقات إخراج الصوت المخصصة).

RecognitionEventArgs

يحدد البيانات الأساسية لأحداث الجلسة مثل Speech Start/End Detected

RecognitionResult

يحدد نتيجة التعرف على الكلام.

Recognizer

يحدد أداة التعرف على الفئة الأساسية التي تحتوي بشكل أساسي على معالجات الأحداث الشائعة.

ServiceEventArgs

تعريف الحمولة لأي حدث رسالة خدمة تمت إضافته في الإصدار 1.9.0

SessionEventArgs

يحدد المحتوى لأحداث جلسة العمل مثل SessionStarted/Stopped، SoundStarted/Stopped.

SourceLanguageConfig

تكوين لغة المصدر.

SpeakerAudioDestination

يمثل وجهة صوت تشغيل السماعة، والتي تعمل فقط في المستعرض. ملاحظة: سيحاول SDK استخدام Media Source Extensions لتشغيل الصوت. يحتوي تنسيق Mp3 على دعم أفضل على Microsoft Edge وChrome وSafari (سطح المكتب)، لذلك، من الأفضل تحديد تنسيق mp3 للتشغيل.

SpeakerIdentificationModel

تعريف فئة SpeakerIdentificationModel لنموذج التعرف على المتحدث تحتوي على مجموعة من ملفات التعريف التي يمكن من خلالها تحديد المتحدث (المتحدثين)

SpeakerRecognitionCancellationDetails
SpeakerRecognitionResult

نموذج الإخراج

SpeakerRecognizer

يحدد فئة SpeakerRecognizer للتعرف على المتحدث يعالج العمليات من المستخدم لعمليات ملف تعريف الصوت (على سبيل المثال createProfile، deleteProfile)

SpeakerVerificationModel

تعريف فئة SpeakerVerificationModel لنموذج التعرف على المتحدث يحتوي على ملف تعريف للتحقق من مكبر الصوت

SpeechConfig

تكوين الكلام.

SpeechConfigImpl
SpeechRecognitionCanceledEventArgs
SpeechRecognitionEventArgs

يحدد محتويات حدث التعرف على الكلام/التعرف عليه.

SpeechRecognitionResult

يحدد نتيجة التعرف على الكلام.

SpeechRecognizer

يقوم بإجراء التعرف على الكلام من الميكروفون أو الملف أو تدفقات إدخال الصوت الأخرى، ويحصل على نص منسوخ نتيجة لذلك.

SpeechSynthesisBookmarkEventArgs

يحدد محتويات حدث إشارة مرجعية لتركيب الكلام.

SpeechSynthesisEventArgs

يحدد محتويات أحداث تركيب الكلام.

SpeechSynthesisResult

يحدد نتيجة تركيب الكلام.

SpeechSynthesisVisemeEventArgs

يحدد محتويات حدث viseme لتركيب الكلام.

SpeechSynthesisWordBoundaryEventArgs

يحدد محتويات حدث حد كلمة تركيب الكلام.

SpeechSynthesizer

تعريف الفئة SpeechSynthesizer للنص إلى كلام. تم التحديث في الإصدار 1.16.0

SpeechTranslationConfig

تكوين ترجمة الكلام.

SynthesisResult

الفئة الأساسية لنتائج التركيب

SynthesisVoicesResult

يحدد نتيجة تركيب الكلام.

Synthesizer
TranslationRecognitionCanceledEventArgs

تعريف البيانات الأساسية لأحداث النتائج الملغاة للتعرف على الكلام.

TranslationRecognitionEventArgs

وسيطات حدث نتيجة نص الترجمة.

TranslationRecognitionResult

نتيجة نص الترجمة.

TranslationRecognizer

أداة التعرف على الترجمة

TranslationSynthesisEventArgs

وسيطات حدث تجميع الترجمة

TranslationSynthesisResult

يحدد نتيجة تركيب الترجمة، أي الإخراج الصوتي للنص المترجم باللغة الهدف.

Translations

يمثل مجموعة من المعلمات وقيمها.

TurnStatusReceivedEventArgs

يحدد محتويات الرسائل/الأحداث المستلمة.

User
VoiceInfo

معلومات حول صوت تركيب الكلام المضاف في الإصدار 1.20.0.

VoiceProfile

تعريف فئة ملف التعريف الصوتي للتعرف على المتحدث

VoiceProfileCancellationDetails
VoiceProfileClient

تعريف فئة VoiceProfileClient للتعرف على المتحدث يعالج العمليات من المستخدم لعمليات ملف تعريف الصوت (على سبيل المثال createProfile، deleteProfile)

VoiceProfileEnrollmentCancellationDetails
VoiceProfileEnrollmentResult

نموذج الإخراج

VoiceProfilePhraseResult

نموذج الإخراج

VoiceProfileResult

نموذج الإخراج

الواجهات

CancellationEventArgs
ConversationInfo
IParticipant

تمثيل مشارك في محادثة. تمت إضافته في الإصدار 1.4.0

IPlayer

يمثل واجهة مشغل الصوت للتحكم في تشغيل الصوت، مثل إيقاف مؤقت واستئناف وما إلى ذلك.

IVoiceJson
MeetingInfo
VoiceSignature

التعدادات

AudioFormatTag
CancellationErrorCode

يحدد رمز الخطأ في حالة أن CancellationReason هو Error. تمت إضافته في الإصدار 1.1.0.

CancellationReason

يحدد الأسباب المحتملة لإلغاء نتيجة التعرف.

LanguageIdMode

وضع تعريف اللغة

LogLevel
NoMatchReason

يحدد الأسباب المحتملة لعدم التعرف على نتيجة التعرف.

OutputFormat

تعريف تنسيقات إخراج Speech Recognizer.

ParticipantChangedReason
ProfanityOption

خيار الألفاظ النابية. تمت إضافته في الإصدار 1.7.0.

PronunciationAssessmentGradingSystem

يحدد نظام النقاط لمعايرة درجة النطق؛ القيمة الافتراضية هي FivePoint. تمت إضافته في الإصدار 1.15.0

PronunciationAssessmentGranularity

يحدد دقة تقييم النطق؛ القيمة الافتراضية هي Phoneme. تمت إضافته في الإصدار 1.15.0

PropertyId

يحدد معرفات خصائص الكلام.

ResultReason

يحدد الأسباب المحتملة لإنشاء نتيجة التعرف.

ServicePropertyChannel

يحدد القنوات المستخدمة لتمرير إعدادات الخاصية إلى الخدمة. تمت إضافته في الإصدار 1.7.0.

SpeakerRecognitionResultType
SpeechSynthesisBoundaryType

يحدد نوع حد حدث حد تركيب الكلام.

SpeechSynthesisOutputFormat

تعريف تنسيقات إخراج صوت تركيب الكلام. SpeechSynthesisOutputFormat محدث في الإصدار 1.17.0

VoiceProfileType

نموذج الإخراج