네임스페이스 Microsoft::CognitiveServices::Speech

요약

멤버 설명
enum PropertyId 음성 속성 ID를 정의합니다. 버전 1.4.0에서 변경되었습니다.
enum OutputFormat 출력 형식입니다.
enum ProfanityOption 욕설(욕설)을 제거하거나 불경한 단어의 문자를 별으로 대체합니다. 버전 1.5.0에 추가되었습니다.
enum ResultReason 인식 결과가 생성될 수 있는 가능한 이유를 지정합니다.
enum CancellationReason 인식 결과가 취소될 수 있는 가능한 이유를 정의합니다.
enum CancellationErrorCode CancellationReason이 Error인 경우 오류 코드를 정의합니다. 버전 1.1.0에 추가되었습니다.
enum NoMatchReason 인식 결과가 인식되지 않을 수 있는 가능한 이유를 정의합니다.
enum ActivityJSONType 활동 json 값에 사용할 수 있는 형식을 정의합니다. 버전 1.5.0에 추가되었습니다.
enum SpeechSynthesisOutputFormat 가능한 음성 합성 출력 오디오 형식을 정의합니다. 버전 1.19.0에서 업데이트되었습니다.
enum StreamStatus 오디오 데이터 스트림의 가능한 상태 정의합니다. 버전 1.4.0에 추가되었습니다.
enum ServicePropertyChannel 속성 설정을 서비스에 전달하는 데 사용되는 채널을 정의합니다. 버전 1.5.0에 추가되었습니다.
enum VoiceProfileType 음성 프로필 유형을 정의합니다.
enum RecognitionFactorScope 인식 요소가 적용되는 scope 정의합니다.
enum PronunciationAssessmentGradingSystem 발음 점수 보정을 위한 점 시스템을 정의합니다. 기본값은 FivePoint입니다. 버전 1.14.0에 추가되었습니다.
enum PronunciationAssessmentGranularity 발음 평가 세분성을 정의합니다. 기본값은 Phoneme입니다. 버전 1.14.0에 추가되었습니다.
enum SynthesisVoiceType 버전 1.16.0에서 추가된 합성 음성의 유형을 정의합니다.
enum SynthesisVoiceGender 버전 1.17.0에 추가된 합성 음성의 성별을 정의합니다.
enum SpeechSynthesisBoundaryType 버전 1.21.0에 추가된 음성 합성 경계 이벤트의 경계 유형을 정의합니다.
class AsyncRecognizer AsyncRecognizer 추상 기본 클래스입니다.
class AudioDataStream 오디오 데이터를 스트림으로 작동하는 데 사용되는 오디오 데이터 스트림을 나타냅니다. 버전 1.4.0에 추가되었습니다.
클래스 AutoDetectSourceLanguageConfig 자동 검색 원본 구성을 정의하는 클래스 1.13.0에서 업데이트되었습니다.
class AutoDetectSourceLanguageResult 자동 검색된 원본 언어 결과가 1.8.0에 추가됨을 포함합니다.
class BaseAsyncRecognizer BaseAsyncRecognizer 클래스입니다.
class CancellationDetails 결과가 취소된 이유에 대한 자세한 정보를 포함합니다.
class ClassLanguageModel 동적 문법 시나리오에 대한 문법 목록을 나타냅니다. 버전 1.7.0에 추가되었습니다.
클래스 연결 Connection은 지정된 Recognizer의 음성 서비스에 대한 연결을 관리하기 위한 프록시 클래스입니다. 기본적으로 Recognizer는 필요할 때 서비스에 대한 연결을 자율적으로 관리합니다. Connection 클래스는 사용자가 명시적으로 연결을 열거나 닫고 연결 상태 변경 내용을 구독하는 추가 메서드를 제공합니다. 연결 사용은 선택 사항입니다. 연결 상태 따라 애플리케이션 동작을 미세 조정해야 하는 시나리오를 위한 것입니다. 사용자는 필요에 따라 Open()을 호출하여 이 연결과 연결된 인식기에서 인식을 시작하기 전에 서비스 연결을 수동으로 시작할 수 있습니다. 인식을 시작한 후 Open() 또는 Close()를 호출하지 못할 수 있습니다. 이는 Recognizer 또는 지속적인 인식에 영향을 주지 않습니다. 여러 가지 이유로 인해 연결이 끊어질 수 있으며, Recognizer는 항상 지속적인 작업을 보장하기 위해 필요에 따라 연결을 다시 구성하려고 시도합니다. 이러한 모든 경우 연결/연결 끊김 이벤트는 연결 상태 변경을 나타냅니다. 버전 1.17.0에서 업데이트되었습니다.
class ConnectionEventArgs ConnectionEvent에 대한 데이터를 제공합니다. 버전 1.2.0에 추가되었습니다.
class ConnectionMessage ConnectionMessage는 음성 서비스에서 보내고 받은 특정 메시지 구현을 나타냅니다. 이러한 메시지는 디버깅을 위해 제공되며 Azure Cognitive Services Speech Service의 프로덕션 사용 사례에 사용하면 안 됩니다. Speech Service에서 보내고 받은 메시지는 예고 없이 변경될 수 있습니다. 여기에는 메시지 내용, 헤더, 페이로드, 주문 등이 포함됩니다. 버전 1.10.0에 추가되었습니다.
class ConnectionMessageEventArgs ConnectionMessageEvent에 대한 데이터를 제공합니다.
클래스 EmbeddedSpeechConfig 포함된(오프라인) 음성 구성을 정의하는 클래스입니다.
class EventArgs 이벤트 인수에 대한 기본 클래스입니다.
class EventSignal 클라이언트는 이벤트 신호에 연결하여 이벤트를 수신하거나 이벤트 신호에서 연결을 끊어 이벤트 수신을 중지할 수 있습니다.
class EventSignalBase 클라이언트는 이벤트 신호에 연결하여 이벤트를 수신하거나 이벤트 신호에서 연결을 끊어 이벤트 수신을 중지할 수 있습니다.
클래스 문법 음성 인식을 사용자 지정하기 위한 기본 클래스 문법을 나타냅니다. 버전 1.5.0에 추가되었습니다.
class GrammarList 동적 문법 시나리오에 대한 문법 목록을 나타냅니다. 버전 1.7.0에 추가되었습니다.
class GrammarPhrase 사용자가 말할 수 있는 구를 나타냅니다. 버전 1.5.0에 추가되었습니다.
class HybridSpeechConfig 음성 인식 또는 음성 합성에 대한 하이브리드(클라우드 및 임베디드) 구성을 정의하는 클래스입니다.
class KeywordRecognitionEventArgs KeywordRecognizer에서 내보낸 이벤트에 대한 클래스입니다.
class KeywordRecognitionModel StartKeywordRecognitionAsync 메서드에 사용되는 키워드(keyword) 인식 모델을 나타냅니다.
class KeywordRecognitionResult KeywordRecognizer에서 내보낸 결과를 정의하는 클래스입니다.
class KeywordRecognizer 키워드(keyword) 활성화만 처리하도록 특수화된 인식기 형식입니다.
클래스 NoMatchDetails NoMatch 인식 결과에 대한 자세한 정보를 포함합니다.
class PhraseListGrammar 동적 문법 시나리오에 대한 구 목록 문법을 나타냅니다. 버전 1.5.0에 추가되었습니다.
클래스 PronunciationAssessmentConfig 발음 평가 구성을 정의하는 클래스 1.14.0에 추가되었습니다.
class PronunciationAssessmentResult 발음 평가 결과에 대한 클래스입니다.
class PronunciationContentAssessmentResult 콘텐츠 평가 결과에 대한 클래스입니다.
class PropertyCollection 속성 컬렉션에서 속성 값을 검색하거나 설정하는 클래스입니다.
class RecognitionEventArgs RecognitionEvent에 대한 데이터를 제공합니다.
class RecognitionResult 인식 작업의 결과에 대한 자세한 정보를 포함합니다.
class Recognizer Recognizer 기본 클래스입니다.
클래스 SessionEventArgs 세션 이벤트 인수에 대한 기본 클래스입니다.
클래스 SmartHandle 스마트 핸들 클래스입니다.
class SourceLanguageConfig 1.8.0에 추가된 소스 언어 구성을 정의하는 클래스입니다.
class SourceLanguageRecognizer 원본 언어 인식기를 위한 클래스입니다. 독립 실행형 언어 검색에 이 클래스를 사용할 수 있습니다. 버전 1.17.0에 추가되었습니다.
클래스 SpeechConfig 음성/의도 인식 또는 음성 합성에 대한 구성을 정의하는 클래스입니다.
class SpeechRecognitionCanceledEventArgs 음성 인식 취소된 이벤트 인수에 대한 클래스입니다.
클래스 SpeechRecognitionEventArgs 음성 인식 이벤트 인수에 대한 클래스입니다.
class SpeechRecognitionModel 음성 인식 모델 정보입니다.
class SpeechRecognitionResult 음성 인식 결과에 대한 기본 클래스입니다.
클래스 SpeechRecognizer 음성 인식기를 위한 클래스입니다.
class SpeechSynthesisBookmarkEventArgs 음성 합성 책갈피 이벤트 인수에 대한 클래스입니다. 버전 1.16.0에 추가되었습니다.
클래스 SpeechSynthesisCancellationDetails 결과가 취소된 이유에 대한 자세한 정보를 포함합니다. 버전 1.4.0에 추가되었습니다.
class SpeechSynthesisEventArgs 음성 합성 이벤트 인수에 대한 클래스입니다. 버전 1.4.0에 추가되었습니다.
class SpeechSynthesisResult 텍스트 음성 변환 합성의 결과에 대한 정보를 포함합니다. 버전 1.4.0에 추가되었습니다.
class SpeechSynthesisVisemeEventArgs 음성 합성 viseme 이벤트 인수에 대한 클래스입니다. 버전 1.16.0에 추가되었습니다.
class SpeechSynthesisWordBoundaryEventArgs 음성 합성 단어 경계 이벤트 인수에 대한 클래스입니다. 버전 1.7.0에 추가되었습니다.
class SpeechSynthesizer 음성 신시사이저에 대한 클래스입니다. 버전 1.14.0에서 업데이트되었습니다.
클래스 SpeechTranslationModel 음성 번역 모델 정보입니다.
클래스 SynthesisVoicesResult 음성 신시사이저의 음성 목록 결과에 대한 정보를 포함합니다. 버전 1.16.0에 추가되었습니다.
클래스 VoiceInfo 버전 1.17.0에서 업데이트된 합성 음성 정보에 대한 정보를 포함합니다.

멤버

enum PropertyId

설명
SpeechServiceConnection_Key Cognitive Services Speech Service 구독 키입니다. 의도 인식기를 사용하는 경우 특정 LUIS 앱에 대한 LUIS 엔드포인트 키를 지정해야 합니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromSubscription을 사용합니다.
SpeechServiceConnection_Endpoint Cognitive Services Speech Service 엔드포인트(URL)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromEndpoint를 사용합니다. 참고: 이 엔드포인트는 액세스 토큰을 가져오는 데 사용되는 엔드포인트와 동일하지 않습니다.
SpeechServiceConnection_Region Cognitive Services Speech Service 지역입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromSubscription, SpeechConfig::FromEndpoint, SpeechConfig::FromHost, SpeechConfig::FromAuthorizationToken을 사용합니다.
SpeechServiceAuthorization_Token Cognitive Services Speech Service 권한 부여 토큰(즉, 액세스 토큰)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromAuthorizationToken, SpeechRecognizer::SetAuthorizationToken, IntentRecognizer::SetAuthorizationToken, TranslationRecognizer::SetAuthorizationToken을 사용합니다.
SpeechServiceAuthorization_Type Cognitive Services Speech Service 권한 부여 유형입니다. 현재 사용되지 않습니다.
SpeechServiceConnection_EndpointId Cognitive Services Custom Speech 또는 Custom Voice Service 엔드포인트 ID입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetEndpointId를 사용합니다. 참고: 엔드포인트 ID는 엔드포인트 세부 정보 아래에 나열된 Custom Speech Portal에서 사용할 수 있습니다.
SpeechServiceConnection_Host Cognitive Services Speech Service 호스트(URL)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::FromHost를 사용합니다.
SpeechServiceConnection_ProxyHostName Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 호스트 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy를 사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다.
SpeechServiceConnection_ProxyPort Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 포트입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy를 사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다.
SpeechServiceConnection_ProxyUserName Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 사용자 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy를 사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다.
SpeechServiceConnection_ProxyPassword Cognitive Services Speech Service에 연결하는 데 사용되는 프록시 서버의 암호입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetProxy를 사용합니다. 참고: 이 속성 ID는 버전 1.1.0에 추가되었습니다.
SpeechServiceConnection_Url 음성 구성에서 빌드된 URL 문자열입니다. 이 속성은 읽기 전용입니다. SDK는 내부적으로 사용하고 있습니다. 참고: 버전 1.5.0에 추가되었습니다.
SpeechServiceConnection_TranslationToLanguages 대상 번역 언어로 사용되는 쉼표로 구분된 언어 목록입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechTranslationConfig::AddTargetLanguage 및 SpeechTranslationConfig::GetTargetLanguages를 사용합니다.
SpeechServiceConnection_TranslationVoice Cognitive Service Text to Speech Service 음성의 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechTranslationConfig::SetVoiceName을 사용합니다. 참고: 유효한 음성 이름은 여기에서 찾을 수 있습니다.
SpeechServiceConnection_TranslationFeatures 번역 기능. 내부적으로만 사용할 수 있습니다.
SpeechServiceConnection_IntentRegion Language Understanding 서비스 지역입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 LanguageUnderstandingModel을 사용합니다.
SpeechServiceConnection_RecoMode Cognitive Services Speech Service 인식 모드입니다. "INTERACTIVE", "CONVERSATION", "DICTATION"일 수 있습니다. 이 속성은 읽기 전용입니다. SDK는 내부적으로 사용하고 있습니다.
SpeechServiceConnection_RecoLanguage 인식할 음성 언어입니다(BCP-47 형식). 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetSpeechRecognitionLanguage를 사용합니다.
Speech_SessionId 세션 ID입니다. 이 ID는 오디오 입력 스트림의 특정 바인딩 및 바인딩된 기본 음성 인식 instance 나타내는 범용 고유 식별자(즉, UUID)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SessionEventArgs::SessionId를 사용합니다.
SpeechServiceConnection_UserDefinedQueryParameters 사용자가 제공하는 쿼리 매개 변수입니다. URL 쿼리 매개 변수로 서비스에 전달됩니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceConnection_RecoBackend 음성 인식에 사용할 백 엔드를 지정하는 문자열입니다. 허용된 옵션은 온라인 및 오프라인입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 오프라인 옵션은 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_RecoModelName 음성 인식에 사용할 모델의 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_RecoModelKey 음성 인식에 사용할 모델의 암호 해독 키입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_RecoModelIniFile 음성 인식에 사용할 모델의 ini 파일에 대한 경로입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_SynthLanguage 합성할 음성 언어(예: en-US) 버전 1.4.0에 추가되었습니다.
SpeechServiceConnection_SynthVoice 버전 1.4.0에 추가된 음성 합성에 사용할 TTS 음성의 이름입니다.
SpeechServiceConnection_SynthOutputFormat 버전 1.4.0에서 추가된 TTS 출력 오디오 형식을 지정하는 문자열입니다.
SpeechServiceConnection_SynthEnableCompressedAudioTransmission 음성 합성 오디오 전송에 압축 오디오 형식을 사용하는지 나타냅니다. 이 속성은 SpeechServiceConnection_SynthOutputFormat pcm 형식으로 설정된 경우에만 영향을 줍니다. 이 속성을 설정하지 않고 GStreamer를 사용할 수 있는 경우 SDK는 합성된 오디오 전송에 압축 형식을 사용하고 디코딩합니다. 이 속성을 "false"로 설정하여 유선 전송에 원시 pcm 형식을 사용할 수 있습니다. 버전 1.16.0에 추가되었습니다.
SpeechServiceConnection_SynthBackend TTS 백 엔드를 지정할 문자열입니다. 유효한 옵션은 온라인 및 오프라인입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 EmbeddedSpeechConfig::FromPath 또는 EmbeddedSpeechConfig::FromPaths 를 사용하여 합성 백 엔드를 오프라인으로 설정합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_SynthOfflineDataPath 오프라인 합성 엔진에 대한 데이터 파일 경로입니다. 합성 백 엔드가 오프라인인 경우에만 유효합니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 EmbeddedSpeechConfig::FromPath 또는 EmbeddedSpeechConfig::FromPaths를 사용합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_SynthOfflineVoice 일반적인 상황에서 음성 합성에 사용할 오프라인 TTS 음성의 이름은 이 속성을 직접 사용하면 안 됩니다. 대신 EmbeddedSpeechConfig::SetSpeechSynthesisVoiceEmbeddedSpeechConfig::GetSpeechSynthesisVoiceName을 사용합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_SynthModelKey 음성 합성에 사용할 음성의 암호 해독 키입니다. 정상적인 상황에서는 이 속성을 직접 사용하면 안 됩니다. 대신 EmbeddedSpeechConfig::SetSpeechSynthesisVoice를 사용합니다. 버전 1.19.0에 추가되었습니다.
SpeechServiceConnection_VoicesListEndpoint Cognitive Services Speech Service 음성은 api 엔드포인트(URL)를 나열합니다. 정상적인 상황에서는 이 속성을 지정할 필요가 없습니다. SDK는 SpeechConfig의 지역/호스트/엔드포인트를 기반으로 구성합니다. 버전 1.16.0에 추가되었습니다.
SpeechServiceConnection_InitialSilenceTimeoutMs 서비스에서 사용하는 초기 무음 시간 제한 값(밀리초)입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceConnection_EndSilenceTimeoutMs 서비스에서 사용하는 종료 무음 시간 제한 값(밀리초)입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceConnection_EnableAudioLogging 서비스에서 오디오 로깅을 사용할지 여부를 지정하는 부울 값입니다. 오디오 및 콘텐츠 로그는 Microsoft 소유 스토리지 또는 Cognitive Services 구독에 연결된 사용자 고유의 스토리지 계정(BYOS(Bring Your Own Storage) 사용 음성 리소스)에 저장됩니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceConnection_LanguageIdMode 음성 서비스 연결 언어 식별자 모드입니다. "AtStart"(기본값) 또는 "연속"일 수 있습니다. 언어 식별 문서를 참조하세요. 1.25.0에 추가되었습니다.
SpeechServiceConnection_AutoDetectSourceLanguages 버전 1.8.0에 추가된 소스 언어 자동 검색
SpeechServiceConnection_AutoDetectSourceLanguageResult 자동 검색 원본 언어 결과 버전 1.8.0에 추가되었습니다.
SpeechServiceResponse_RequestDetailedResultTrueFalse 요청된 Cognitive Services Speech Service 응답 출력 형식(단순 또는 상세)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 SpeechConfig::SetOutputFormat을 사용합니다.
SpeechServiceResponse_RequestProfanityFilterTrueFalse 요청된 Cognitive Services Speech Service 응답 출력 욕설 수준입니다. 현재 사용되지 않습니다.
SpeechServiceResponse_ProfanityOption 요청된 Cognitive Services Speech Service 응답 출력 욕설 설정입니다. 허용되는 값은 "masked", "removed" 및 "raw"입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceResponse_PostProcessingOption 서비스에서 사용해야 하는 후처리 옵션을 지정하는 문자열 값입니다. 허용되는 값은 "TrueText"입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceResponse_RequestWordLevelTimestamps 응답 결과에 단어 수준 타임스탬프를 포함할지 여부를 지정하는 부울 값입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceResponse_StablePartialResultThreshold 단어를 반환할 부분 결과에 있어야 하는 횟수입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceResponse_OutputFormatOption 응답 결과에서 출력 형식 옵션을 지정하는 문자열 값입니다. 내부적으로만 사용됩니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceResponse_RequestSnr 응답 결과에 SNR(신호 대 노이즈 비율)을 포함할지 여부를 지정하는 부울 값입니다. 버전 1.18.0에 추가되었습니다.
SpeechServiceResponse_TranslationRequestStablePartialResult 마지막에 단어를 생략하여 번역 부분 결과를 안정화하도록 요청할 부울 값입니다. 버전 1.5.0에 추가되었습니다.
SpeechServiceResponse_RequestWordBoundary WordBoundary 이벤트를 요청할지 여부를 지정하는 부울 값입니다. 버전 1.21.0에 추가되었습니다.
SpeechServiceResponse_RequestPunctuationBoundary WordBoundary 이벤트에서 문장 부호 경계를 요청할지 여부를 지정하는 부울 값입니다. 기본값은 true입니다. 버전 1.21.0에 추가되었습니다.
SpeechServiceResponse_RequestSentenceBoundary WordBoundary 이벤트에서 문장 경계를 요청할지 여부를 지정하는 부울 값입니다. 기본값은 false입니다. 버전 1.21.0에 추가되었습니다.
SpeechServiceResponse_SynthesisEventsSyncToAudio SDK가 합성 메타데이터 이벤트(예: 단어 경계, viseme 등)를 오디오 재생에 동기화할지 여부를 지정하는 부울 값입니다. 이는 오디오가 SDK를 통해 재생될 때만 적용됩니다. 기본값은 true입니다. false로 설정하면 SDK는 서비스에서 발생하는 이벤트를 발생하며 오디오 재생과 동기화되지 않을 수 있습니다. 버전 1.31.0에 추가되었습니다.
SpeechServiceResponse_JsonResult Cognitive Services Speech Service 응답 출력(JSON 형식). 이 속성은 인식 결과 개체에서만 사용할 수 있습니다.
SpeechServiceResponse_JsonErrorDetails Cognitive Services Speech Service 오류 세부 정보(JSON 형식). 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 CancellationDetails::ErrorDetails를 사용합니다.
SpeechServiceResponse_RecognitionLatencyMs 인식 대기 시간(밀리초)입니다. 읽기 전용이며 최종 음성/번역/의도 결과에서 사용할 수 있습니다. 이렇게 하면 SDK에서 오디오 입력을 받은 시간과 서비스에서 최종 결과를 받는 순간 사이의 대기 시간을 측정합니다. SDK는 최종 결과에 기여하는 오디오 입력의 마지막 오디오 조각과 음성 서비스에서 최종 결과가 수신되는 시간 간의 시간 차이를 계산합니다. 버전 1.3.0에 추가되었습니다.
SpeechServiceResponse_RecognitionBackend 인식 백 엔드입니다. 읽기 전용이며 음성 인식 결과에서 사용할 수 있습니다. 이는 클라우드(온라인) 또는 포함된(오프라인) 인식이 결과를 생성하는 데 사용되었는지 여부를 나타냅니다.
SpeechServiceResponse_SynthesisFirstByteLatencyMs 음성 합성 첫 번째 바이트 대기 시간(밀리초)입니다. 읽기 전용이며 최종 음성 합성 결과에서 사용할 수 있습니다. 이는 합성이 처리되기 시작한 시간과 첫 번째 바이트 오디오를 사용할 수 있는 순간 사이의 대기 시간을 측정합니다. 버전 1.17.0에 추가되었습니다.
SpeechServiceResponse_SynthesisFinishLatencyMs 음성은 모든 바이트 대기 시간을 밀리초 단위로 합성합니다. 읽기 전용이며 최종 음성 합성 결과에서 사용할 수 있습니다. 이는 합성이 처리되기 시작한 시점과 전체 오디오가 합성되는 순간 사이의 대기 시간을 측정합니다. 버전 1.17.0에 추가되었습니다.
SpeechServiceResponse_SynthesisUnderrunTimeMs 음성 합성의 언더런 시간(밀리초)입니다. 읽기 전용이며 SynthesisCompleted 이벤트의 결과에서 사용할 수 있습니다. 이는 합성이 완료되도록 채워지는 PropertyId::AudioConfig_PlaybackBufferLengthInMs 총 언더런 시간을 측정합니다. 버전 1.17.0에 추가되었습니다.
SpeechServiceResponse_SynthesisConnectionLatencyMs 음성 합성 연결 대기 시간(밀리초)입니다. 읽기 전용이며 최종 음성 합성 결과에서 사용할 수 있습니다. 이는 합성이 처리되기 시작한 시점과 HTTP/WebSocket 연결이 설정된 순간 사이의 대기 시간을 측정합니다. 버전 1.26.0에 추가되었습니다.
SpeechServiceResponse_SynthesisNetworkLatencyMs 음성 합성 네트워크 대기 시간(밀리초)입니다. 읽기 전용이며 최종 음성 합성 결과에서 사용할 수 있습니다. 네트워크 왕복 시간을 측정합니다. 버전 1.26.0에 추가되었습니다.
SpeechServiceResponse_SynthesisServiceLatencyMs 음성 합성 서비스 대기 시간(밀리초)입니다. 읽기 전용이며 최종 음성 합성 결과에서 사용할 수 있습니다. 이렇게 하면 오디오의 첫 번째 바이트를 합성하는 서비스 처리 시간이 측정됩니다. 버전 1.26.0에 추가되었습니다.
SpeechServiceResponse_SynthesisBackend 합성이 완료된 백 엔드를 나타냅니다. SynthesisStarted 이벤트 버전 1.17.0에 추가된 결과를 제외하고 음성 합성 결과에서 사용할 수 있는 읽기 전용입니다.
CancellationDetails_Reason 취소 이유입니다. 현재 사용되지 않습니다.
CancellationDetails_ReasonText 취소 텍스트입니다. 현재 사용되지 않습니다.
CancellationDetails_ReasonDetailedText 취소 세부 텍스트입니다. 현재 사용되지 않습니다.
LanguageUnderstandingServiceResponse_JsonResult Language Understanding 서비스 응답 출력(JSON 형식)입니다. IntentRecognitionResult.Properties를 통해 사용할 수 있습니다.
AudioConfig_DeviceNameForCapture 오디오 캡처의 디바이스 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 AudioConfig::FromMicrophoneInput을 사용합니다. 참고: 이 속성 ID는 버전 1.3.0에 추가되었습니다.
AudioConfig_NumberOfChannelsForCapture 오디오 캡처를 위한 채널 수입니다. 내부적으로만 사용됩니다. 참고: 이 속성 ID는 버전 1.3.0에 추가되었습니다.
AudioConfig_SampleRateForCapture 오디오 캡처에 대한 샘플 속도(Hz)입니다. 내부적으로만 사용됩니다. 참고: 이 속성 ID는 버전 1.3.0에 추가되었습니다.
AudioConfig_BitsPerSampleForCapture 오디오 캡처를 위한 각 샘플의 비트 수입니다. 내부적으로만 사용됩니다. 참고: 이 속성 ID는 버전 1.3.0에 추가되었습니다.
AudioConfig_AudioSource 오디오 원본입니다. 허용되는 값은 "마이크", "파일" 및 "Stream"입니다. 버전 1.3.0에 추가되었습니다.
AudioConfig_DeviceNameForRender 오디오 렌더링의 디바이스 이름입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 AudioConfig::FromSpeakerOutput을 사용합니다. 버전 1.14.0에 추가되었습니다.
AudioConfig_PlaybackBufferLengthInMs 재생 버퍼 길이(밀리초)이며 기본값은 50밀리초입니다.
AudioConfig_AudioProcessingOptions JSON 형식의 오디오 처리 옵션입니다.
Speech_LogFilename 로그를 쓸 파일 이름입니다. 버전 1.4.0에 추가되었습니다.
Speech_SegmentationSilenceTimeoutMs 감지된 무음 기간(밀리초)으로 측정되며, 그 후에 음성 텍스트 변환은 음성 구가 종료되었음을 확인하고 최종 인식된 결과를 생성합니다. 이 시간 제한을 구성하는 것은 음성 입력이 평소보다 훨씬 빠르거나 느리고 기본 구분 동작이 너무 길거나 너무 짧은 결과를 일관되게 생성하는 경우에 유용할 수 있습니다. 부적절하게 높거나 낮은 세분화 시간 제한 값은 음성 텍스트 변환 정확도에 부정적인 영향을 줄 수 있습니다. 이 속성은 신중하게 구성해야 하며 결과 동작은 의도한 대로 철저히 유효성을 검사해야 합니다.
Conversation_ApplicationId 백 엔드 서비스에 연결하는 데 사용되는 식별자입니다. 버전 1.5.0에 추가되었습니다.
Conversation_DialogType 연결할 대화 백 엔드의 유형입니다. 버전 1.7.0에 추가되었습니다.
Conversation_Initial_Silence_Timeout 수신 대기에 대한 무음 시간 제한 버전 1.5.0에 추가되었습니다.
Conversation_From_Id ID에서 음성 인식 작업에 사용할 버전 1.5.0에 추가되었습니다.
Conversation_Conversation_Id 세션에 대한 ConversationId입니다. 버전 1.8.0에 추가되었습니다.
Conversation_Custom_Voice_Deployment_Ids 사용자 지정 음성 배포 ID의 쉼표로 구분된 목록입니다. 버전 1.8.0에 추가되었습니다.
Conversation_Speech_Activity_Template 음성 활동 템플릿, 음성 서비스에 의해 생성된 활동에 대한 템플릿의 스탬프 속성입니다. 버전 1.10.0에 추가되었습니다.
Conversation_ParticipantId 현재 대화의 참가자 식별자입니다. 버전 1.13.0에 추가되었습니다.
Conversation_Request_Bot_Status_Messages
Conversation_Connection_Id
DataBuffer_TimeStamp 끌어오기/푸시 오디오 입력 스트림을 사용할 때 클라이언트가 작성한 데이터 버퍼에 연결된 타임스탬프를 지정합니다. 타임스탬프는 해상도가 90kHz인 64비트 값입니다. MPEG 전송 스트림의 프레젠테이션 타임스탬프와 동일합니다. 버전 1.5.0에서 추가됨을 참조하세요 https://en.wikipedia.org/wiki/Presentation_timestamp .
DataBuffer_UserId 끌어오기/푸시 오디오 입력 스트림을 사용할 때 클라이언트가 작성한 데이터 버퍼에 연결된 사용자 ID입니다. 버전 1.5.0에 추가되었습니다.
PronunciationAssessment_ReferenceText 발음 평가를 위한 오디오의 참조 텍스트입니다. 이 매개 변수와 다음 발음 평가 매개 변수는 발음 평가 매개 변수 표를 참조하세요. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create 또는 PronunciationAssessmentConfig::SetReferenceText를 사용합니다. 버전 1.14.0에 추가되었습니다.
PronunciationAssessment_GradingSystem 발음 점수 보정을 위한 점 시스템(FivePoint 또는 HundredMark)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create를 사용합니다. 버전 1.14.0에 추가되었습니다.
PronunciationAssessment_Granularity 발음 평가 세분성(Phoneme, Word 또는 FullText)입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create를 사용합니다. 버전 1.14.0에 추가되었습니다.
PronunciationAssessment_EnableMiscue 잘못된 계산을 사용하도록 설정할지 정의합니다. 이를 사용하도록 설정하면 발음된 단어를 참조 텍스트와 비교하여, 비교를 바탕으로 생략/삽입으로 표시합니다. 기본 설정은 False입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create를 사용합니다. 버전 1.14.0에 추가되었습니다.
PronunciationAssessment_PhonemeAlphabet 발음 평가 음소 알파벳입니다. 유효한 값은 "SAPI"(기본값) 및 "IPA"입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::SetPhonemeAlphabet을 사용합니다. 버전 1.20.0에 추가되었습니다.
PronunciationAssessment_NBestPhonemeCount 발음 평가 nbest 음소 수입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::SetNBestPhonemeCount를 사용합니다. 버전 1.20.0에 추가되었습니다.
PronunciationAssessment_EnableProsodyAssessment prosody 평가를 사용하도록 설정할지 여부입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::EnableProsodyAssessment를 사용합니다. 버전 1.33.0에 추가되었습니다.
PronunciationAssessment_Json 발음 평가 매개 변수의 json 문자열 일반적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::Create를 사용합니다. 버전 1.14.0에 추가되었습니다.
PronunciationAssessment_Params 발음 평가 매개 변수입니다. 이 속성은 읽기 전용입니다. SDK는 내부적으로 사용하고 있습니다. 버전 1.14.0에 추가되었습니다.
PronunciationAssessment_ContentTopic 발음 평가의 콘텐츠 항목입니다. 정상적인 상황에서는 이 속성을 직접 사용할 필요가 없습니다. 대신 PronunciationAssessmentConfig::EnableContentAssessmentWithTopic을 사용합니다. 버전 1.33.0에 추가되었습니다.
SpeakerRecognition_Api_Version Speaker Recognition 백 엔드 API 버전입니다. 이 속성은 해당되는 경우 이전 버전의 Speaker Recognition API를 테스트하고 사용할 수 있도록 추가됩니다. 버전 1.18.0에 추가되었습니다.
SpeechTranslation_ModelName 음성 번역에 사용할 모델의 이름입니다. 이 속성을 직접 사용하지 마세요. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다.
SpeechTranslation_ModelKey 음성 번역에 사용할 모델의 암호 해독 키입니다. 이 속성을 직접 사용하지 마세요. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다.
KeywordRecognition_ModelName 키워드(keyword) 인식에 사용할 모델의 이름입니다. 이 속성을 직접 사용하지 마세요. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다.
KeywordRecognition_ModelKey 키워드(keyword) 인식에 사용할 모델의 암호 해독 키입니다. 이 속성을 직접 사용하지 마세요. 현재 EmbeddedSpeechConfig를 사용하는 경우에만 유효합니다.
EmbeddedSpeech_EnablePerformanceMetrics 포함된 음성을 사용하는 디바이스의 기능을 평가하는 데 사용할 수 있는 포함된 음성 성능 메트릭의 컬렉션을 사용하도록 설정합니다. 수집된 데이터는 음성 인식과 같은 특정 시나리오의 결과에 포함됩니다. 기본 설정은 “false”입니다. 모든 포함된 음성 시나리오에서 메트릭을 사용할 수 없습니다.

음성 속성 ID를 정의합니다. 버전 1.4.0에서 변경되었습니다.

enum OutputFormat

설명
단순
자세히

출력 형식입니다.

enum ProfanityOption

설명
마스크됨 불경한 단어의 문자를 star 문자로 대체합니다.
제거됨 불경한 단어를 제거합니다.
Raw 단어를 모독하기 위해 아무 것도 하지 않습니다.

욕설(욕설)을 제거하거나 불경한 단어의 문자를 별으로 대체합니다. 버전 1.5.0에 추가되었습니다.

enum ResultReason

설명
NoMatch 음성을 인식할 수 없음을 나타냅니다. 자세한 내용은 NoMatchDetails 개체에서 찾을 수 있습니다.
취소됨 인식이 취소되었음을 나타냅니다. 자세한 내용은 CancellationDetails 개체를 사용하여 찾을 수 있습니다.
RecognizingSpeech 음성 결과에 가설 텍스트가 포함되어 있음을 나타냅니다.
RecognizedSpeech 음성 결과에 인식된 최종 텍스트가 포함되어 있음을 나타냅니다. 이제 이 구에 대해 음성 인식이 완료되었습니다.
RecognizingIntent 의도 결과에 가설 텍스트와 의도가 포함되어 있음을 나타냅니다.
RecognizedIntent 의도 결과에 최종 텍스트와 의도가 포함되어 있음을 나타냅니다. 이제 이 구에 대해 음성 인식 및 의도 확인이 완료되었습니다.
번역스피치 번역 결과에 가설 텍스트와 해당 번역이 포함되어 있음을 나타냅니다.
TranslatedSpeech 번역 결과에 최종 텍스트와 해당 번역이 포함되어 있음을 나타냅니다. 이제 이 구에 대해 음성 인식 및 번역이 완료되었습니다.
SynthesizingAudio 합성된 오디오 결과에 0이 아닌 양의 오디오 데이터가 포함되어 있음을 나타냅니다.
SynthesizingAudioCompleted 이제 이 구에 대해 합성된 오디오가 완료되었음을 나타냅니다.
RecognizingKeyword 음성 결과에 (확인되지 않은) 키워드(keyword) 텍스트가 포함되어 있음을 나타냅니다. 버전 1.3.0에 추가되었습니다.
RecognizedKeyword 지정된 키워드(keyword) 인식하는 키워드(keyword) 인식이 완료되었음을 나타냅니다. 버전 1.3.0에 추가되었습니다.
SynthesizingAudioStarted 이제 음성 합성이 버전 1.4.0에서 추가됨을 나타냅니다.
번역ParticipantSpeech 대화의 다른 참가자에 대한 가설 텍스트와 번역이 전사 결과에 포함됨을 나타냅니다. 버전 1.8.0에 추가되었습니다.
TranslatedParticipantSpeech 대화의 다른 참가자에 대한 최종 텍스트와 해당 번역이 전사 결과에 포함됨을 나타냅니다. 이제 이 구에 대해 음성 인식 및 번역이 완료되었습니다. 버전 1.8.0에 추가되었습니다.
TranslatedInstantMessage 대화 내용 기록 결과에 인스턴트 메시지와 해당 번역이 포함되어 있음을 나타냅니다. 버전 1.8.0에 추가되었습니다.
TranslatedParticipantInstantMessage 대화의 다른 참가자 및 해당 번역에 대한 인스턴트 메시지가 전사 결과에 포함됨을 나타냅니다. 버전 1.8.0에 추가되었습니다.
EnrollingVoiceProfile 음성 프로필이 등록 중이며 고객이 음성 프로필을 만들기 위해 더 많은 오디오를 보내야 했음을 나타냅니다. 버전 1.12.0에 추가되었습니다.
EnrolledVoiceProfile 음성 프로필이 등록되었습니다. 버전 1.12.0에 추가되었습니다.
RecognizedSpeakers 일부 스피커를 성공적으로 식별했음을 나타냅니다. 버전 1.12.0에 추가되었습니다.
RecognizedSpeaker 한 명의 스피커가 성공적으로 확인되었음을 나타냅니다. 버전 1.12.0에 추가되었습니다.
ResetVoiceProfile 음성 프로필이 성공적으로 다시 설정되었음을 나타냅니다. 버전 1.12.0에 추가되었습니다.
DeletedVoiceProfile 음성 프로필이 성공적으로 삭제되었음을 나타냅니다. 버전 1.12.0에 추가되었습니다.
VoicesListRetrieved 음성 목록이 성공적으로 검색되었음을 나타냅니다. 버전 1.16.0에 추가되었습니다.

인식 결과가 생성될 수 있는 가능한 이유를 지정합니다.

enum CancellationReason

설명
오류 음성 인식 중에 오류가 발생했음을 나타냅니다.
EndOfStream 오디오 스트림의 끝에 도달했음을 나타냅니다.
CancelledByUser 사용자가 요청을 취소했음을 나타냅니다. 버전 1.14.0에 추가되었습니다.

인식 결과가 취소될 수 있는 가능한 이유를 정의합니다.

enum CancellationErrorCode

설명
NoError 오류가 없습니다. CancellationReason이 EndOfStream이면 CancellationErrorCode가 NoError로 설정됩니다.
AuthenticationFailure 인증 오류를 나타냅니다. 구독 키 또는 권한 부여 토큰이 유효하지 않거나 만료되었거나 사용 중인 지역과 일치하지 않는 경우 인증 오류가 발생합니다.
BadRequest 하나 이상의 인식 매개 변수가 잘못되었거나 오디오 형식이 지원되지 않음을 나타냅니다.
TooManyRequests 병렬 요청 수가 구독에 대해 허용되는 동시 전사 수를 초과했음을 나타냅니다.
사용할 수 없음 요청에 사용된 무료 구독에 할당량이 부족했음을 나타냅니다.
ConnectionFailure 연결 오류를 나타냅니다.
ServiceTimeout 서비스의 응답을 기다리는 동안 시간 초과 오류가 발생했음을 나타냅니다.
ServiceError 서비스에서 오류가 반환됨을 나타냅니다.
ServiceUnavailable 서비스를 현재 사용할 수 없음을 나타냅니다.
RuntimeError 예기치 않은 런타임 오류를 나타냅니다.
ServiceRedirectTemporary Speech Service가 일시적으로 다른 엔드포인트에 다시 연결하도록 요청하고 있음을 나타냅니다.
ServiceRedirectPermanent Speech Service가 다른 엔드포인트에 대한 다시 연결 을 영구적으로 요청하고 있음을 나타냅니다.
EmbeddedModelError 포함된 음성(SR 또는 TTS) 모델을 사용할 수 없거나 손상되었음을 나타냅니다.

CancellationReason이 오류인 경우 오류 코드를 정의합니다. 버전 1.1.0에 추가되었습니다.

enum NoMatchReason

설명
NotRecognized 음성이 검색되었지만 인식되지 않음을 나타냅니다.
InitialSilenceTimeout 오디오 스트림의 시작에 무음만 포함되고 서비스가 음성을 기다리는 시간이 초과되었음을 나타냅니다.
InitialBabbleTimeout 오디오 스트림의 시작 부분에 노이즈만 포함되고 서비스가 음성 대기 시간이 초과되었음을 나타냅니다.
KeywordNotRecognized 키워드(keyword) 확인 서비스에서 발견된 키워드(keyword) 거부되었음을 나타냅니다. 버전 1.5.0에 추가되었습니다.
EndSilenceTimeout 오디오 스트림에 마지막으로 인식된 구 다음에만 무음이 포함되어 있음을 나타냅니다.

인식 결과가 인식되지 않을 수 있는 가능한 이유를 정의합니다.

enum ActivityJSONType

설명
Null
Object
Array
String
Double
UInt
Int
Boolean

활동 json 값에 대해 가능한 형식을 정의합니다. 버전 1.5.0에 추가되었습니다.

enum SpeechSynthesisOutputFormat

설명
Raw8Khz8BitMonoMULaw raw-8khz-8bit-mono-mulaw
Riff16Khz16KbpsMonoSiren riff-16khz-16kbps-mono-siren 서비스에서 지원되지 않습니다. 이 값을 사용하지 마세요.
Audio16Khz16KbpsMonoSiren audio-16khz-16kbps-mono-siren 서비스에서 지원되지 않습니다. 이 값을 사용하지 마세요.
Audio16Khz32KBitRateMonoMp3 audio-16khz-32kbitrate-mono-mp3
Audio16Khz128KBitRateMonoMp3 audio-16khz-128kbitrate-mono-mp3
Audio16Khz64KBitRateMonoMp3 audio-16khz-64kbitrate-mono-mp3
Audio24Khz48KBitRateMonoMp3 audio-24khz-48kbitrate-mono-mp3
Audio24Khz96KBitRateMonoMp3 audio-24khz-96kbitrate-mono-mp3
Audio24Khz160KBitRateMonoMp3 audio-24khz-160kbitrate-mono-mp3
Raw16Khz16BitMonoTrueSilk raw-16khz-16bit-mono-truesilk
Riff16Khz16BitMonoPcm riff-16khz-16bit-mono-pcm
Riff8Khz16BitMonoPcm riff-8khz-16bit-mono-pcm
Riff24Khz16BitMonoPcm riff-24khz-16bit-mono-pcm
Riff8Khz8BitMonoMULaw riff-8khz-8bit-mono-mulaw
Raw16Khz16BitMonoPcm raw-16khz-16bit-mono-pcm
Raw24Khz16BitMonoPcm raw-24khz-16bit-mono-pcm
Raw8Khz16BitMonoPcm raw-8khz-16bit-mono-pcm
Ogg16Khz16BitMonoOpus ogg-16khz-16bit-mono-opus
Ogg24Khz16BitMonoOpus ogg-24khz-16bit-mono-opus
Raw48Khz16BitMonoPcm raw-48khz-16bit-mono-pcm
Riff48Khz16BitMonoPcm riff-48khz-16bit-mono-pcm
Audio48Khz96KBitRateMonoMp3 audio-48khz-96kbitrate-mono-mp3
Audio48Khz192KBitRateMonoMp3 audio-48khz-192kbitrate-mono-mp3
Ogg48Khz16BitMonoOpus ogg-48khz-16bit-mono-opus 버전 1.16.0에 추가됨
Webm16Khz16BitMonoOpus webm-16khz-16bit-mono-opus 버전 1.16.0에 추가됨
Webm24Khz16BitMonoOpus webm-24khz-16bit-mono-opus 버전 1.16.0에 추가됨
Raw24Khz16BitMonoTrueSilk raw-24khz-16bit-mono-truesilk 버전 1.17.0에 추가됨
Raw8Khz8BitMonoALaw raw-8khz-8bit-mono-alaw 버전 1.17.0에 추가됨
Riff8Khz8BitMonoALaw riff-8khz-8bit-mono-alaw 버전 1.17.0에 추가됨
Webm24Khz16Bit24KbpsMonoOpus webm-24khz-16bit-24kbps-mono-opus IoT 시나리오에 최적화된 비트 전송률이 24kbps인 WebM 컨테이너의 OPUS 코덱에 의해 압축된 오디오입니다. (1.19.0에 추가됨)
Audio16Khz16Bit32KbpsMonoOpus audio-16khz-16bit-32kbps-mono-opus 오디오는 컨테이너 없이 OPUS 코덱에 의해 압축되며 비트 전송률은 32kbps입니다. (1.20.0에 추가됨)
Audio24Khz16Bit48KbpsMonoOpus audio-24khz-16bit-48kbps-mono-opus 오디오는 컨테이너 없이 OPUS 코덱에 의해 압축되며 비트 전송률은 48kbps입니다. (1.20.0에 추가됨)
Audio24Khz16Bit24KbpsMonoOpus audio-24khz-16bit-24kbps-mono-opus 컨테이너 없이 OPUS 코덱에 의해 압축되고 비트 전송률은 24kbps입니다. (1.20.0에 추가됨)
Raw22050Hz16BitMonoPcm raw-22050hz-16bit-mono-pcm 원시 PCM 오디오(22050Hz 샘플링 속도 및 16비트 깊이). (1.22.0에 추가됨)
Riff22050Hz16BitMonoPcm RIFF 헤더를 사용하여 22050Hz 샘플링 속도 및 16비트 깊이의 riff-22050hz-16비트-모노-pcm PCM 오디오. (1.22.0에 추가됨)
Raw44100Hz16BitMonoPcm raw-44100hz-16bit-mono-pcm 원시 PCM 오디오(44100Hz 샘플링 속도 및 16비트 깊이). (1.22.0에 추가됨)
Riff44100Hz16BitMonoPcm RIFF 헤더를 사용하여 44100Hz 샘플링 속도 및 16비트 깊이의 riff-44100hz-16bit-mono-pcm PCM 오디오. (1.22.0에 추가됨)
AmrWb16000Hz amr-wb-16000hz AMR-WB 오디오(16kHz 샘플링 속도). (1.24.0에 추가됨)

가능한 음성 합성 출력 오디오 형식을 정의합니다. 버전 1.19.0에서 업데이트되었습니다.

enum StreamStatus

설명
Unknown 오디오 데이터 스트림 상태 알 수 없습니다.
NoData 오디오 데이터 스트림에 데이터가 없습니다.
PartialData 오디오 데이터 스트림에는 음성 요청의 부분 데이터가 포함됩니다.
Alldata 오디오 데이터 스트림에는 음성 요청의 모든 데이터가 포함됩니다.
취소됨 오디오 데이터 스트림이 취소되었습니다.

오디오 데이터 스트림의 가능한 상태 정의합니다. 버전 1.4.0에 추가되었습니다.

enum ServicePropertyChannel

설명
UriQueryParameter URI 쿼리 매개 변수를 사용하여 속성 설정을 서비스에 전달합니다.
HttpHeader HttpHeader를 사용하여 HTTP 헤더에 키/값을 설정합니다.

속성 설정을 서비스에 전달하는 데 사용되는 채널을 정의합니다. 버전 1.5.0에 추가되었습니다.

enum VoiceProfileType

설명
TextIndependentIdentification 텍스트 독립적 화자 식별.
TextDependentVerification 텍스트 종속 화자 확인.
TextIndependentVerification 텍스트 독립적 확인.

음성 프로필 유형을 정의합니다.

enum RecognitionFactorScope

설명
PartialPhrase 인식 요소는 개별 부분 구로 참조할 수 있는 문법에 적용됩니다.

인식 요소가 적용되는 scope 정의합니다.

enum PronunciationAssessmentGradingSystem

설명
FivePoint 5점 보정.
HundredMark 백 마크.

발음 점수 보정을 위한 점 시스템을 정의합니다. 기본값은 FivePoint입니다. 버전 1.14.0에 추가되었습니다.

enum PronunciationAssessmentGranularity

설명
표음 전체 텍스트, 단어 및 음소 수준의 점수를 표시합니다.
Word 전체 텍스트 및 단어 수준의 점수를 표시합니다.
FullText 전체 텍스트 수준에서만 점수를 표시합니다.

발음 평가 세분성을 정의합니다. 기본값은 Phoneme입니다. 버전 1.14.0에 추가되었습니다.

enum SynthesisVoiceType

설명
OnlineNeural 온라인 신경망 음성.
OnlineStandard 온라인 표준 음성.
OfflineNeural 오프라인 신경망 음성.
OfflineStandard 오프라인 표준 음성.

버전 1.16.0에서 추가된 합성 음성의 유형을 정의합니다.

enum SynthesisVoiceGender

설명
Unknown 성별을 알 수 없습니다.
Female 여성의 목소리.
Male 남성의 목소리.

버전 1.17.0에 추가된 합성 음성의 성별을 정의합니다.

enum SpeechSynthesisBoundaryType

설명
Word Word 경계입니다.
문장 부호 문장 부호 경계입니다.
문장 문장 경계입니다.

버전 1.21.0에 추가된 음성 합성 경계 이벤트의 경계 유형을 정의합니다.