다음을 통해 공유


LexicalTokenizerName type

LexicalTokenizerName의 값을 정의합니다.
<xref:KnownLexicalTokenizerName> 는 LexicalTokenizerName과 교환하여 사용할 수 있습니다. 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

classic: 대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰라이저입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html를 참조하세요.
edgeNGram: 에지의 입력을 지정된 크기의 n그램으로 토큰화합니다. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html를 참조하세요.
keyword_v2: 전체 입력을 단일 토큰으로 내보낸다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html를 참조하세요.
letter: 텍스트를 문자가 아닌 문자로 나눕니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html를 참조하세요.
소문자: 텍스트를 문자가 아닌 텍스트로 나누고 소문자로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html를 참조하세요.
microsoft_language_tokenizer: 언어별 규칙을 사용하여 텍스트를 나눕니다.
microsoft_language_stemming_tokenizer: 언어별 규칙을 사용하여 텍스트를 나누고 단어를 기본 형식으로 줄입니다.
nGram: 입력을 지정된 크기의 n-그램으로 토큰화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html를 참조하세요.
path_hierarchy_v2: 경로와 유사한 계층 구조에 대한 토큰화기입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html를 참조하세요.
pattern: regex 패턴 일치를 사용하여 고유 토큰을 생성하는 Tokenizer입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html를 참조하세요.
standard_v2: 표준 Lucene 분석기; 표준 토큰라이저, 소문자 필터 및 중지 필터로 구성됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html를 참조하세요.
uax_url_email: URL 및 전자 메일을 하나의 토큰으로 토큰화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html를 참조하세요.
공백: 공백에서 텍스트를 나눕니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html를 참조하세요.

type LexicalTokenizerName = string