다음을 통해 공유


TokenFilterName type

TokenFilterName에 대한 값을 정의합니다.
<xref:KnownTokenFilterName> TokenFilterName과 교환하여 사용할 수 있습니다. 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

arabic_normalization: 아랍어 정규화를 적용하여 orthography를 정규화하는 토큰 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html을 참조하십시오.
아포스트로피: 아포스트로피(아포스트로피 자체 포함) 뒤의 모든 문자를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html을 참조하십시오.
asciifolding: 처음 127개의 ASCII 문자("기본 라틴어" 유니코드 블록)에 없는 알파벳, 숫자 및 기호 유니코드 문자를 ASCII 등가물(있는 경우)으로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html을 참조하십시오.
cjk_bigram: 표준 토큰라이저에서 생성된 CJK 용어의 bigrams를 형성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html을 참조하십시오.
cjk_width: CJK 너비 차이를 정규화합니다. ASCII 변형을 해당하는 기본 라틴어로 접고 반자 가타카나 변형을 해당하는 가나로 접습니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html을 참조하십시오.
classic: 머리글자어에서 영어 소유 및 점을 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html을 참조하십시오.
common_grams: 인덱싱하는 동안 자주 발생하는 용어에 대한 bigrams를 생성합니다. 단일 단어도 바이그램이 오버레이된 상태로 계속 인덱싱됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html를 참조하세요.
edgeNGram_v2: 입력 토큰의 앞이나 뒷면에서 시작하여 지정된 크기의 n그램을 생성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html를 참조하세요.
elision: 엘리션을 제거합니다. 예를 들어 "l'avion"(평면)은 "avion"(평면)으로 변환됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html을 참조하십시오.
german_normalization: German2 눈덩이 알고리즘의 추론에 따라 독일어 문자를 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html을 참조하십시오.
hindi_normalization: 힌디어로 텍스트를 정규화하여 맞춤법 변형의 몇 가지 차이점을 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html를 참조하세요.
indic_normalization: 인도어로 된 텍스트의 유니코드 표현을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html를 참조하세요.
keyword_repeat: 들어오는 각 토큰을 키워드(keyword) 한 번, 키워드(keyword) 아닌 토큰으로 두 번 내보낸다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html를 참조하세요.
kstem: 영어용 고성능 kstem 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html를 참조하세요.
length: 너무 길거나 너무 짧은 단어를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html를 참조하세요.
limit: 인덱싱하는 동안 토큰 수를 제한합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html를 참조하세요.
소문자: 토큰 텍스트를 소문자로 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm를 참조하세요.
nGram_v2: 지정된 크기의 n그램을 생성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html를 참조하세요.
persian_normalization: 페르시아어 정규화를 적용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html를 참조하세요.
phonetic: 윗주 일치에 대한 토큰을 만듭니다. https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html를 참조하세요.
porter_stem: Porter 형태소 분석 알고리즘을 사용하여 토큰 스트림을 변환합니다. http://tartarus.org/~martin/PorterStemmer를 참조하세요.
reverse: 토큰 문자열을 반대로 바꿉니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html를 참조하세요.
scandinavian_normalization: 교환 가능한 스칸디나비아 문자의 사용을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html를 참조하세요.
scandinavian_folding: 스칸디나비아 문자 åÅäæÄÆ-a>와 öÖøØ-o>를 접습니다. 또한 이중 모음 aa, ae, ao, oe 및 oo의 사용과 구분하고 첫 번째 모음만 남겨둡니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html을 참조하십시오.
shingle: 토큰의 조합을 단일 토큰으로 만듭니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html을 참조하십시오.
snowball: Snowball에서 생성된 형태소 분석기를 사용하여 단어를 막는 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html를 참조하세요.
sorani_normalization: Sorani 텍스트의 유니코드 표현을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html을 참조하십시오.
형태소 분석기: 언어별 형태소 분석 필터입니다. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters을 참조하십시오.
stopwords: 토큰 스트림에서 중지 단어를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html을 참조하십시오.
trim: 토큰에서 선행 및 후행 공백을 트리밍합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html를 참조하세요.
truncate: 용어를 특정 길이로 자립니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html을 참조하십시오.
unique: 이전 토큰과 동일한 텍스트로 토큰을 필터링합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html을 참조하십시오.
대문자: 토큰 텍스트를 대문자로 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html을 참조하십시오.
word_delimiter: 단어를 하위 단어로 분할하고 하위 단어 그룹에서 선택적 변환을 수행합니다.

type TokenFilterName = string