다음을 통해 공유


TokenFilterName type

TokenFilterName에 대한 값을 정의합니다.
tokenFilterName과 상호 교환하여 사용할 수 <xref:KnownTokenFilterName> 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

arabic_normalization: Orthography를 정규화하기 위해 아랍어 정규화를 적용하는 토큰 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html 참조
아포스트로피: 아포스트로피(아포스트로피 자체 포함) 뒤의 모든 문자를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html 참조
asciifolding: 처음 127개의 ASCII 문자("기본 라틴어" 유니코드 블록)에 없는 알파벳, 숫자 및 기호 유니코드 문자를 해당하는 ASCII 등가물로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html 참조
cjk_bigram: 표준 토케나이저에서 생성된 CJK 용어의 bigrams를 형성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html 참조
cjk_width: CJK 너비 차이를 정규화합니다. 전체폭 ASCII 변형을 해당하는 기본 라틴어로 접고 반자 가타카나 변형을 해당하는 가나로 접습니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html 참조
클래식: 약어에서 영어 소유 및 점을 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html 참조
common_grams: 인덱싱하는 동안 자주 발생하는 용어에 대한 bigrams를 생성합니다. 단일 용어도 여전히 인덱싱되며 bigrams가 오버레이됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html 참조
edgeNGram_v2: 입력 토큰의 앞이나 뒷면에서 시작하여 지정된 크기의 n-gram을 생성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html 참조
엘리전: 엘리션을 제거합니다. 예를 들어 "l'avion"(평면)은 "avion"(평면)으로 변환됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html 참조
german_normalization: German2 snowball 알고리즘의 추론에 따라 독일어 문자를 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html 참조
hindi_normalization: 맞춤법 변형의 일부 차이를 제거하기 위해 힌디어로 텍스트를 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html 참조
indic_normalization: 인도어로 된 텍스트의 유니코드 표현을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html 참조
keyword_repeat: 들어오는 각 토큰을 키워드로 한 번, 키워드가 아닌 토큰으로 두 번 내보낸다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html 참조
kstem: 영어용 고성능 kstem 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html 참조
길이: 너무 길거나 너무 짧은 단어를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html 참조
제한: 인덱싱하는 동안 토큰 수를 제한합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html 참조
소문자: 토큰 텍스트를 소문자로 정규화합니다. https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html 참조
nGram_v2: 지정된 크기의 n-gram을 생성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html 참조
persian_normalization: 페르시아어 정규화를 적용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html 참조
윗주: 윗주 일치에 대한 토큰을 만듭니다. https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html 참조
porter_stem: Porter 형태소 분석 알고리즘을 사용하여 토큰 스트림을 변환합니다. http://tartarus.org/~martin/PorterStemmer 참조
역방향: 토큰 문자열을 반대로 바꿉니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html 참조
scandinavian_normalization: 교환 가능한 스칸디나비아 문자의 사용을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html 참조
scandinavian_folding: åÅäæÄÆ- a와 öÖøØ->o를>스칸디나비아 문자를 접습니다. 또한 이중 모음 aa, ae, ao, oe 및 oo의 사용을 차별하여 첫 번째 모음만 남깁니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html 참조
대상 포진: 토큰 조합을 단일 토큰으로 만듭니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html 참조
snowball: Snowball에서 생성된 형태소 분석기를 사용하여 단어를 막는 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html 참조
sorani_normalization: Sorani 텍스트의 유니코드 표현을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html 참조
형태소 분석기: 언어별 형태소 분석 필터입니다. https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters 참조
중지 단어: 토큰 스트림에서 중지 단어를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html 참조
트리밍: 토큰에서 선행 및 후행 공백을 트리밍합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html 참조
자르기 : 용어를 특정 길이로 자립니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html 참조
고유한
: 이전 토큰과 동일한 텍스트로 토큰을 필터링합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html 참조
대문자: 토큰 텍스트를 대문자로 정규화합니다. https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html 참조
word_delimiter: 단어를 하위 단어로 분할하고 하위 단어 그룹에서 선택적 변환을 수행합니다.

type TokenFilterName = string