TokenFilterName type
TokenFilterName の値を定義します。
TokenFilterName と同じ意味で使用できる <xref:KnownTokenFilterName>、この列挙型には、サービスがサポートする既知の値が含まれています。
サービスでサポートされている既知の値
arabic_normalization: アラビア語のノーマライザーを適用して序数を正規化するトークン フィルター。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html を参照してください
アポストロフィ: アポストロフィの後のすべての文字を取り除きます (アポストロフィ自体を含む)。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html を参照してください
asciifolding: 最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) に含まれていないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html を参照してください
cjk_bigram: 標準トークナイザーから生成される CJK 用語のビグラムを形成します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html を参照してください
cjk_width: CJK の幅の違いを正規化します。 フルwidth ASCIIバリアントを同等の基本的なラテン語に、半角カタカナバリアントを同等のかなに折りたたみます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html を参照してください
クラシック: 頭字語から英語の所有物とドットを削除します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html を参照してください
common_grams: インデックス作成中に頻繁に発生する用語のビグラムを構築します。 単一の用語もインデックスが作成され、バイグラムが重なっています。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html を参照してください
edgeNGram_v2: 入力トークンの前面または背面から始まる、指定されたサイズの n グラムを生成します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html を参照してください
elision: エリシオンを削除します。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html を参照してください
german_normalization: German2 snowball アルゴリズムのヒューリスティックに従って、ドイツ語の文字を正規化します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html を参照してください
hindi_normalization: ヒンディー語のテキストを正規化して、スペル バリエーションの違いを削除します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html を参照してください
indic_normalization: インド言語でのテキストの Unicode 表現を正規化します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html を参照してください
keyword_repeat: 各受信トークンをキーワードとして 1 回、非キーワードとして 1 回ずつ出力します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html を参照してください
kstem: 英語用の高性能 kstem フィルター。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html を参照してください
長: 長すぎる単語または短すぎる単語を削除します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html を参照してください
制限: インデックス作成中のトークンの数を制限します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html を参照してください
小文字: トークン テキストを小文字に正規化します。
https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html を参照してください
nGram_v2: 指定されたサイズの n グラムを生成します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html を参照してください
persian_normalization: ペルシア語の正規化を適用します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html を参照してください
ふりがな: ふりがなのトークンを作成します。
https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html を参照してください
porter_stem: Porter ステミング アルゴリズムを使用してトークン ストリームを変換します。
http://tartarus.org/~martin/PorterStemmer を参照してください
逆: トークン文字列を反転します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html を参照してください
scandinavian_normalization: 交換可能なスカンジナビア文字の使用を正規化します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html を参照してください
scandinavian_folding: スカンジナビア文字 åÅäæÄÆ->a および öÖøØ->o. また、二重母音 aa、ae、ao、oe、oo の使用を区別し、最初の母音だけを残します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html を参照してください
シングル: トークンの組み合わせを 1 つのトークンとして作成します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html を参照してください
snowball: Snowball で生成されたステマーを使用して単語を語幹にするフィルター。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html を参照してください
sorani_normalization: Sorani テキストの Unicode 表現を正規化します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html を参照してください
ステマー: 言語固有のステミング フィルター。
https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters を参照してください
ストップワード: トークン ストリームからストップ ワードを削除します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html を参照してください
trim: トークンから先頭と末尾の空白をトリミングします。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html を参照してください
切り捨て: 用語を特定の長さに切り捨てます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html を参照してください
一意の: 前のトークンと同じテキストを使用してトークンを除外します。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html を参照してください
大文字: トークン テキストを大文字に正規化します。
https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html を参照してください
word_delimiter: 単語をサブワードに分割し、サブワード グループに対してオプションの変換を実行します。
type TokenFilterName = string