AccessCondition
|
一連の操作の追加パラメーター。
|
Analyzer
|
アナライザーの抽象基本クラス。
|
AnalyzeRequest
|
そのテキストをトークンに分割するために使用されるテキストコンポーネントと分析コンポーネントを指定します。
|
AnalyzeResult
|
テキストでアナライザーをテストした結果。
|
AnalyzerName.AsString
|
すべてのアナライザーの名前をプレーン文字列として指定します。
|
AsciiFoldingTokenFilter
|
最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) にないアルファベット文字、数値文字、およびシンボリック Unicode 文字を、ASCII に相当する文字 (存在する場合) に変換します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
|
AutocompleteItem
|
オートコンプリート要求の結果。
|
AutocompleteParameters
|
AutocompleteGet 操作の追加パラメーター。
|
AutocompleteResult
|
オートコンプリート クエリの結果。
|
CharFilter
|
文字フィルターの抽象基本クラス。
https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search
|
CjkBigramTokenFilter
|
StandardTokenizer から生成される CJK 用語のバイグラムが形成されます。
このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
|
ClassicTokenizer
|
ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
|
CognitiveServices
|
スキルセットにアタッチされているコグニティブ サービス リソースを記述するための抽象基本クラス。
|
CognitiveServicesByKey
|
スキルセットにアタッチされているキーを使用してプロビジョニングされたコグニティブ サービス リソース。
|
CommonGramTokenFilter
|
インデックス付けの間に、頻繁に発生する用語に対してバイグラムが作成されます。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
|
ConditionalSkill
|
ブール演算を必要とするシナリオで、出力に割り当てるデータを決定できるようにするスキル。
https://docs.microsoft.com/azure/search/cognitive-search-skill-conditional
|
CorsOptions
|
インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。
https://docs.microsoft.com/rest/api/searchservice/Create-Index
|
CustomAnalyzer
|
テキストをインデックス可能/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みのトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。
トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。
|
DataChangeDetectionPolicy
|
データ変更検出ポリシーの抽象型基本クラス。
|
DataContainer
|
インデックスが作成されるエンティティ (Azure SQL テーブルや DocumentDb コレクションなど) に関する情報を表します。
|
DataDeletionDetectionPolicy
|
データ削除検出ポリシーの抽象型基本クラス。
|
DataSource
|
インデクサーの構成に使用できるデータソース定義を表します。
|
DataSourceCredentials
|
データソースに接続するために使用できる資格情報を表します。
|
DataSourceListResult
|
データソースの一覧表示要求からの応答。 成功した場合は、すべてのデータソースの完全な定義が含まれます。
|
DataType.AsString
|
すべてのデータ型の名前をプレーン文字列として指定します。
|
DataTypeExtensions
|
の拡張メソッドを定義します DataType 。
|
DefaultCognitiveServices
|
スキルセットの既定のコグニティブ サービス リソースを表す空のオブジェクト。
|
DictionaryDecompounderTokenFilter
|
多くのゲルマン言語に出現する複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/compound/DictionaryCompoundWordTokenFilter.html
|
DistanceScoringFunction
|
地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。
https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index
|
DistanceScoringParameters
|
距離スコアリング関数にパラメーター値を提供します。
|
Document
|
ドキュメントをプロパティ バッグとして表します。 これは、インデックス スキーマが実行時にのみ認識されるシナリオに役立ちます。
|
DocumentIndexResult
|
インデックス作成要求内のすべてのドキュメントの操作の状態を含む応答。
|
DocumentSearchResult<T>
|
インデックスからの検索結果を含む応答。
|
DocumentSuggestResult<T>
|
インデックスからの提案クエリ結果を含む応答。
|
EdgeNGramTokenFilter
|
入力トークンの前面または背面から始まる、指定されたサイズの n-gram を生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
|
EdgeNGramTokenFilterV2
|
入力トークンの前面または背面から始まる、指定されたサイズの n-gram を生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
|
EdgeNGramTokenizer
|
エッジからの入力を特定のサイズの n グラムにトークン化します。
このトークナイザーは、Apache Lucene を使用して実装されます。
https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
|
ElisionTokenFilter
|
省略記号が削除されます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
|
EntityRecognitionSkill
|
テキスト分析エンティティ認識。
https://docs.microsoft.com/azure/search/cognitive-search-skill-entity-recognition
|
FacetResult
|
ファセット クエリ結果の 1 つのバケット。 フィールド値が特定の範囲内にある、または特定の値または間隔を持つドキュメントの数を報告します。
|
Field
|
フィールドの名前、データ型、および検索動作を記述する、インデックス定義内のフィールドを表します。
https://docs.microsoft.com/rest/api/searchservice/Create-Index
|
FieldMapping
|
データ ソース内のフィールドとインデックス内のターゲット フィールドの間のマッピングを定義します。
https://docs.microsoft.com/azure/search/search-indexer-field-mappings
|
FieldMappingFunction
|
インデックスを作成する前にデータ ソースから値を変換する関数を表します。
https://docs.microsoft.com/azure/search/search-indexer-field-mappings
|
FreshnessScoringFunction
|
日時フィールドの値に基づいてスコアをブーストする関数を定義します。
https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index
|
FreshnessScoringParameters
|
鮮度スコアリング関数にパラメーター値を提供します。
|
HighWaterMarkChangeDetectionPolicy
|
高ウォーター マーク列の値に基づいて変更をキャプチャするデータ変更検出ポリシーを定義します。
|
ImageAnalysisSkill
|
画像ファイルを分析するスキル。 画像コンテンツに基づいて、豊富なビジュアル機能のセットを抽出します。
https://docs.microsoft.com/azure/search/cognitive-search-skill-image-analysis
|
Index
|
インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。
|
IndexAction
|
ドキュメントに対して動作するインデックス アクションを作成するためのファクトリ メソッドを提供します。
|
IndexAction<T>
|
ドキュメントに対して動作するインデックス アクションを表します。
|
IndexBatch
|
検索インデックスに送信するドキュメント書き込み操作のバッチを作成するためのファクトリ メソッドを提供します。
|
IndexBatch<T>
|
インデックスに送信するドキュメント書き込みアクションのバッチが含まれます。
|
Indexer
|
インデクサーを表します。
https://docs.microsoft.com/rest/api/searchservice/Indexer-operations
|
IndexerExecutionInfo
|
インデクサーの現在の状態と実行の履歴を表します。
|
IndexerExecutionResult
|
個々のインデクサーの実行結果を表します。
|
IndexerLimits
|
IndexerListResult
|
インデクサーの一覧表示要求からの応答。 成功した場合は、すべてのインデクサーの完全な定義が含まれます。
|
IndexGetStatisticsResult
|
特定のインデックスの統計。 統計は定期的に収集され、常に最新であるとは限りません。
|
IndexingParameters
|
インデクサー実行のパラメーターを表します。
|
IndexingParametersExtensions
|
IndexingParameters クラスの拡張メソッドを定義します。
|
IndexingResult
|
1 つのドキュメントのインデックス作成操作の状態。
|
IndexingSchedule
|
インデクサー実行のスケジュールを表します。
|
IndexListResult
|
List Indexes 要求からの応答。 成功した場合は、すべてのインデックスの完全な定義が含まれます。
|
InputFieldMappingEntry
|
スキルの入力フィールド マッピング。
|
ItemError
|
アイテムレベルまたはドキュメントレベルのインデックス作成エラーを表します。
|
ItemWarning
|
アイテム レベルの警告を表します。
|
KeepTokenFilter
|
指定した単語の一覧に含まれるテキストを持つトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeepWordFilter.html
|
KeyPhraseExtractionSkill
|
キー フレーズ抽出にテキスト分析を使用するスキル。
https://docs.microsoft.com/azure/search/cognitive-search-skill-keyphrases
|
KeywordMarkerTokenFilter
|
用語がキーワードとしてマークされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordMarkerFilter.html
|
KeywordTokenizer
|
入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
|
KeywordTokenizerV2
|
入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
|
LanguageDetectionSkill
|
入力テキストの言語を検出し、要求で送信されたすべてのドキュメントに対して 1 つの言語コードを報告するスキル。 言語コードは、分析の信頼度を示すスコアとペアになっています。
https://docs.microsoft.com/azure/search/cognitive-search-skill-language-detection
|
LengthTokenFilter
|
長すぎる単語または短すぎる単語が削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
|
LimitTokenFilter
|
インデックス付けの間に、トークンの数が制限されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
|
MagnitudeScoringFunction
|
数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。
https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index
|
MagnitudeScoringParameters
|
マグニチュード スコアリング関数にパラメーター値を提供します。
|
MappingCharFilter
|
マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定ポイントでの最長パターン マッチングを優先)。 空の文字列での置換が許可されます。 この文字フィルターは、Apache Lucene を使用して実装されます。
https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/MappingCharFilter.html
|
MergeSkill
|
2 つ以上の文字列を 1 つの統合文字列にマージするスキル。オプションのユーザー定義区切り記号で各コンポーネント パーツを区切ります。
https://docs.microsoft.com/azure/search/cognitive-search-skill-textmerger
|
MicrosoftLanguageStemmingTokenizer
|
言語固有のルールを使用してテキストが分割され、基本フォームに単語が減らされます。
|
MicrosoftLanguageTokenizer
|
言語固有のルールを使用してテキストが分割されます。
|
NamedEntityRecognitionSkill
|
エンティティ認識という名前のテキスト分析。 このスキルは非推奨です。 EntityRecognitionSkillhttps://docs.microsoft.com/azure/search/cognitive-search-skill-named-entity-recognition
|
NGramTokenFilter
|
指定サイズの n グラムが生成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
|
NGramTokenFilterV2
|
指定サイズの n グラムが生成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
|
NGramTokenizer
|
入力が指定サイズの n グラムにトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
|
OcrSkill
|
イメージ ファイルからテキストを抽出するスキル。
https://docs.microsoft.com/azure/search/cognitive-search-skill-ocr
|
OutputFieldMappingEntry
|
スキルの出力フィールド マッピング。
https://docs.microsoft.com/rest/api/searchservice/naming-rules
|
PathHierarchyTokenizer
|
パスのような階層のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
|
PathHierarchyTokenizerV2
|
パスのような階層のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
|
PatternAnalyzer
|
正規表現のパターンを使用してテキストを用語に柔軟に分割します。
このアナライザーは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
|
PatternCaptureTokenFilter
|
Java 正規表現を使用して、1 つ以上のパターンでキャプチャ グループごとに 1 つずつ、複数のトークンを出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternCaptureGroupTokenFilter.html
|
PatternReplaceCharFilter
|
入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。
https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceCharFilter.html
|
PatternReplaceTokenFilter
|
入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceFilter.html
|
PatternTokenizer
|
正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
|
PhoneticTokenFilter
|
音声一致用のトークンが作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
|
RangeFacetResult<T>
|
特定の範囲内にあるフィールド値を持つドキュメントの数を報告する範囲ファセット クエリ結果の単一のバケット。
|
ResourceCounter
|
リソースの使用量とクォータを表します。
|
ScoringFunction
|
ランク付け中にドキュメント スコアを変更できる関数の抽象基本クラス。
https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index
|
ScoringParameter
|
スコアリング関数 (referencePointParameter など) で使用されるパラメーター値を表します。
|
ScoringProfile
|
検索クエリのスコアリングに影響を与える検索インデックスのパラメーターを定義します。
https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index
|
SearchContinuationToken
|
検索結果のフェッチを続行するために必要な状態をカプセル化します。 これは、Azure Cognitive Searchが 1 つの応答で検索要求を満たすことができない場合に必要です。
|
SearchParameters
|
フィルター処理、並べ替え、ファセット、ページング、およびその他の検索クエリ動作のパラメーター。
|
SearchRequestOptions
|
一連の操作の追加パラメーター。
|
SearchResult<T>
|
検索クエリによって検出されたドキュメントと、関連するメタデータが含まれます。
|
SentimentSkill
|
テキスト分析の肯定的-否定的な感情分析。0 から 1 の範囲の浮動小数点値としてスコア付けされます。
https://docs.microsoft.com/azure/search/cognitive-search-skill-sentiment
|
SerializePropertyNamesAsCamelCaseAttribute
|
検索インデックスのフィールド名と一致させるために、モデル型のパブリック プロパティをキャメル ケースとしてシリアル化する必要があることを示します。
|
ServiceCounters
|
サービス レベルのリソース カウンターとクォータを表します。
|
ServiceLimits
|
さまざまなサービス レベルの制限を表します。
|
ServiceStatistics
|
サービス統計の取得要求からの応答。 成功した場合は、サービス レベルのカウンターと制限が含まれます。
|
ShaperSkill
|
出力を再作成するためのスキル。 複合フィールド (マルチパート フィールドとも呼ばれます) をサポートする複合型を作成します。
https://docs.microsoft.com/azure/search/cognitive-search-skill-shaper
|
ShingleTokenFilter
|
トークンの組み合わせが 1 つのトークンとして作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
|
Skill
|
スキルの抽象基本クラス。
https://docs.microsoft.com/azure/search/cognitive-search-predefined-skills
|
Skillset
|
スキルの一覧。
https://docs.microsoft.com/azure/search/cognitive-search-tutorial-blob
|
SkillsetListResult
|
リスト スキルセット要求からの応答。 成功した場合は、すべてのスキルセットの完全な定義が含まれます。
|
SnowballTokenFilter
|
Snowball で生成されたステマーを使用して単語をステミングするフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
|
SoftDeleteColumnDeletionDetectionPolicy
|
論理的な削除戦略を実装するデータ削除検出ポリシーを定義します。 指定された "論理的な削除" 列の値に基づいて項目を削除するかどうかを決定します。
|
SplitSkill
|
文字列をテキストのチャンクに分割するスキル。
https://docs.microsoft.com/azure/search/cognitive-search-skill-textsplit
|
SqlIntegratedChangeTrackingPolicy
|
Azure SQL Database の統合Change Tracking機能を使用して変更をキャプチャするデータ変更検出ポリシーを定義します。
|
StandardAnalyzer
|
Standard Apache Lucene アナライザー。標準トークナイザー、小文字フィルター、および停止フィルターで構成されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardAnalyzer.html
|
StandardTokenizer
|
Unicode テキスト セグメント化ルールに従ってテキストを分割します。 このトークナイザーは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
|
StandardTokenizerV2
|
Unicode テキスト セグメント化ルールに従ってテキストを分割します。 このトークナイザーは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
|
StemmerOverrideTokenFilter
|
ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下のステマーで語幹を付けなくなります。 すべてのステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html
|
StemmerTokenFilter
|
言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。
https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
|
StopAnalyzer
|
テキストを文字以外で分割します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
|
StopwordsTokenFilter
|
トークン ストリームからストップワードが削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
|
Suggester
|
Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。
|
SuggestParameters
|
フィルター処理、並べ替え、あいまい一致、およびその他の候補のクエリ動作のパラメーター。
|
SuggestResult<T>
|
提案クエリによって検出されたドキュメントと、関連付けられているメタデータを含む結果。
|
SynonymMap
|
シノニム マップ定義を表します。
|
SynonymMapListResult
|
List SynonymMaps 要求からの応答。 成功した場合は、すべてのシノニム マップの完全な定義が含まれます。
|
SynonymTokenFilter
|
トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/synonym/SynonymFilter.html
|
TagScoringFunction
|
特定のタグの一覧に一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。
https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index
|
TagScoringParameters
|
タグ スコアリング関数にパラメーター値を提供します。
|
TextTranslationSkill
|
ある言語から別の言語にテキストを翻訳するスキル。
https://docs.microsoft.com/azure/search/cognitive-search-skill-text-translation
|
TextWeights
|
検索クエリで一致がスコアリングを向上させるインデックス フィールドの重みを定義します。
|
TokenFilter
|
トークン フィルターの抽象基本クラス。
https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search
|
TokenInfo
|
アナライザーによって返されるトークンに関する情報。
|
Tokenizer
|
トークナイザーの抽象基本クラス。
https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search
|
TruncateTokenFilter
|
用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
|
UaxUrlEmailTokenizer
|
URL と電子メールが 1 つのトークンとしてトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
|
UniqueTokenFilter
|
前のトークンと同じテキストのトークンが除外されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
|
ValueFacetResult<T>
|
特定の間隔内または特定の値を持つフィールドを持つドキュメントの数を報告する、単純または間隔のファセット クエリ結果の 1 つのバケット。
|
WebApiSkill
|
Web API エンドポイントを呼び出すことができるスキル。カスタム コードを呼び出すことでスキルセットを拡張できます。
https://docs.microsoft.com/azure/search/cognitive-search-custom-skill-web-api
|
WordDelimiterTokenFilter
|
単語がサブ単語に分割され、部分語のグループに対してオプションの変換が実行されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。
http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/WordDelimiterFilter.html
|