Microsoft.Azure.Search.Models Espace de noms
Important
Certaines informations portent sur la préversion du produit qui est susceptible d’être en grande partie modifiée avant sa publication. Microsoft exclut toute garantie, expresse ou implicite, concernant les informations fournies ici.
Classes
AccessCondition |
Paramètres supplémentaires pour un ensemble d’opérations. |
Analyzer |
Classe de base abstraite pour les analyseurs. |
AnalyzeRequest |
Spécifie certains composants de texte et d’analyse utilisés pour décomposer ce texte en jetons. |
AnalyzeResult |
Résultat du test d’un analyseur sur du texte. |
AnalyzerName.AsString |
Noms de tous les analyseurs sous forme de chaînes simples. |
AsciiFoldingTokenFilter |
Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’ils existent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
AutocompleteItem |
Résultat des demandes de saisie semi-automatique. |
AutocompleteParameters |
Paramètres supplémentaires pour l’opération AutocompleteGet. |
AutocompleteResult |
Résultat de la requête de saisie semi-automatique. |
CharFilter |
Classe de base abstraite pour les filtres de caractères. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
CjkBigramTokenFilter |
Forme des digrammes de termes CJC qui sont générés à partir de StandardTokenizer. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html |
ClassicTokenizer |
Générateur de jetons basé sur la grammaire adapté au traitement de la plupart des documents en langue européenne. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
CognitiveServices |
Classe de base abstraite pour décrire toute ressource de service cognitif attachée à l’ensemble de compétences. |
CognitiveServicesByKey |
Ressource de service cognitif approvisionnée avec une clé attachée à un ensemble de compétences. |
CommonGramTokenFilter |
Construit des digrammes pour les termes d’occurrence fréquente lors de l’indexation. Les termes uniques sont néanmoins aussi indexés, avec des digrammes superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html |
ConditionalSkill |
Compétence qui permet aux scénarios qui nécessitent une opération booléenne de déterminer les données à affecter à une sortie. https://docs.microsoft.com/azure/search/cognitive-search-skill-conditional |
CorsOptions |
Définit des options pour contrôler le partage de ressources cross-origin (CORS) pour un index. https://docs.microsoft.com/rest/api/searchservice/Create-Index |
CustomAnalyzer |
Vous permet de prendre le contrôle du processus de conversion du texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un générateur de jetons unique prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est responsable de la fractionnement du texte en jetons et des filtres pour la modification des jetons émis par le générateur de jetons. |
DataChangeDetectionPolicy |
Classe de base abstraite pour les stratégies de détection de modification de données. |
DataContainer |
Représente des informations sur l’entité (par exemple, Azure SQL table ou la collection DocumentDb) qui sera indexée. |
DataDeletionDetectionPolicy |
Classe de base abstraite pour les stratégies de détection de suppression de données. |
DataSource |
Représente une définition de source de données, qui peut être utilisée pour configurer un indexeur. |
DataSourceCredentials |
Représente les informations d'identification qui peuvent être utilisées pour se connecter à une source de données. |
DataSourceListResult |
Réponse à une demande de liste de source de données. Si elle réussit, elle inclut les définitions complètes de toutes les sources de données. |
DataType.AsString |
Noms de tous les types de données sous forme de chaînes simples. |
DataTypeExtensions |
Définit des méthodes d’extension pour |
DefaultCognitiveServices |
Objet vide qui représente la ressource de service cognitif par défaut pour un ensemble de compétences. |
DictionaryDecompounderTokenFilter |
Décompose les mots composés trouvés dans beaucoup de langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/compound/DictionaryCompoundWordTokenFilter.html |
DistanceScoringFunction |
Définit une fonction qui augmente les scores en fonction de la distance d’un emplacement géographique. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
DistanceScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring de distance. |
Document |
Représente un document sous la forme d’un conteneur de propriétés. Cela est utile pour les scénarios où le schéma d’index n’est connu qu’au moment de l’exécution. |
DocumentIndexResult |
Réponse contenant le status d’opérations pour tous les documents de la demande d’indexation. |
DocumentSearchResult<T> |
Réponse contenant les résultats de recherche d’un index. |
DocumentSuggestResult<T> |
Réponse contenant les résultats de requête de suggestion d’un index. |
EdgeNGramTokenFilter |
Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html |
EdgeNGramTokenFilterV2 |
Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html |
EdgeNGramTokenizer |
Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html |
ElisionTokenFilter |
Supprime les élisions. Par exemple, « l’avion » sera converti en « avion ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html |
EntityRecognitionSkill |
Reconnaissance d’entité d’analyse de texte. https://docs.microsoft.com/azure/search/cognitive-search-skill-entity-recognition |
FacetResult |
Compartiment unique d’un résultat de requête à facettes. Indique le nombre de documents dont la valeur de champ est comprise dans une plage particulière ou dont la valeur ou l’intervalle est particulier. |
Field |
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ. https://docs.microsoft.com/rest/api/searchservice/Create-Index |
FieldMapping |
Définit un mappage entre un champ dans une source de données et un champ cible dans un index. https://docs.microsoft.com/azure/search/search-indexer-field-mappings |
FieldMappingFunction |
Représente une fonction qui transforme une valeur à partir d’une source de données avant l’indexation. https://docs.microsoft.com/azure/search/search-indexer-field-mappings |
FreshnessScoringFunction |
Définit une fonction qui augmente les scores en fonction de la valeur d’un champ date-heure. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
FreshnessScoringParameters |
Fournit des valeurs de paramètres à une fonction de scoring d’actualisation. |
HighWaterMarkChangeDetectionPolicy |
Définit une stratégie de détection des modifications de données qui capture les modifications en fonction de la valeur d’une colonne de limite élevée. |
ImageAnalysisSkill |
Compétence qui analyse les fichiers image. Il extrait un ensemble complet de fonctionnalités visuelles basées sur le contenu de l’image. https://docs.microsoft.com/azure/search/cognitive-search-skill-image-analysis |
Index |
Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index. |
IndexAction |
Fournit des méthodes de fabrique pour créer une action d’index qui fonctionne sur un document. |
IndexAction<T> |
Représente une action d’index qui opère sur un document. |
IndexBatch |
Fournit des méthodes de fabrique pour créer un lot d’opérations d’écriture de document à envoyer à l’index de recherche. |
IndexBatch<T> |
Contient un lot d’actions d’écriture de document à envoyer à l’index. |
Indexer |
Représente un indexeur. https://docs.microsoft.com/rest/api/searchservice/Indexer-operations |
IndexerExecutionInfo |
Represente le statut actuel et l'historique d'exécution d'un indexeur. |
IndexerExecutionResult |
Représente le résultat de l’exécution d’un indexeur individuel. |
IndexerLimits | |
IndexerListResult |
Réponse à une demande de List Indexers. Si elle réussit, elle inclut les définitions complètes de tous les indexeurs. |
IndexGetStatisticsResult |
Statistiques pour un index donné. Les statistiques sont collectées régulièrement et ne sont pas toujours à jour. |
IndexingParameters |
Représente les paramètres pour l'exécution d'indexeur. |
IndexingParametersExtensions |
Définit des méthodes d’extension pour la classe IndexingParameters. |
IndexingResult |
État d’une opération d’indexation pour un document unique. |
IndexingSchedule |
Représente une planification pour l'exécution d'indexeur. |
IndexListResult |
Réponse d’une demande d’index de liste. Si elle réussit, elle inclut les définitions complètes de tous les index. |
InputFieldMappingEntry |
Mappage de champs d’entrée pour une compétence. |
ItemError |
Représente une erreur d'indexation de niveau élément ou document. |
ItemWarning |
Représente un avertissement au niveau de l’élément. |
KeepTokenFilter |
Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste de mots spécifiée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeepWordFilter.html |
KeyPhraseExtractionSkill |
Compétence qui utilise l’analyse de texte pour l’extraction d’expressions clés. https://docs.microsoft.com/azure/search/cognitive-search-skill-keyphrases |
KeywordMarkerTokenFilter |
Marque les termes comme mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordMarkerFilter.html |
KeywordTokenizer |
Génère la totalité de l’entrée sous la forme d’un unique jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
KeywordTokenizerV2 |
Génère la totalité de l’entrée sous la forme d’un unique jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
LanguageDetectionSkill |
Compétence qui détecte la langue du texte d’entrée et signale un code de langue unique pour chaque document envoyé lors de la demande. Le code du langage est associé à un score indiquant la confiance de l’analyse. https://docs.microsoft.com/azure/search/cognitive-search-skill-language-detection |
LengthTokenFilter |
Supprime les mots qui sont trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html |
LimitTokenFilter |
Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html |
MagnitudeScoringFunction |
Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
MagnitudeScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring de magnitude. |
MappingCharFilter |
Filtre de caractères qui applique les mappages définis avec l’option mappages. La mise en correspondance est gourmande en ressources (la correspondance du modèle le plus long à un point donné l’emporte). La chaîne vide est autorisée comme remplacement. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/MappingCharFilter.html |
MergeSkill |
Compétence permettant de fusionner deux chaînes ou plus en une seule chaîne unifiée, avec un délimiteur facultatif défini par l’utilisateur séparant chaque composant. https://docs.microsoft.com/azure/search/cognitive-search-skill-textmerger |
MicrosoftLanguageStemmingTokenizer |
Divise le texte en utilisant des règles spécifiques à la langue et réduit les mots à leurs formes de base. |
MicrosoftLanguageTokenizer |
Divise le texte en utilisant des règles spécifiques à la langue. |
NamedEntityRecognitionSkill |
Analyse de texte nommée reconnaissance d’entité. Cette compétence est déconseillée en faveur de EntityRecognitionSkillhttps://docs.microsoft.com/azure/search/cognitive-search-skill-named-entity-recognition |
NGramTokenFilter |
Génère des n-grammes de la taille donnée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html |
NGramTokenFilterV2 |
Génère des n-grammes de la taille donnée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html |
NGramTokenizer |
Génère des jetons à partir de l’entrée en n-grammes d’une ou plusieurs tailles données. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html |
OcrSkill |
Compétence qui extrait du texte à partir de fichiers image. https://docs.microsoft.com/azure/search/cognitive-search-skill-ocr |
OutputFieldMappingEntry |
Mappage de champ de sortie pour une compétence. https://docs.microsoft.com/rest/api/searchservice/naming-rules |
PathHierarchyTokenizer |
Générateur de jetons pour les hiérarchies de type chemin. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
PathHierarchyTokenizerV2 |
Générateur de jetons pour les hiérarchies de type chemin. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
PatternAnalyzer |
Sépare le texte de façon flexible en termes via un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
PatternCaptureTokenFilter |
Utilise des regex Java pour émettre plusieurs jetons , un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternCaptureGroupTokenFilter.html |
PatternReplaceCharFilter |
Filtre de caractères qui remplace les caractères de la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement de « $1#$2 », le résultat serait « aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceCharFilter.html |
PatternReplaceTokenFilter |
Filtre de caractères qui remplace les caractères de la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement de « $1#$2 », le résultat serait « aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceFilter.html |
PatternTokenizer |
Générateur de jetons qui utilise la correspondance de modèle regex pour construire des jetons distincts. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html |
PhoneticTokenFilter |
Crée des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html |
RangeFacetResult<T> |
Un seul compartiment d’une requête de facette de plage qui indique le nombre de documents dont la valeur de champ se trouve dans une plage particulière. |
ResourceCounter |
Représente l’utilisation et le quota d’une ressource. |
ScoringFunction |
Classe de base abstraite pour les fonctions qui peuvent modifier les scores de document pendant le classement. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
ScoringParameter |
Représente une valeur de paramètre à utiliser dans les fonctions de scoring (par exemple, referencePointParameter). |
ScoringProfile |
Définit les paramètres d’un index de recherche qui influencent le scoring dans les requêtes de recherche. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
SearchContinuationToken |
Encapsule l’état requis pour continuer à extraire les résultats de la recherche. Cela est nécessaire lorsque Recherche cognitive Azure ne peut pas répondre à une demande de recherche avec une seule réponse. |
SearchParameters |
Paramètres pour le filtrage, le tri, la facettes, la pagination et d’autres comportements de requête de recherche. |
SearchRequestOptions |
Paramètres supplémentaires pour un ensemble d’opérations. |
SearchResult<T> |
Contient un document trouvé par une requête de recherche, ainsi que les métadonnées associées. |
SentimentSkill |
Analyse de texte des sentiments positifs/négatifs, notée comme une valeur à virgule flottante dans une plage de zéro à 1. https://docs.microsoft.com/azure/search/cognitive-search-skill-sentiment |
SerializePropertyNamesAsCamelCaseAttribute |
Indique que les propriétés publiques d’un type de modèle doivent être sérialisées en tant que cas mixte afin de correspondre aux noms de champs d’un index de recherche. |
ServiceCounters |
Représente les compteurs de ressources et les quotas de niveau de service. |
ServiceLimits |
Représente différentes limites de niveau de service. |
ServiceStatistics |
Réponse d’une demande obtenir des statistiques de service. Si elle réussit, elle inclut des compteurs et des limites de niveau de service. |
ShaperSkill |
Compétence pour remodeler les sorties. Il crée un type complexe pour prendre en charge les champs composites (également appelés champs en plusieurs parties). https://docs.microsoft.com/azure/search/cognitive-search-skill-shaper |
ShingleTokenFilter |
Crée des combinaisons de jetons sous la forme d’un unique jeton. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html |
Skill |
Classe de base abstraite pour les compétences. https://docs.microsoft.com/azure/search/cognitive-search-predefined-skills |
Skillset |
Liste des compétences. https://docs.microsoft.com/azure/search/cognitive-search-tutorial-blob |
SkillsetListResult |
Réponse d’une demande d’ensemble de compétences de liste. Si elle réussit, elle inclut les définitions complètes de tous les ensembles de compétences. |
SnowballTokenFilter |
Filtre qui génère des mots à l’aide d’un générateur de formes dérivées généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html |
SoftDeleteColumnDeletionDetectionPolicy |
Définit une stratégie de détection de suppression de données qui implémente une stratégie de suppression réversible. Il détermine si un élément doit être supprimé en fonction de la valeur d’une colonne « suppression réversible » désignée. |
SplitSkill |
Compétence permettant de fractionner une chaîne en blocs de texte. https://docs.microsoft.com/azure/search/cognitive-search-skill-textsplit |
SqlIntegratedChangeTrackingPolicy |
Définit une stratégie de détection des modifications de données qui capture les modifications à l’aide de la fonctionnalité de Change Tracking intégrée de Azure SQL Database. |
StandardAnalyzer |
Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre en minuscules et du filtre d’arrêt. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardAnalyzer.html |
StandardTokenizer |
Décompose le texte en suivant les règles de segmentation du texte Unicode. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
StandardTokenizerV2 |
Décompose le texte en suivant les règles de segmentation du texte Unicode. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
StemmerOverrideTokenFilter |
Offre la possibilité de remplacer d’autres filtres de base de données par un suivi basé sur un dictionnaire personnalisé. Tous les termes dérivés d’un dictionnaire seront marqués en tant que mots clés afin qu’ils ne soient pas enserrés avec des stemmers dans la chaîne. Doit être placé avant les filtres de recherche de radical. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html |
StemmerTokenFilter |
Filtre de stemming spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters |
StopAnalyzer |
Divise le texte en non-lettres ; Applique les filtres de jeton en minuscules et en mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
StopwordsTokenFilter |
Supprime les mots vides d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html |
Suggester |
Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index. |
SuggestParameters |
Paramètres pour le filtrage, le tri, la correspondance approximative et d’autres comportements de requête de suggestions. |
SuggestResult<T> |
Résultat contenant un document trouvé par une requête de suggestion, plus les métadonnées associées. |
SynonymMap |
Représente une définition de carte de synonymes. |
SynonymMapListResult |
Réponse d’une demande List SynonymMaps. Si elle réussit, elle inclut les définitions complètes de toutes les cartes de synonymes. |
SynonymTokenFilter |
Correspond à des synonymes uniques ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/synonym/SynonymFilter.html |
TagScoringFunction |
Définit une fonction qui augmente les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index |
TagScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring d’étiquettes. |
TextTranslationSkill |
Une compétence pour traduire du texte d’une langue à une autre. https://docs.microsoft.com/azure/search/cognitive-search-skill-text-translation |
TextWeights |
Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent augmenter le score dans les requêtes de recherche. |
TokenFilter |
Classe de base abstraite pour les filtres de jetons. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
TokenInfo |
Informations sur un jeton retourné par un analyseur. |
Tokenizer |
Classe de base abstraite pour les générateurs de jetons. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
TruncateTokenFilter |
Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html |
UaxUrlEmailTokenizer |
Génère des jetons pour des URL et des e-mails sous la forme d’un seul jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html |
UniqueTokenFilter |
Élimine les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html |
ValueFacetResult<T> |
Un compartiment unique d’une requête de facette simple ou d’intervalle qui indique le nombre de documents dont un champ se trouve dans un intervalle particulier ou ayant une valeur spécifique. |
WebApiSkill |
Compétence qui peut appeler un point de terminaison d’API web, ce qui vous permet d’étendre un ensemble de compétences en appelant votre code personnalisé. https://docs.microsoft.com/azure/search/cognitive-search-custom-skill-web-api |
WordDelimiterTokenFilter |
Divise les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/WordDelimiterFilter.html |
Structures
AnalyzerName |
Définit les noms de tous les analyseurs de texte pris en charge par Recherche cognitive Azure. https://docs.microsoft.com/rest/api/searchservice/Language-support |
BlobExtractionMode |
Définit les parties d’un objet blob qui seront indexées par l’indexeur de stockage d’objets blob. https://docs.microsoft.com/azure/search/search-howto-indexing-azure-blob-storage |
CharFilterName |
Définit les noms de tous les filtres de caractères pris en charge par Recherche cognitive Azure. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
DataSourceType |
Définit le type d’une source de données. |
DataType |
Définit le type de données d’un champ dans un index de recherche. |
NamedEntityRecognitionSkillLanguage |
Définit le format des codes de langage pris en charge par NamedEntityRecognitionSkill. |
RegexFlags |
Définit des indicateurs qui peuvent être combinés pour contrôler la façon dont les expressions régulières sont utilisées dans l’analyseur de modèle et le générateur de jetons de modèle. http://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html#field_summary |
TokenFilterName |
Définit les noms de tous les filtres de jetons pris en charge par Recherche cognitive Azure. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
TokenizerName |
Définit les noms de tous les générateurs de jetons pris en charge par Recherche cognitive Azure. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search |
Interfaces
IResourceWithETag |
Les classes de modèle qui implémentent cette interface représentent les ressources qui sont conservées avec une version ETag sur le serveur. |
Énumérations
AutocompleteMode |
Définit des valeurs pour AutocompleteMode. |
CjkBigramTokenFilterScripts |
Définit des valeurs pour CjkBigramTokenFilterScripts. |
EdgeNGramTokenFilterSide |
Définit des valeurs pour EdgeNGramTokenFilterSide. |
EntityCategory |
Définit des valeurs pour EntityCategory. |
EntityRecognitionSkillLanguage |
Définit des valeurs pour EntityRecognitionSkillLanguage. |
FacetType |
Spécifie le type d’un résultat de requête à facettes. |
ImageAnalysisSkillLanguage |
Définit des valeurs pour ImageAnalysisSkillLanguage. |
ImageDetail |
Définit des valeurs pour ImageDetail. |
IndexActionType |
Définit des valeurs pour IndexActionType. |
IndexerExecutionStatus |
Définit des valeurs pour IndexerExecutionStatus. |
IndexerStatus |
Définit des valeurs pour IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Définit les valeurs de KeyPhraseExtractionSkillLanguage. |
MicrosoftStemmingTokenizerLanguage |
Définit les valeurs de MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Définit des valeurs pour MicrosoftTokenizerLanguage. |
NamedEntityCategory |
Définit des valeurs pour NamedEntityCategory. Ceci est déconseillé, utilisez EntityCategory à la place |
OcrSkillLanguage |
Définit des valeurs pour OcrSkillLanguage. |
PhoneticEncoder |
Définit des valeurs pour PhoneticEncoder. |
QueryType |
Définit des valeurs pour QueryType. |
ScoringFunctionAggregation |
Définit des valeurs pour ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Définit des valeurs pour ScoringFunctionInterpolation. |
SearchMode |
Définit des valeurs pour SearchMode. |
SentimentSkillLanguage |
Définit des valeurs pour SentimentSkillLanguage. |
SnowballTokenFilterLanguage |
Définit des valeurs pour SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Définit des valeurs pour SplitSkillLanguage. |
StemmerTokenFilterLanguage |
Définit des valeurs pour StemmerTokenFilterLanguage. |
StopwordsList |
Définit des valeurs pour StopwordsList. |
TextExtractionAlgorithm |
Définit des valeurs pour TextExtractionAlgorithm. |
TextSplitMode |
Définit des valeurs pour TextSplitMode. |
TextTranslationSkillLanguage |
Définit des valeurs pour TextTranslationSkillLanguage. |
TokenCharacterKind |
Définit des valeurs pour TokenCharacterKind. |
VisualFeature |
Définit des valeurs pour VisualFeature. |
Azure SDK for .NET