Partager via


@azure/search-documents package

Classes

AzureKeyCredential

Informations d’identification basées sur une clé statique qui prend en charge la mise à jour de la valeur de clé sous-jacente.

GeographyPoint

Représente un point géographique en coordonnées globales.

IndexDocumentsBatch

Classe utilisée pour effectuer des opérations par lots avec plusieurs documents dans l’index.

SearchClient

Classe utilisée pour effectuer des opérations sur un index de recherche, y compris l’interrogation de documents dans l’index, ainsi que l’ajout, la mise à jour et la suppression de ceux-ci.

SearchIndexClient

Classe permettant d’effectuer des opérations pour gérer les index (créer, mettre à jour, lister/supprimer) & les synonymmaps.

SearchIndexerClient

Classe permettant d’effectuer des opérations pour gérer (créer, mettre à jour, lister/supprimer) des indexeurs, des sources de données & des ensembles de compétences.

SearchIndexingBufferedSender

Classe utilisée pour effectuer des opérations mises en mémoire tampon sur un index de recherche, y compris leur ajout, leur mise à jour et leur suppression.

Interfaces

AnalyzeRequest

Spécifie certains composants de texte et d’analyse utilisés pour diviser ce texte en jetons.

AnalyzeResult

Résultat du test d’un analyseur sur du texte.

AnalyzedTokenInfo

Informations sur un jeton retourné par un analyseur.

AsciiFoldingTokenFilter

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « latin de base ») en équivalents ASCII, si de tels équivalents existent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

AutocompleteItem

Résultat des demandes de saisie semi-automatique.

AutocompleteRequest

Paramètres pour la correspondance approximative et autres comportements de requête de saisie semi-automatique.

AutocompleteResult

Résultat de la requête de saisie semi-automatique.

AzureActiveDirectoryApplicationCredentials

Informations d’identification d’une application inscrite créée pour votre service de recherche, utilisées pour l’accès authentifié aux clés de chiffrement stockées dans Azure Key Vault.

BM25Similarity

Fonction de classement basée sur l’algorithme de similarité Okapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de la longueur (contrôlée par le paramètre « b ») ainsi que la saturation de la fréquence de terme (contrôlée par le paramètre « k1 »).

BaseCharFilter

Type de base pour les filtres de caractères.

BaseCognitiveServicesAccount

Type de base pour décrire toute ressource de service Azure AI attachée à un ensemble de compétences.

BaseDataChangeDetectionPolicy

Type de base pour les stratégies de détection des modifications de données.

BaseDataDeletionDetectionPolicy

Type de base pour les stratégies de détection de suppression de données.

BaseLexicalAnalyzer

Type de base pour les analyseurs.

BaseLexicalTokenizer

Type de base pour les générateurs de jetons.

BaseScoringFunction

Type de base pour les fonctions qui peuvent modifier les scores de document pendant le classement.

BaseSearchIndexerSkill

Type de base pour les compétences.

BaseSearchRequestOptions

Paramètres de filtrage, de tri, de facettes, de pagination et d’autres comportements de requête de recherche.

BaseTokenFilter

Type de base pour les filtres de jetons.

BaseVectorQuery

Paramètres de requête pour les requêtes de recherche vectorielle et hybride.

BaseVectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme utilisé lors de l’indexation et/ou de l’interrogation.

CjkBigramTokenFilter

Forme des bigrams de termes CJK générés à partir du générateur de jetons standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

ClassicSimilarity

Algorithme de similarité hérité qui utilise l’implémentation Lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation statique de la longueur des documents ainsi que des facteurs de coordination qui pénalisent les documents qui ne correspondent que partiellement aux requêtes recherchées.

ClassicTokenizer

Générateur de jetons basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

CognitiveServicesAccountKey

Une ressource de service Azure AI approvisionnée avec une clé attachée à un ensemble de compétences.

CommonGramTokenFilter

Construit des digrammes pour les termes d’occurrence fréquente lors de l’indexation. Les termes uniques sont néanmoins aussi indexés, avec des digrammes superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

ComplexField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

ConditionalSkill

Compétence qui permet d’activer les scénarios qui nécessitent une opération booléenne pour déterminer les données à affecter à une sortie.

CorsOptions

Définit des options pour contrôler le partage de ressources entre origines (CORS) pour un index.

CreateOrUpdateIndexOptions

Options pour l’opération de création/mise à jour d’index.

CreateOrUpdateSkillsetOptions

Options pour l’opération de création/mise à jour d’un ensemble de compétences.

CreateOrUpdateSynonymMapOptions

Options pour l’opération de création/mise à jour de synonymmap.

CreateorUpdateDataSourceConnectionOptions

Options pour créer/mettre à jour une opération de source de données.

CreateorUpdateIndexerOptions

Options pour l’opération de création/mise à jour de l’indexeur.

CustomAnalyzer

Vous permet de prendre le contrôle du processus de conversion du texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul générateur de jetons prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est responsable du fractionnement du texte en jetons et des filtres pour modifier les jetons émis par le générateur de jetons.

CustomEntity

Objet qui contient des informations sur les correspondances trouvées et les métadonnées associées.

CustomEntityAlias

Objet complexe qui peut être utilisé pour spécifier d’autres orthographes ou synonymes au nom d’entité racine.

CustomEntityLookupSkill

Une compétence recherche le texte d’une liste personnalisée définie par l’utilisateur de mots et d’expressions.

DefaultCognitiveServicesAccount

Objet vide qui représente la ressource de service Azure AI par défaut pour un ensemble de compétences.

DeleteDataSourceConnectionOptions

Options pour l’opération de suppression de source de données.

DeleteIndexOptions

Options pour l’opération de suppression d’index.

DeleteIndexerOptions

Options pour l’opération de suppression de l’indexeur.

DeleteSkillsetOptions

Options de suppression de l’opération de l’ensemble de compétences.

DeleteSynonymMapOptions

Options pour l’opération de suppression de synonymmap.

DictionaryDecompounderTokenFilter

Décompose les mots composés trouvés dans beaucoup de langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

DistanceScoringFunction

Définit une fonction qui augmente les scores en fonction de la distance d’un emplacement géographique.

DistanceScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de distance.

DocumentExtractionSkill

Compétence qui extrait le contenu d’un fichier dans le pipeline d’enrichissement.

EdgeNGramTokenFilter

Génère n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

EdgeNGramTokenizer

Jetonse l’entrée d’un bord en n grammes de la ou des tailles données. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

ElisionTokenFilter

Supprime les élisions. Par exemple, « l’avion » (l’avion) sera converti en « avion ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

EntityLinkingSkill

À l’aide de l’API Analyse de texte, extrait les entités liées du texte.

EntityRecognitionSkill

Reconnaissance d’entités d’analyse de texte.

EntityRecognitionSkillV3

À l’aide de l’API Analyse de texte, extrait du texte des entités de différents types.

ExhaustiveKnnParameters

Contient les paramètres spécifiques à l’algorithme KNN exhaustif.

ExtractiveQueryAnswer

Extrait les candidats-réponses du contenu des documents retournés en réponse à une requête exprimée sous forme de question en langage naturel.

ExtractiveQueryCaption

Extrait les légendes des documents correspondants qui contiennent des passages pertinents pour la requête de recherche.

FacetResult

Compartiment unique d’un résultat de requête à facettes. Indique le nombre de documents dont la valeur de champ se trouve dans une plage particulière ou dont la valeur ou l’intervalle est particulier.

FieldMapping

Définit un mappage entre un champ dans une source de données et un champ cible dans un index.

FieldMappingFunction

Représente une fonction qui transforme une valeur à partir d’une source de données avant l’indexation.

FreshnessScoringFunction

Définit une fonction qui augmente les scores en fonction de la valeur d’un champ date-heure.

FreshnessScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’actualisation.

GetDocumentOptions

Options de récupération d’un document unique.

HighWaterMarkChangeDetectionPolicy

Définit une stratégie de détection des modifications de données qui capture les modifications en fonction de la valeur d’une colonne de marque d’eau élevée.

HnswParameters

Contient les paramètres propres à l’algorithme hnsw.

ImageAnalysisSkill

Compétence qui analyse les fichiers image. Il extrait un ensemble complet de fonctionnalités visuelles en fonction du contenu de l’image.

IndexDocumentsClient

Index Documents Client

IndexDocumentsOptions

Options pour l’opération modifier le lot d’index.

IndexDocumentsResult

Réponse contenant le status d’opérations pour tous les documents de la demande d’indexation.

IndexerExecutionResult

Représente le résultat d’une exécution d’indexeur individuel.

IndexingParameters

Représente les paramètres pour l'exécution d'indexeur.

IndexingParametersConfiguration

Dictionnaire de propriétés de configuration spécifiques à l’indexeur. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif.

IndexingResult

État d’une opération d’indexation pour un seul document.

IndexingSchedule

Représente une planification pour l'exécution d'indexeur.

InputFieldMappingEntry

Mappage de champ d’entrée pour une compétence.

KeepTokenFilter

Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste de mots spécifiée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

KeyPhraseExtractionSkill

Compétence qui utilise l’analyse de texte pour l’extraction d’expressions clés.

KeywordMarkerTokenFilter

Marque les termes comme mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

KeywordTokenizer

Génère la totalité de l’entrée sous la forme d’un unique jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

LanguageDetectionSkill

Compétence qui détecte la langue du texte d’entrée et signale un code de langue unique pour chaque document envoyé lors de la demande. Le code du langage est associé à un score indiquant la confiance de l’analyse.

LengthTokenFilter

Supprime les mots qui sont trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

LimitTokenFilter

Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

ListSearchResultsPageSettings

Arguments pour récupérer la page suivante des résultats de la recherche.

LuceneStandardAnalyzer

Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre en minuscules et du filtre d’arrêt.

LuceneStandardTokenizer

Décompose le texte en suivant les règles de segmentation du texte Unicode. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

MagnitudeScoringFunction

Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique.

MagnitudeScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de magnitude.

MappingCharFilter

Filtre de caractères qui applique les mappages définis avec l’option mappages. La mise en correspondance est gourmande en ressources (la correspondance du modèle le plus long à un point donné l’emporte). La chaîne vide est autorisée comme remplacement. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

MergeSkill

Compétence permettant de fusionner deux chaînes ou plus en une seule chaîne unifiée, avec un délimiteur facultatif défini par l’utilisateur séparant chaque composant.

MicrosoftLanguageStemmingTokenizer

Divise le texte en utilisant des règles spécifiques à la langue et réduit les mots à leurs formes de base.

MicrosoftLanguageTokenizer

Divise le texte en utilisant des règles spécifiques à la langue.

NGramTokenFilter

Génère des n-grammes de la taille donnée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

NGramTokenizer

Génère des jetons à partir de l’entrée en n-grammes d’une ou plusieurs tailles données. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

OcrSkill

Compétence qui extrait du texte à partir de fichiers image.

OutputFieldMappingEntry

Mappage de champ de sortie pour une compétence.

PIIDetectionSkill

À l’aide de l’API Analyse de texte, extrait les informations personnelles d’un texte d’entrée et vous permet de les masquer.

PathHierarchyTokenizer

Générateur de jetons pour les hiérarchies de type chemin. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

PatternAnalyzer

Sépare le texte de façon flexible en termes via un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene.

PatternCaptureTokenFilter

Utilise des regex Java pour émettre plusieurs jetons , un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PatternReplaceCharFilter

Filtre de caractères qui remplace les caractères de la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement de « $1#$2 », le résultat serait « aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

PatternReplaceTokenFilter

Filtre de caractères qui remplace les caractères de la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement de « $1#$2 », le résultat serait « aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PatternTokenizer

Générateur de jetons qui utilise la correspondance de modèle regex pour construire des jetons distincts. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

PhoneticTokenFilter

Crée des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

QueryAnswerResult

Une réponse est un passage de texte extrait du contenu des documents les plus pertinents correspondant à la requête. Les réponses sont extraites des premiers résultats de recherche. Les candidats à la réponse sont notés et les premières réponses sont sélectionnées.

QueryCaptionResult

Les légendes sont les passages les plus représentatifs du document par rapport à la requête de recherche. Ils sont souvent utilisés comme résumé de document. Les sous-titres sont retournés uniquement pour les requêtes de type semantic.

ResourceCounter

Représente l’utilisation et le quota d’une ressource.

ScoringProfile

Définit les paramètres d’un index de recherche qui influencent le scoring dans les requêtes de recherche.

SearchClientOptions

Options clientes utilisées pour configurer les demandes d’API Recherche cognitive.

SearchDocumentsPageResult

Réponse contenant les résultats de la page de recherche d’un index.

SearchDocumentsResult

Réponse contenant les résultats de recherche d’un index.

SearchDocumentsResultBase

Réponse contenant les résultats de recherche d’un index.

SearchIndex

Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index.

SearchIndexClientOptions

Options clientes utilisées pour configurer les demandes d’API Recherche cognitive.

SearchIndexStatistics

Statistiques pour un index donné. Les statistiques sont collectées régulièrement et ne sont pas garanties d’être toujours à jour.

SearchIndexer

Représente un indexeur.

SearchIndexerClientOptions

Options clientes utilisées pour configurer les demandes d’API Recherche cognitive.

SearchIndexerDataContainer

Représente des informations sur l’entité (telles que Azure SQL table ou la collection CosmosDB) qui sera indexée.

SearchIndexerDataSourceConnection

Représente une définition de source de données, qui peut être utilisée pour configurer un indexeur.

SearchIndexerError

Représente une erreur d'indexation de niveau élément ou document.

SearchIndexerKnowledgeStore

Définition de projections supplémentaires pour azure blob, table ou fichiers, de données enrichies.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Classe abstraite pour partager des propriétés entre des sélecteurs concrets.

SearchIndexerKnowledgeStoreFileProjectionSelector

Définition de projection pour les données à stocker dans Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Définition de projection pour les données à stocker dans Azure Blob.

SearchIndexerKnowledgeStoreProjection

Objet conteneur pour différents sélecteurs de projection.

SearchIndexerKnowledgeStoreProjectionSelector

Classe abstraite pour partager des propriétés entre des sélecteurs concrets.

SearchIndexerKnowledgeStoreTableProjectionSelector

Description des données à stocker dans les tables Azure.

SearchIndexerLimits
SearchIndexerSkillset

Liste des compétences.

SearchIndexerStatus

Represente le statut actuel et l'historique d'exécution d'un indexeur.

SearchIndexerWarning

Représente un avertissement au niveau de l’élément.

SearchIndexingBufferedSenderOptions

Options pour SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Une clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer les données au repos dans Recherche cognitive Azure, telles que les index et les mappages de synonymes.

SearchServiceStatistics

Réponse d’une demande de statistiques de service get. Si elle réussit, elle inclut des compteurs et des limites de niveau de service.

SearchSuggester

Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index.

SemanticConfiguration

Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques.

SemanticField

Champ utilisé dans le cadre de la configuration sémantique.

SemanticPrioritizedFields

Décrit les champs titre, contenu et mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses.

SemanticSearch

Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.

SemanticSearchOptions

Définit les options pour les requêtes de recherche sémantique

SentimentSkill

Analyse de texte des sentiments positifs/négatifs, notée comme une valeur à virgule flottante dans une plage de zéro à 1.

SentimentSkillV3

À l’aide de l’API Analyse de texte, évalue le texte non structuré et, pour chaque enregistrement, fournit des étiquettes de sentiment (telles que « négatif », « neutre » et « positif ») basées sur le score de confiance le plus élevé trouvé par le service au niveau de la phrase et du document.

ServiceCounters

Représente les compteurs de ressources et les quotas de niveau de service.

ServiceLimits

Représente différentes limites de niveau de service.

ShaperSkill

Compétence pour remodeler les sorties. Il crée un type complexe pour prendre en charge les champs composites (également appelés champs en plusieurs parties).

ShingleTokenFilter

Crée des combinaisons de jetons sous la forme d’un unique jeton. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Similarity

Type de base pour les algorithmes de similarité. Les algorithmes de similarité sont utilisés pour calculer les scores qui lient les requêtes aux documents. Plus le score est élevé, plus le document est pertinent pour cette requête spécifique. Ces scores sont utilisés pour classer les résultats de la recherche.

SimpleField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

SnowballTokenFilter

Filtre qui dérive les mots à l’aide d’un générateur de formes dérivées généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Définit une stratégie de détection de suppression de données qui implémente une stratégie de suppression réversible. Il détermine si un élément doit être supprimé en fonction de la valeur d’une colonne « suppression réversible » désignée.

SplitSkill

Compétence permettant de fractionner une chaîne en blocs de texte.

SqlIntegratedChangeTrackingPolicy

Définit une stratégie de détection des modifications de données qui capture les modifications à l’aide de la fonctionnalité de Change Tracking intégrée de Azure SQL Base de données.

StemmerOverrideTokenFilter

Offre la possibilité de remplacer d’autres filtres de base de données par un suivi basé sur un dictionnaire personnalisé. Tout terme issu d’un dictionnaire sera marqué en tant que mots clés afin qu’ils ne soient pas délimités par des générateurs de formes dérivées en bas de la chaîne. Doit être placé avant les filtres de recherche de radical. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

StemmerTokenFilter

Filtre de recherche de contenu spécifique à la langue. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

StopAnalyzer

Divise le texte aux lettres non-lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene.

StopwordsTokenFilter

Supprime les mots vides d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

SuggestDocumentsResult

Réponse contenant les résultats de requête de suggestion d’un index.

SuggestRequest

Paramètres pour le filtrage, le tri, la correspondance approximative et d’autres comportements de requête de suggestions.

SynonymMap

Représente une définition de carte de synonymes.

SynonymTokenFilter

Correspond à des synonymes uniques ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

TagScoringFunction

Définit une fonction qui augmente les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises.

TagScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’étiquettes.

TextTranslationSkill

Compétence permettant de traduire du texte d’une langue à une autre.

TextWeights

Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche.

TruncateTokenFilter

Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

UaxUrlEmailTokenizer

Génère des jetons pour des URL et des e-mails sous la forme d’un seul jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

UniqueTokenFilter

Élimine les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

VectorSearch

Contient des options de configuration liées à la recherche vectorielle.

VectorSearchOptions

Définit les options pour les requêtes de recherche vectorielle

VectorSearchProfile

Définit une combinaison de configurations à utiliser avec la recherche vectorielle.

VectorizedQuery

Paramètres de requête à utiliser pour la recherche vectorielle lorsqu’une valeur vectorielle brute est fournie.

WebApiSkill

Compétence qui peut appeler un point de terminaison d’API web, ce qui vous permet d’étendre un ensemble de compétences en appelant votre code personnalisé.

WordDelimiterTokenFilter

Divise les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Alias de type

AnalyzeTextOptions

Options pour analyser l’opération de texte.

AutocompleteMode

Définit des valeurs pour AutocompleteMode.

AutocompleteOptions

Options permettant de récupérer le texte d’achèvement d’une recherche partielleText.

BlobIndexerDataToExtract

Valeurs connues prises en charge par le service

storageMetadata : indexe uniquement les propriétés d’objet blob standard et les métadonnées spécifiées par l’utilisateur. allMetadata : extrait les métadonnées fournies par le sous-système stockage blob Azure et les métadonnées spécifiques au type de contenu (par exemple, les métadonnées propres à .png fichiers sont indexés). contentAndMetadata : extrait toutes les métadonnées et le contenu textuel de chaque objet blob.

BlobIndexerImageAction

Valeurs connues prises en charge par le service

none : ignore les images incorporées ou les fichiers image dans le jeu de données. Il s’agit de la valeur par défaut. generateNormalizedImages : extrait le texte des images (par exemple, le mot « STOP » d’un signe d’arrêt de trafic) et l’incorpore dans le champ de contenu. Cette action nécessite que « dataToExtract » soit défini sur « contentAndMetadata ». Une image normalisée fait référence à un traitement supplémentaire résultant en une sortie d’image uniforme, dimensionnée et pivotée pour promouvoir un rendu cohérent lorsque vous incluez des images dans les résultats de recherche visuelle. Ces informations sont générées pour chaque image lorsque vous utilisez cette option. generateNormalizedImagePerPage : extrait le texte des images (par exemple, le mot « STOP » d’un signe d’arrêt de trafic) et l’incorpore dans le champ de contenu, mais traite différemment les fichiers PDF dans la mesure où chaque page sera rendue en tant qu’image et normalisée en conséquence, au lieu d’extraire les images incorporées. Les types de fichiers non PDF seront traités de la même façon que si « generateNormalizedImages » était défini.

BlobIndexerPDFTextRotationAlgorithm

Valeurs connues prises en charge par le service

none : tire parti de l’extraction de texte normale. Il s’agit de la valeur par défaut. detectAngles : peut produire une extraction de texte meilleure et plus lisible à partir de fichiers PDF qui ont fait pivoter le texte. Notez qu’il peut y avoir un petit impact sur la vitesse des performances lorsque ce paramètre est utilisé. Ce paramètre s’applique uniquement aux fichiers PDF et uniquement aux fichiers PDF avec du texte incorporé. Si le texte pivoté apparaît dans une image incorporée dans le fichier PDF, ce paramètre ne s’applique pas.

BlobIndexerParsingMode

Valeurs connues prises en charge par le service

default : définissez la valeur par défaut pour le traitement normal des fichiers. text : définissez sur texte pour améliorer les performances d’indexation sur les fichiers de texte brut dans le stockage d’objets blob. delimitedText : défini sur delimitedText lorsque les objets blob sont des fichiers CSV bruts. json : définissez sur json pour extraire du contenu structuré à partir de fichiers JSON. jsonArray : définissez sur jsonArray pour extraire des éléments individuels d’un tableau JSON sous forme de documents distincts dans Recherche cognitive Azure. jsonLines : définissez sur jsonLines pour extraire des entités JSON individuelles, séparées par une nouvelle ligne, en tant que documents distincts dans Recherche cognitive Azure.

CharFilter

Contient les cas possibles pour CharFilter.

CharFilterName

Définit des valeurs pour CharFilterName.
<xref:KnownCharFilterName> peut être utilisé indifféremment avec CharFilterName. Cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

html_strip : filtre de caractères qui tente de supprimer les constructions HTML. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Définit des valeurs pour CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Contient les cas possibles pour CognitiveServicesAccount.

ComplexDataType

Définit des valeurs pour ComplexDataType. Les valeurs possibles incluent : 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Options permettant d’effectuer l’opération de comptage sur l’index.

CreateDataSourceConnectionOptions

Options pour créer une opération de source de données.

CreateIndexOptions

Options pour créer une opération d’index.

CreateIndexerOptions

Options pour créer une opération d’indexeur.

CreateSkillsetOptions

Options pour créer une opération d’ensemble de compétences.

CreateSynonymMapOptions

Options pour créer une opération de synonymmap.

CustomEntityLookupSkillLanguage

Définit les langages pris en charge pour CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage peut être utilisé de manière interchangeable avec ce type

DataChangeDetectionPolicy

Contient les cas possibles pour DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contient les cas possibles pour DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Options pour l’opération de suppression de documents.

EdgeNGramTokenFilterSide

Définit des valeurs pour EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage

Définit les langages pris en charge pour EntityRecognitionSkillKnownEntityRecognitionSkillLanguage peut être utilisé de manière interchangeable avec ce type

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche en force brute sur l’ensemble de l’index vectoriel.

ExtractDocumentKey
GetDataSourceConnectionOptions

Options pour obtenir l’opération de source de données.

GetIndexOptions

Options pour obtenir l’opération d’index.

GetIndexStatisticsOptions

Options pour l’opération d’obtention des statistiques d’index.

GetIndexerOptions

Options pour l’opération d’obtention de l’indexeur.

GetIndexerStatusOptions

Options pour obtenir l’opération de status de l’indexeur.

GetServiceStatisticsOptions

Options pour obtenir l’opération de statistiques de service.

GetSkillSetOptions

Options d’obtention d’une opération d’ensemble de compétences.

GetSynonymMapsOptions

Options pour l’opération d’obtention de synonymmaps.

HnswAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme hnsw approximatif le plus proche voisin utilisé pendant le temps d’indexation.

ImageAnalysisSkillLanguage

Définit les langages pris en charge pour ImageAnalysisSkillKnownImageAnalysisSkillLanguage peut être utilisé de manière interchangeable avec ce type

ImageDetail
IndexActionType

Définit des valeurs pour IndexActionType.

IndexDocumentsAction

Représente une action d’index qui fonctionne sur un document.

IndexIterator

Itérateur pour répertorier les index qui existent dans le service Search. Effectue les requêtes en fonction des besoins pendant l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération.

IndexNameIterator

Itérateur pour répertorier les index qui existent dans le service Search. Effectue les requêtes en fonction des besoins pendant l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération.

IndexerExecutionEnvironment

Valeurs connues prises en charge par le service

standard : indique que Recherche cognitive Azure pouvez déterminer où l’indexeur doit s’exécuter. Il s’agit de l’environnement par défaut lorsque rien n’est spécifié et qu’il s’agit de la valeur recommandée. private : indique que l’indexeur doit s’exécuter avec l’environnement approvisionné spécifiquement pour le service de recherche. Cela doit uniquement être spécifié en tant qu’environnement d’exécution si l’indexeur doit accéder aux ressources de manière sécurisée via des ressources de liaison privée partagées.

IndexerExecutionStatus

Définit des valeurs pour IndexerExecutionStatus.

IndexerStatus

Définit des valeurs pour IndexerStatus.

KeyPhraseExtractionSkillLanguage

Définit les langages pris en charge pour KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage peut être utilisé de manière interchangeable avec ce type

LexicalAnalyzer

Contient les cas possibles pour Analyzer.

LexicalAnalyzerName

Définit des valeurs pour LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> peut être utilisé indifféremment avec LexicalAnalyzerName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

ar.microsoft : Analyseur Microsoft pour l’arabe.
ar.lucene : Analyseur lucene pour l’arabe.
hy.lucene : Analyseur Lucene pour arménien.
bn.microsoft : Analyseur Microsoft pour Bangla.
eu.lucene : Lucene analyzer for Basque.
bg.microsoft : Analyseur Microsoft pour le bulgare.
bg.lucene : Analyseur Lucene pour le bulgare.
ca.microsoft : Analyseur Microsoft pour catalan.
ca.lucene : Analyseur lucene pour le catalan.
zh-Hans.microsoft : Analyseur Microsoft pour le chinois (simplifié).
zh-Hans.lucene : Analyseur Lucene pour le chinois (simplifié).
zh-Hant.microsoft : Analyseur Microsoft pour le chinois (traditionnel).
zh-Hant.lucene : Analyseur Lucene pour le chinois (traditionnel).
hr.microsoft : Analyseur Microsoft pour le croate.
cs.microsoft : Analyseur Microsoft pour tchèque.
cs.lucene : Analyseur Lucene pour le tchèque.
da.microsoft : Analyseur Microsoft pour le danois.
da.lucene : Analyseur Lucene pour le danois.
nl.microsoft : Analyseur Microsoft pour le néerlandais.
nl.lucene : Analyseur Lucene pour le néerlandais.
en.microsoft : Analyseur Microsoft pour l’anglais.
en.lucene : Analyseur Lucene pour l’anglais.
et.microsoft : Analyseur Microsoft pour l’estonien.
fi.microsoft : Analyseur Microsoft pour le finnois.
fi.lucene : Analyseur Lucene pour le finnois.
fr.microsoft : Analyseur Microsoft pour Français.
fr.lucene : Analyseur Lucene pour Français.
gl.lucene : Analyseur Lucene pour galicien.
de.microsoft : Analyseur Microsoft pour l’allemand.
de.lucene : Analyseur Lucene pour l’allemand.
el.microsoft : Analyseur Microsoft pour le grec.
el.lucene : Lucene analyzer for Greek.
gu.microsoft : Analyseur Microsoft pour Gujarati.
he.microsoft : Analyseur Microsoft pour l’hébreu.
hi.microsoft : Analyseur Microsoft pour hindi.
hi.lucene : Analyseur Lucene pour hindi.
hu.microsoft : Analyseur Microsoft pour le hongrois.
hu.lucene : Analyseur Lucene pour le hongrois.
is.microsoft : Analyseur Microsoft pour l’Islande.
id.microsoft : Analyseur Microsoft pour l’indonésien (Bahasa).
id.lucene : analyseur Lucene pour l’indonésien.
ga.lucene : Analyseur Lucene pour l’irlandais.
it.microsoft : Analyseur Microsoft pour l’italien.
it.lucene : Analyseur Lucene pour l’italien.
ja.microsoft : Analyseur Microsoft pour le japonais.
ja.lucene : Analyseur Lucene pour le japonais.
kn.microsoft : Analyseur Microsoft pour Kannada.
ko.microsoft : Analyseur Microsoft pour le coréen.
ko.lucene : Analyseur Lucene pour le coréen.
lv.microsoft : Analyseur Microsoft pour letton.
lv.lucene : Analyseur Lucene pour letton.
lt.microsoft : Analyseur Microsoft pour lituanien.
ml.microsoft : Analyseur Microsoft pour Malayalam.
ms.microsoft : Analyseur Microsoft pour malais (latin).
mr.microsoft : Analyseur Microsoft pour Marathi.
nb.microsoft : Analyseur Microsoft pour norvégien (Bokmål).
no.lucene : Analyseur Lucene pour norvégien.
fa.lucene : Analyseur Lucene pour persan.
pl.microsoft : Analyseur Microsoft pour le polonais.
pl.lucene : Analyseur Lucene pour le polonais.
pt-BR.microsoft : Analyseur Microsoft pour le portugais (Brésil).
pt-BR.lucene : Analyseur Lucene pour le portugais (Brésil).
pt-PT.microsoft : Analyseur Microsoft pour le portugais (Portugal).
pt-PT.lucene : Analyseur Lucene pour le portugais (Portugal).
pa.microsoft : Microsoft analyzer for Punjabi.
ro.microsoft : Analyseur Microsoft pour le roumain.
ro.lucene : Analyseur Lucene pour le roumain.
ru.microsoft : Analyseur Microsoft pour le russe.
ru.lucene : Analyseur Lucene pour le russe.
sr-cyrillic.microsoft : Analyseur Microsoft pour le serbe (cyrillique).
sr-latin.microsoft : Analyseur Microsoft pour le serbe (latin).
sk.microsoft : Analyseur Microsoft pour slovaque.
sl.microsoft : Analyseur Microsoft pour le slovène.
es.microsoft : Analyseur Microsoft pour l’espagnol.
es.lucene : Analyseur Lucene pour l’espagnol.
sv.microsoft : Analyseur Microsoft pour le suédois.
sv.lucene : Analyseur Lucene pour suédois.
ta.microsoft : Analyseur Microsoft pour le tamoul.
te.microsoft : Analyseur Microsoft pour Telugu.
th.microsoft : Analyseur Microsoft pour le thaï.
th.lucene : Analyseur Lucene pour le thaï.
tr.microsoft : Analyseur Microsoft pour le turc.
tr.lucene : Analyseur Lucene pour le turc.
uk.microsoft : Analyseur Microsoft pour l’ukrainien.
your.microsoft : Analyseur Microsoft pour l’ourdou.
vi.microsoft : Analyseur Microsoft pour le vietnamien.
standard.lucene : analyseur Lucene standard.
standardasciifolding.lucene : analyseur Lucene de pliage ASCII standard. Voir https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
mot clé : traite l’intégralité du contenu d’un champ comme un jeton unique. Cela est utile pour les données telles que les codes postaux, les numéros d’identification et certains noms de produit. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
pattern : sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
simple : divise le texte en lettres autres que les lettres et les convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop : divise le texte en non-lettres ; Applique les filtres de jetons minuscules et de mots vides. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
whitespace : analyseur qui utilise le générateur de jetons d’espace blanc. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Contient les cas possibles pour Tokenizer.

LexicalTokenizerName

Définit des valeurs pour LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> peut être utilisé indifféremment avec LexicalTokenizerName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

classique : générateur de jetons basé sur la grammaire adapté au traitement de la plupart des documents en langue européenne. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram : tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2 : émet l’entrée entière sous la forme d’un jeton unique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
lettre : divise le texte en non-lettres. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
minuscules : divise le texte en lettres autres que les lettres et les convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer : divise le texte à l’aide de règles propres à la langue.
microsoft_language_stemming_tokenizer : divise le texte à l’aide de règles propres à la langue et réduit les mots à leurs formes de base.
nGram : tokenise l’entrée en n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2 : Générateur de jetons pour les hiérarchies de type chemin d’accès. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
pattern : Générateur de jetons qui utilise la correspondance de modèle regex pour construire des jetons distincts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2 : analyseur Lucene standard ; Composé du générateur de jetons standard, du filtre en minuscules et du filtre d’arrêt. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email : tokenise les URL et les e-mails sous la forme d’un jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
whitespace : divise le texte au niveau de l’espace blanc. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Options pour une opération de liste de sources de données.

ListIndexersOptions

Options pour une opération d’indexeurs de liste.

ListIndexesOptions

Options pour une opération d’index de liste.

ListSkillsetsOptions

Options pour une opération de liste d’ensembles de compétences.

ListSynonymMapsOptions

Options d’une opération de liste synonymMaps.

MergeDocumentsOptions

Options pour l’opération de fusion de documents.

MergeOrUploadDocumentsOptions

Options pour l’opération de fusion ou de chargement de documents.

MicrosoftStemmingTokenizerLanguage

Définit les valeurs de MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Définit des valeurs pour MicrosoftTokenizerLanguage.

NarrowedModel

Réduit le type de modèle pour inclure uniquement les champs sélectionnés

OcrSkillLanguage

Définit les langues prises en charge pour OcrSkillKnownOcrSkillLanguage peut être utilisée indifféremment avec ce type

PIIDetectionSkillMaskingMode

Définit des valeurs pour PIIDetectionSkillMaskingMode.

Valeurs connues prises en charge par le service

none : aucun masquage ne se produit et la sortie maskedText ne sera pas retournée. replace : remplace les entités détectées par le caractère donné dans le paramètre maskingCharacter. Le caractère est répété à la longueur de l’entité détectée afin que les décalages correspondent correctement au texte d’entrée ainsi qu’à la sortie masquéeText.

PhoneticEncoder

Définit des valeurs pour PhoneticEncoder.

QueryAnswer

Valeur qui spécifie si les réponses doivent être retournées dans le cadre de la réponse de recherche. Ce paramètre n’est valide que si le type de requête est « sémantique ». Si la valeur est définie extractivesur , la requête retourne des réponses extraites des passages clés dans les documents classés le plus haut.

QueryCaption

Valeur qui spécifie si les légendes doivent être retournées dans le cadre de la réponse de recherche. Ce paramètre n’est valide que si le type de requête est « sémantique ». Si la valeur est définie, la requête retourne les légendes extraites des passages clés dans les documents classés le plus haut. Lorsque Légendes est « extractif », la mise en surbrillance est activée par défaut. La valeur par défaut est « none ».

QueryType

Définit des valeurs pour QueryType.

RegexFlags

Définit des indicateurs pour la correspondance de modèle regex

Valeurs connues prises en charge par le service

CANON_EQ : active l’équivalence canonique. CASE_INSENSITIVE : active la correspondance sans respect de la casse. COMMENTAIRES : autorise les espaces blancs et les commentaires dans le modèle. DOTALL : active le mode dotall. LITTÉRAL : active l’analyse littérale du modèle. MULTILINE : active le mode multiligne. UNICODE_CASE : active le pliage de casse compatible Unicode. UNIX_LINES : active le mode lignes Unix.

ResetIndexerOptions

Options pour l’opération de réinitialisation de l’indexeur.

RunIndexerOptions

Options pour exécuter l’opération d’indexeur.

ScoringFunction

Contient les cas possibles pour ScoringFunction.

ScoringFunctionAggregation

Définit des valeurs pour ScoringFunctionAggregation.

ScoringFunctionInterpolation

Définit des valeurs pour ScoringFunctionInterpolation.

ScoringStatistics

Définit des valeurs pour ScoringStatistics.

SearchField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

SearchFieldArray

Si TModel est un objet non typé, un tableau de chaînes non typé Sinon, les champs délimités par des barres obliques de TModel.

SearchFieldDataType

Définit des valeurs pour SearchFieldDataType. Les valeurs possibles sont les suivantes : 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)'

NB : Edm.Single seul n’est pas un type de données valide. Il doit être utilisé dans le cadre d’un type de collection.

SearchIndexerDataSourceType
SearchIndexerSkill

Contient les cas possibles pour Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Options pour SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Options pour SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Options pour SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Options pour SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Options pour SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Itérateur pour les résultats de recherche d’une requête paticulaire. Effectue les requêtes en fonction des besoins pendant l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération.

SearchMode

Définit des valeurs pour SearchMode.

SearchOptions

Options de validation d’une demande de recherche complète.

SearchPick

Choisissez en profondeur des champs de T à l’aide de chemins d'$select accès OData de recherche cognitive valides.

SearchRequestOptions

Paramètres de filtrage, de tri, de facettes, de pagination et d’autres comportements de requête de recherche.

SearchRequestQueryTypeOptions
SearchResult

Contient un document trouvé par une requête de recherche, ainsi que les métadonnées associées.

SelectArray

Si TFields n’est jamais, un tableau de chaînes non typé Fields[] Sinon, type étroit à utiliser ailleurs dans le type consommateur.

SelectFields

Produit une union de chemins OData de recherche cognitive valides $select pour T à l’aide d’une traversée post-ordre de l’arborescence de champs enracinée à T.

SemanticErrorMode

partial : si le traitement sémantique échoue, les résultats partiels sont toujours retournés. La définition des résultats partiels dépend de l’étape sémantique qui a échoué et de la raison de l’échec.

fail : s’il existe une exception pendant l’étape de traitement sémantique, la requête échoue et retourne le code HTTP approprié en fonction de l’erreur.

SemanticErrorReason

maxWaitExceeded : si « semanticMaxWaitInMilliseconds » a été défini et que la durée de traitement sémantique a dépassé cette valeur. Seuls les résultats de base ont été retournés.

capacityOverloaded : la requête a été limitée. Seuls les résultats de base ont été retournés.

temporaire : au moins une étape du processus sémantique a échoué.

SemanticSearchResultsType

baseResults : résultats sans enrichissement sémantique ni reclassement.

rerankedResults : les résultats ont été reclassés avec le modèle de reclasseur et incluent des légendes sémantiques. Ils n’incluront pas de réponses, de réponses en surbrillance ou de légende de faits saillants.

SentimentSkillLanguage

Définit les langages pris en charge pour SentimentSkillKnownSentimentSkillLanguage peut être utilisé indifféremment avec ce type

SimilarityAlgorithm

Contient les cas possibles pour similarité.

SnowballTokenFilterLanguage

Définit des valeurs pour SnowballTokenFilterLanguage.

SplitSkillLanguage

Définit les langues prises en charge pour SplitSkillKnownSplitSkillLanguage peut être utilisée indifféremment avec ce type

StemmerTokenFilterLanguage

Définit des valeurs pour StemmerTokenFilterLanguage.

StopwordsList

Définit les valeurs de StopwordsList.

SuggestNarrowedModel
SuggestOptions

Options de récupération des suggestions basées sur searchText.

SuggestResult

Résultat contenant un document trouvé par une requête de suggestion, plus les métadonnées associées.

TextSplitMode
TextTranslationSkillLanguage

Définit les langues prises en charge pour TextTranslationSkillKnownTextTranslationSkillLanguage peut être utilisée indifféremment avec ce type

TokenCharacterKind

Définit des valeurs pour TokenCharacterKind.

TokenFilter

Contient les cas possibles pour TokenFilter.

TokenFilterName

Définit les valeurs de TokenFilterName.
<xref:KnownTokenFilterName> peut être utilisé indifféremment avec TokenFilterName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

arabic_normalization : filtre de jeton qui applique le normaliseur arabe pour normaliser l’orthographe. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrophe : supprime tous les caractères après une apostrophe (y compris l’apostrophe elle-même). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding : convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (bloc Unicode « latin de base ») en leurs équivalents ASCII, s’ils existent. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram : forme des bigrams de termes CJK générés à partir du générateur de jetons standard. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width : normalise les différences de largeur cjk. Plie les variantes ASCII de pleine chasse dans le latin de base équivalent et les variantes katakana de demi-largeur dans le Kana équivalent. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
classique : supprime les possessifs en anglais et les points des acronymes. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams : construisez des bigrams pour les termes fréquemment présents lors de l’indexation. Les termes uniques sont néanmoins aussi indexés, avec des digrammes superposés. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2 : génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision : supprime les élisions. Par exemple, « l’avion » sera converti en « avion ». Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization : normalise les caractères allemands en fonction de l’heuristique de l’algorithme de boule de neige German2. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization : normalise le texte en hindi pour supprimer certaines différences dans les variations orthographiques. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization : normalise la représentation Unicode du texte dans les langues indiennes. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat : émet chaque jeton entrant deux fois, une fois en tant que mot clé et une fois en tant que jeton non mot clé. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem : filtre kstem hautes performances pour l’anglais. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
length : supprime les mots trop longs ou trop courts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limit : limite le nombre de jetons lors de l’indexation. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
minuscules : normalise le texte du jeton en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm
nGram_v2 : génère n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization : Applique la normalisation pour le persan. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
phonétique : créez des jetons pour les correspondances phonétiques. Voir https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem : utilise l’algorithme de chiffrement Porter pour transformer le flux de jetons. Voir http://tartarus.org/~martin/PorterStemmer
reverse : inverse la chaîne de jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization : normalise l’utilisation des caractères scandinaves interchangeables. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding : plie les caractères scandinaves åÅäæÄÆ-a> et öÖøØ-o>. Il identifie aussi l’utilisation des voyelles doubles aa, ae, ao, oe et oo, et conserve seulement la première voyelle. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
bardeau : crée des combinaisons de jetons en tant que jeton unique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
boule de neige : filtre qui enseige les mots à l’aide d’un stemmer généré par Snowball. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization : normalise la représentation Unicode du texte Sorani. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer : filtre de stem spécifique au langage. Voir https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
mots vides : supprime les mots stop d’un flux de jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
trim : supprime les espaces blancs de début et de fin des jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
Tronquer : tronque les termes à une longueur spécifique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unique : filtre les jetons avec le même texte que le jeton précédent. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
majuscules : normalise le texte du jeton en majuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter : fractionne les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots.

UnionToIntersection
UploadDocumentsOptions

Options pour l’opération de chargement de documents.

VectorFilterMode

Détermine si les filtres sont appliqués avant ou après l’exécution de la recherche vectorielle.

VectorQuery

Paramètres de requête pour les requêtes de recherche vectorielle et hybride.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme utilisé lors de l’indexation et/ou de l’interrogation.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs.

VisualFeature

Énumérations

KnownAnalyzerNames

Définit des valeurs pour AnalyzerName. Voir https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownBlobIndexerDataToExtract

Valeurs connues de BlobIndexerDataToExtract que le service accepte.

KnownBlobIndexerImageAction

Valeurs connues de BlobIndexerImageAction que le service accepte.

KnownBlobIndexerPDFTextRotationAlgorithm

Valeurs connues de BlobIndexerPDFTextRotationAlgorithm que le service accepte.

KnownBlobIndexerParsingMode

Valeurs connues de BlobIndexerParsingMode que le service accepte.

KnownCharFilterNames

Valeurs connues de CharFilterName que le service accepte.

KnownCustomEntityLookupSkillLanguage

Valeurs connues de CustomEntityLookupSkillLanguage que le service accepte.

KnownEntityCategory

Valeurs connues d’EntityCategory que le service accepte.

KnownEntityRecognitionSkillLanguage

Valeurs connues d’EntityRecognitionSkillLanguage que le service accepte.

KnownImageAnalysisSkillLanguage

Valeurs connues d’ImageAnalysisSkillLanguage que le service accepte.

KnownImageDetail

Valeurs connues d’ImageDetail que le service accepte.

KnownKeyPhraseExtractionSkillLanguage

Valeurs connues de KeyPhraseExtractionSkillLanguage que le service accepte.

KnownOcrSkillLanguage

Valeurs connues d’OcrSkillLanguage que le service accepte.

KnownRegexFlags

Valeurs connues de RegexFlags que le service accepte.

KnownSearchAudience

Valeurs connues pour l’audience de recherche

KnownSearchIndexerDataSourceType

Valeurs connues de SearchIndexerDataSourceType que le service accepte.

KnownSentimentSkillLanguage

Valeurs connues de SentimentSkillLanguage que le service accepte.

KnownSplitSkillLanguage

Valeurs connues de SplitSkillLanguage que le service accepte.

KnownTextSplitMode

Valeurs connues de TextSplitMode que le service accepte.

KnownTextTranslationSkillLanguage

Valeurs connues de TextTranslationSkillLanguage que le service accepte.

KnownTokenFilterNames

Valeurs connues de TokenFilterName que le service accepte.

KnownTokenizerNames

Valeurs connues de LexicalTokenizerName que le service accepte.

KnownVisualFeature

Valeurs connues de VisualFeature que le service accepte.

Fonctions

createSynonymMapFromFile(string, string)

Méthode d’assistance pour créer un objet SynonymMap. Il s’agit d’une méthode NodeJS uniquement.

odata(TemplateStringsArray, unknown[])

Échappe une expression de filtre odata pour éviter les erreurs avec les littéraux de chaîne de guillemets. Exemple d’utilisation :

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Pour plus d’informations sur la syntaxe prise en charge, consultez : https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Informations relatives à la fonction

createSynonymMapFromFile(string, string)

Méthode d’assistance pour créer un objet SynonymMap. Il s’agit d’une méthode NodeJS uniquement.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Paramètres

name

string

Nom du SynonymMap.

filePath

string

Chemin du fichier qui contient les synonymes (séparées par de nouvelles lignes)

Retours

Promise<SynonymMap>

Objet SynonymMap

odata(TemplateStringsArray, unknown[])

Échappe une expression de filtre odata pour éviter les erreurs avec les littéraux de chaîne de guillemets. Exemple d’utilisation :

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Pour plus d’informations sur la syntaxe prise en charge, consultez : https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Paramètres

strings

TemplateStringsArray

Tableau de chaînes pour l’expression

values

unknown[]

Tableau de valeurs pour l’expression

Retours

string