@azure/search-documents package
Classes
AzureKeyCredential |
Informations d’identification basées sur une clé statique qui prend en charge la mise à jour de la valeur de clé sous-jacente. |
GeographyPoint |
Représente un point géographique en coordonnées globales. |
IndexDocumentsBatch |
Classe utilisée pour effectuer des opérations par lots avec plusieurs documents dans l’index. |
SearchClient |
Classe utilisée pour effectuer des opérations sur un index de recherche, y compris l’interrogation de documents dans l’index, ainsi que l’ajout, la mise à jour et la suppression de ceux-ci. |
SearchIndexClient |
Classe permettant d’effectuer des opérations pour gérer les index (créer, mettre à jour, lister/supprimer) & les synonymmaps. |
SearchIndexerClient |
Classe permettant d’effectuer des opérations pour gérer (créer, mettre à jour, lister/supprimer) des indexeurs, des sources de données & des ensembles de compétences. |
SearchIndexingBufferedSender |
Classe utilisée pour effectuer des opérations mises en mémoire tampon sur un index de recherche, y compris leur ajout, leur mise à jour et leur suppression. |
Interfaces
AnalyzeRequest |
Spécifie certains composants de texte et d’analyse utilisés pour diviser ce texte en jetons. |
AnalyzeResult |
Résultat du test d’un analyseur sur du texte. |
AnalyzedTokenInfo |
Informations sur un jeton retourné par un analyseur. |
AsciiFoldingTokenFilter |
Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « latin de base ») en équivalents ASCII, si de tels équivalents existent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
AutocompleteItem |
Résultat des demandes de saisie semi-automatique. |
AutocompleteRequest |
Paramètres pour la correspondance approximative et autres comportements de requête de saisie semi-automatique. |
AutocompleteResult |
Résultat de la requête de saisie semi-automatique. |
AzureActiveDirectoryApplicationCredentials |
Informations d’identification d’une application inscrite créée pour votre service de recherche, utilisées pour l’accès authentifié aux clés de chiffrement stockées dans Azure Key Vault. |
BM25Similarity |
Fonction de classement basée sur l’algorithme de similarité Okapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de la longueur (contrôlée par le paramètre « b ») ainsi que la saturation de la fréquence de terme (contrôlée par le paramètre « k1 »). |
BaseCharFilter |
Type de base pour les filtres de caractères. |
BaseCognitiveServicesAccount |
Type de base pour décrire toute ressource de service Azure AI attachée à un ensemble de compétences. |
BaseDataChangeDetectionPolicy |
Type de base pour les stratégies de détection des modifications de données. |
BaseDataDeletionDetectionPolicy |
Type de base pour les stratégies de détection de suppression de données. |
BaseLexicalAnalyzer |
Type de base pour les analyseurs. |
BaseLexicalTokenizer |
Type de base pour les générateurs de jetons. |
BaseScoringFunction |
Type de base pour les fonctions qui peuvent modifier les scores de document pendant le classement. |
BaseSearchIndexerSkill |
Type de base pour les compétences. |
BaseSearchRequestOptions |
Paramètres de filtrage, de tri, de facettes, de pagination et d’autres comportements de requête de recherche. |
BaseTokenFilter |
Type de base pour les filtres de jetons. |
BaseVectorQuery |
Paramètres de requête pour les requêtes de recherche vectorielle et hybride. |
BaseVectorSearchAlgorithmConfiguration |
Contient des options de configuration spécifiques à l’algorithme utilisé lors de l’indexation et/ou de l’interrogation. |
CjkBigramTokenFilter |
Forme des bigrams de termes CJK générés à partir du générateur de jetons standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
ClassicSimilarity |
Algorithme de similarité hérité qui utilise l’implémentation Lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation statique de la longueur des documents ainsi que des facteurs de coordination qui pénalisent les documents qui ne correspondent que partiellement aux requêtes recherchées. |
ClassicTokenizer |
Générateur de jetons basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. |
CognitiveServicesAccountKey |
Une ressource de service Azure AI approvisionnée avec une clé attachée à un ensemble de compétences. |
CommonGramTokenFilter |
Construit des digrammes pour les termes d’occurrence fréquente lors de l’indexation. Les termes uniques sont néanmoins aussi indexés, avec des digrammes superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
ComplexField |
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ. |
ConditionalSkill |
Compétence qui permet d’activer les scénarios qui nécessitent une opération booléenne pour déterminer les données à affecter à une sortie. |
CorsOptions |
Définit des options pour contrôler le partage de ressources entre origines (CORS) pour un index. |
CreateOrUpdateIndexOptions |
Options pour l’opération de création/mise à jour d’index. |
CreateOrUpdateSkillsetOptions |
Options pour l’opération de création/mise à jour d’un ensemble de compétences. |
CreateOrUpdateSynonymMapOptions |
Options pour l’opération de création/mise à jour de synonymmap. |
CreateorUpdateDataSourceConnectionOptions |
Options pour créer/mettre à jour une opération de source de données. |
CreateorUpdateIndexerOptions |
Options pour l’opération de création/mise à jour de l’indexeur. |
CustomAnalyzer |
Vous permet de prendre le contrôle du processus de conversion du texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul générateur de jetons prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est responsable du fractionnement du texte en jetons et des filtres pour modifier les jetons émis par le générateur de jetons. |
CustomEntity |
Objet qui contient des informations sur les correspondances trouvées et les métadonnées associées. |
CustomEntityAlias |
Objet complexe qui peut être utilisé pour spécifier d’autres orthographes ou synonymes au nom d’entité racine. |
CustomEntityLookupSkill |
Une compétence recherche le texte d’une liste personnalisée définie par l’utilisateur de mots et d’expressions. |
DefaultCognitiveServicesAccount |
Objet vide qui représente la ressource de service Azure AI par défaut pour un ensemble de compétences. |
DeleteDataSourceConnectionOptions |
Options pour l’opération de suppression de source de données. |
DeleteIndexOptions |
Options pour l’opération de suppression d’index. |
DeleteIndexerOptions |
Options pour l’opération de suppression de l’indexeur. |
DeleteSkillsetOptions |
Options de suppression de l’opération de l’ensemble de compétences. |
DeleteSynonymMapOptions |
Options pour l’opération de suppression de synonymmap. |
DictionaryDecompounderTokenFilter |
Décompose les mots composés trouvés dans beaucoup de langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
DistanceScoringFunction |
Définit une fonction qui augmente les scores en fonction de la distance d’un emplacement géographique. |
DistanceScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring de distance. |
DocumentExtractionSkill |
Compétence qui extrait le contenu d’un fichier dans le pipeline d’enrichissement. |
EdgeNGramTokenFilter |
Génère n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
EdgeNGramTokenizer |
Jetonse l’entrée d’un bord en n grammes de la ou des tailles données. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. |
ElisionTokenFilter |
Supprime les élisions. Par exemple, « l’avion » (l’avion) sera converti en « avion ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
EntityLinkingSkill |
À l’aide de l’API Analyse de texte, extrait les entités liées du texte. |
EntityRecognitionSkill |
Reconnaissance d’entités d’analyse de texte. |
EntityRecognitionSkillV3 |
À l’aide de l’API Analyse de texte, extrait du texte des entités de différents types. |
ExhaustiveKnnParameters |
Contient les paramètres spécifiques à l’algorithme KNN exhaustif. |
ExtractiveQueryAnswer |
Extrait les candidats-réponses du contenu des documents retournés en réponse à une requête exprimée sous forme de question en langage naturel. |
ExtractiveQueryCaption |
Extrait les légendes des documents correspondants qui contiennent des passages pertinents pour la requête de recherche. |
FacetResult |
Compartiment unique d’un résultat de requête à facettes. Indique le nombre de documents dont la valeur de champ se trouve dans une plage particulière ou dont la valeur ou l’intervalle est particulier. |
FieldMapping |
Définit un mappage entre un champ dans une source de données et un champ cible dans un index. |
FieldMappingFunction |
Représente une fonction qui transforme une valeur à partir d’une source de données avant l’indexation. |
FreshnessScoringFunction |
Définit une fonction qui augmente les scores en fonction de la valeur d’un champ date-heure. |
FreshnessScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring d’actualisation. |
GetDocumentOptions |
Options de récupération d’un document unique. |
HighWaterMarkChangeDetectionPolicy |
Définit une stratégie de détection des modifications de données qui capture les modifications en fonction de la valeur d’une colonne de marque d’eau élevée. |
HnswParameters |
Contient les paramètres propres à l’algorithme hnsw. |
ImageAnalysisSkill |
Compétence qui analyse les fichiers image. Il extrait un ensemble complet de fonctionnalités visuelles en fonction du contenu de l’image. |
IndexDocumentsClient |
Index Documents Client |
IndexDocumentsOptions |
Options pour l’opération modifier le lot d’index. |
IndexDocumentsResult |
Réponse contenant le status d’opérations pour tous les documents de la demande d’indexation. |
IndexerExecutionResult |
Représente le résultat d’une exécution d’indexeur individuel. |
IndexingParameters |
Représente les paramètres pour l'exécution d'indexeur. |
IndexingParametersConfiguration |
Dictionnaire de propriétés de configuration spécifiques à l’indexeur. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif. |
IndexingResult |
État d’une opération d’indexation pour un seul document. |
IndexingSchedule |
Représente une planification pour l'exécution d'indexeur. |
InputFieldMappingEntry |
Mappage de champ d’entrée pour une compétence. |
KeepTokenFilter |
Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste de mots spécifiée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
KeyPhraseExtractionSkill |
Compétence qui utilise l’analyse de texte pour l’extraction d’expressions clés. |
KeywordMarkerTokenFilter |
Marque les termes comme mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
KeywordTokenizer |
Génère la totalité de l’entrée sous la forme d’un unique jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. |
LanguageDetectionSkill |
Compétence qui détecte la langue du texte d’entrée et signale un code de langue unique pour chaque document envoyé lors de la demande. Le code du langage est associé à un score indiquant la confiance de l’analyse. |
LengthTokenFilter |
Supprime les mots qui sont trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
LimitTokenFilter |
Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
ListSearchResultsPageSettings |
Arguments pour récupérer la page suivante des résultats de la recherche. |
LuceneStandardAnalyzer |
Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre en minuscules et du filtre d’arrêt. |
LuceneStandardTokenizer |
Décompose le texte en suivant les règles de segmentation du texte Unicode. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. |
MagnitudeScoringFunction |
Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique. |
MagnitudeScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring de magnitude. |
MappingCharFilter |
Filtre de caractères qui applique les mappages définis avec l’option mappages. La mise en correspondance est gourmande en ressources (la correspondance du modèle le plus long à un point donné l’emporte). La chaîne vide est autorisée comme remplacement. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene. |
MergeSkill |
Compétence permettant de fusionner deux chaînes ou plus en une seule chaîne unifiée, avec un délimiteur facultatif défini par l’utilisateur séparant chaque composant. |
MicrosoftLanguageStemmingTokenizer |
Divise le texte en utilisant des règles spécifiques à la langue et réduit les mots à leurs formes de base. |
MicrosoftLanguageTokenizer |
Divise le texte en utilisant des règles spécifiques à la langue. |
NGramTokenFilter |
Génère des n-grammes de la taille donnée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
NGramTokenizer |
Génère des jetons à partir de l’entrée en n-grammes d’une ou plusieurs tailles données. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. |
OcrSkill |
Compétence qui extrait du texte à partir de fichiers image. |
OutputFieldMappingEntry |
Mappage de champ de sortie pour une compétence. |
PIIDetectionSkill |
À l’aide de l’API Analyse de texte, extrait les informations personnelles d’un texte d’entrée et vous permet de les masquer. |
PathHierarchyTokenizer |
Générateur de jetons pour les hiérarchies de type chemin. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. |
PatternAnalyzer |
Sépare le texte de façon flexible en termes via un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene. |
PatternCaptureTokenFilter |
Utilise des regex Java pour émettre plusieurs jetons , un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
PatternReplaceCharFilter |
Filtre de caractères qui remplace les caractères de la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement de « $1#$2 », le résultat serait « aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene. |
PatternReplaceTokenFilter |
Filtre de caractères qui remplace les caractères de la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement de « $1#$2 », le résultat serait « aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
PatternTokenizer |
Générateur de jetons qui utilise la correspondance de modèle regex pour construire des jetons distincts. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. |
PhoneticTokenFilter |
Crée des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
QueryAnswerResult |
Une réponse est un passage de texte extrait du contenu des documents les plus pertinents correspondant à la requête. Les réponses sont extraites des premiers résultats de recherche. Les candidats à la réponse sont notés et les premières réponses sont sélectionnées. |
QueryCaptionResult |
Les légendes sont les passages les plus représentatifs du document par rapport à la requête de recherche. Ils sont souvent utilisés comme résumé de document. Les sous-titres sont retournés uniquement pour les requêtes de type |
ResourceCounter |
Représente l’utilisation et le quota d’une ressource. |
ScoringProfile |
Définit les paramètres d’un index de recherche qui influencent le scoring dans les requêtes de recherche. |
SearchClientOptions |
Options clientes utilisées pour configurer les demandes d’API Recherche cognitive. |
SearchDocumentsPageResult |
Réponse contenant les résultats de la page de recherche d’un index. |
SearchDocumentsResult |
Réponse contenant les résultats de recherche d’un index. |
SearchDocumentsResultBase |
Réponse contenant les résultats de recherche d’un index. |
SearchIndex |
Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index. |
SearchIndexClientOptions |
Options clientes utilisées pour configurer les demandes d’API Recherche cognitive. |
SearchIndexStatistics |
Statistiques pour un index donné. Les statistiques sont collectées régulièrement et ne sont pas garanties d’être toujours à jour. |
SearchIndexer |
Représente un indexeur. |
SearchIndexerClientOptions |
Options clientes utilisées pour configurer les demandes d’API Recherche cognitive. |
SearchIndexerDataContainer |
Représente des informations sur l’entité (telles que Azure SQL table ou la collection CosmosDB) qui sera indexée. |
SearchIndexerDataSourceConnection |
Représente une définition de source de données, qui peut être utilisée pour configurer un indexeur. |
SearchIndexerError |
Représente une erreur d'indexation de niveau élément ou document. |
SearchIndexerKnowledgeStore |
Définition de projections supplémentaires pour azure blob, table ou fichiers, de données enrichies. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Classe abstraite pour partager des propriétés entre des sélecteurs concrets. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Définition de projection pour les données à stocker dans Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Définition de projection pour les données à stocker dans Azure Blob. |
SearchIndexerKnowledgeStoreProjection |
Objet conteneur pour différents sélecteurs de projection. |
SearchIndexerKnowledgeStoreProjectionSelector |
Classe abstraite pour partager des propriétés entre des sélecteurs concrets. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Description des données à stocker dans les tables Azure. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Liste des compétences. |
SearchIndexerStatus |
Represente le statut actuel et l'historique d'exécution d'un indexeur. |
SearchIndexerWarning |
Représente un avertissement au niveau de l’élément. |
SearchIndexingBufferedSenderOptions |
Options pour SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Une clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer les données au repos dans Recherche cognitive Azure, telles que les index et les mappages de synonymes. |
SearchServiceStatistics |
Réponse d’une demande de statistiques de service get. Si elle réussit, elle inclut des compteurs et des limites de niveau de service. |
SearchSuggester |
Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index. |
SemanticConfiguration |
Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques. |
SemanticField |
Champ utilisé dans le cadre de la configuration sémantique. |
SemanticPrioritizedFields |
Décrit les champs titre, contenu et mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. |
SemanticSearch |
Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques. |
SemanticSearchOptions |
Définit les options pour les requêtes de recherche sémantique |
SentimentSkill |
Analyse de texte des sentiments positifs/négatifs, notée comme une valeur à virgule flottante dans une plage de zéro à 1. |
SentimentSkillV3 |
À l’aide de l’API Analyse de texte, évalue le texte non structuré et, pour chaque enregistrement, fournit des étiquettes de sentiment (telles que « négatif », « neutre » et « positif ») basées sur le score de confiance le plus élevé trouvé par le service au niveau de la phrase et du document. |
ServiceCounters |
Représente les compteurs de ressources et les quotas de niveau de service. |
ServiceLimits |
Représente différentes limites de niveau de service. |
ShaperSkill |
Compétence pour remodeler les sorties. Il crée un type complexe pour prendre en charge les champs composites (également appelés champs en plusieurs parties). |
ShingleTokenFilter |
Crée des combinaisons de jetons sous la forme d’un unique jeton. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Similarity |
Type de base pour les algorithmes de similarité. Les algorithmes de similarité sont utilisés pour calculer les scores qui lient les requêtes aux documents. Plus le score est élevé, plus le document est pertinent pour cette requête spécifique. Ces scores sont utilisés pour classer les résultats de la recherche. |
SimpleField |
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ. |
SnowballTokenFilter |
Filtre qui dérive les mots à l’aide d’un générateur de formes dérivées généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Définit une stratégie de détection de suppression de données qui implémente une stratégie de suppression réversible. Il détermine si un élément doit être supprimé en fonction de la valeur d’une colonne « suppression réversible » désignée. |
SplitSkill |
Compétence permettant de fractionner une chaîne en blocs de texte. |
SqlIntegratedChangeTrackingPolicy |
Définit une stratégie de détection des modifications de données qui capture les modifications à l’aide de la fonctionnalité de Change Tracking intégrée de Azure SQL Base de données. |
StemmerOverrideTokenFilter |
Offre la possibilité de remplacer d’autres filtres de base de données par un suivi basé sur un dictionnaire personnalisé. Tout terme issu d’un dictionnaire sera marqué en tant que mots clés afin qu’ils ne soient pas délimités par des générateurs de formes dérivées en bas de la chaîne. Doit être placé avant les filtres de recherche de radical. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
StemmerTokenFilter |
Filtre de recherche de contenu spécifique à la langue. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
StopAnalyzer |
Divise le texte aux lettres non-lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene. |
StopwordsTokenFilter |
Supprime les mots vides d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
SuggestDocumentsResult |
Réponse contenant les résultats de requête de suggestion d’un index. |
SuggestRequest |
Paramètres pour le filtrage, le tri, la correspondance approximative et d’autres comportements de requête de suggestions. |
SynonymMap |
Représente une définition de carte de synonymes. |
SynonymTokenFilter |
Correspond à des synonymes uniques ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
TagScoringFunction |
Définit une fonction qui augmente les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises. |
TagScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring d’étiquettes. |
TextTranslationSkill |
Compétence permettant de traduire du texte d’une langue à une autre. |
TextWeights |
Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche. |
TruncateTokenFilter |
Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
UaxUrlEmailTokenizer |
Génère des jetons pour des URL et des e-mails sous la forme d’un seul jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene. |
UniqueTokenFilter |
Élimine les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
VectorSearch |
Contient des options de configuration liées à la recherche vectorielle. |
VectorSearchOptions |
Définit les options pour les requêtes de recherche vectorielle |
VectorSearchProfile |
Définit une combinaison de configurations à utiliser avec la recherche vectorielle. |
VectorizedQuery |
Paramètres de requête à utiliser pour la recherche vectorielle lorsqu’une valeur vectorielle brute est fournie. |
WebApiSkill |
Compétence qui peut appeler un point de terminaison d’API web, ce qui vous permet d’étendre un ensemble de compétences en appelant votre code personnalisé. |
WordDelimiterTokenFilter |
Divise les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Alias de type
AnalyzeTextOptions |
Options pour analyser l’opération de texte. |
AutocompleteMode |
Définit des valeurs pour AutocompleteMode. |
AutocompleteOptions |
Options permettant de récupérer le texte d’achèvement d’une recherche partielleText. |
BlobIndexerDataToExtract |
Valeurs connues prises en charge par le servicestorageMetadata : indexe uniquement les propriétés d’objet blob standard et les métadonnées spécifiées par l’utilisateur. allMetadata : extrait les métadonnées fournies par le sous-système stockage blob Azure et les métadonnées spécifiques au type de contenu (par exemple, les métadonnées propres à .png fichiers sont indexés). contentAndMetadata : extrait toutes les métadonnées et le contenu textuel de chaque objet blob. |
BlobIndexerImageAction |
Valeurs connues prises en charge par le servicenone : ignore les images incorporées ou les fichiers image dans le jeu de données. Il s’agit de la valeur par défaut. generateNormalizedImages : extrait le texte des images (par exemple, le mot « STOP » d’un signe d’arrêt de trafic) et l’incorpore dans le champ de contenu. Cette action nécessite que « dataToExtract » soit défini sur « contentAndMetadata ». Une image normalisée fait référence à un traitement supplémentaire résultant en une sortie d’image uniforme, dimensionnée et pivotée pour promouvoir un rendu cohérent lorsque vous incluez des images dans les résultats de recherche visuelle. Ces informations sont générées pour chaque image lorsque vous utilisez cette option. generateNormalizedImagePerPage : extrait le texte des images (par exemple, le mot « STOP » d’un signe d’arrêt de trafic) et l’incorpore dans le champ de contenu, mais traite différemment les fichiers PDF dans la mesure où chaque page sera rendue en tant qu’image et normalisée en conséquence, au lieu d’extraire les images incorporées. Les types de fichiers non PDF seront traités de la même façon que si « generateNormalizedImages » était défini. |
BlobIndexerPDFTextRotationAlgorithm |
Valeurs connues prises en charge par le servicenone : tire parti de l’extraction de texte normale. Il s’agit de la valeur par défaut. detectAngles : peut produire une extraction de texte meilleure et plus lisible à partir de fichiers PDF qui ont fait pivoter le texte. Notez qu’il peut y avoir un petit impact sur la vitesse des performances lorsque ce paramètre est utilisé. Ce paramètre s’applique uniquement aux fichiers PDF et uniquement aux fichiers PDF avec du texte incorporé. Si le texte pivoté apparaît dans une image incorporée dans le fichier PDF, ce paramètre ne s’applique pas. |
BlobIndexerParsingMode |
Valeurs connues prises en charge par le servicedefault : définissez la valeur par défaut pour le traitement normal des fichiers. text : définissez sur texte pour améliorer les performances d’indexation sur les fichiers de texte brut dans le stockage d’objets blob. delimitedText : défini sur delimitedText lorsque les objets blob sont des fichiers CSV bruts. json : définissez sur json pour extraire du contenu structuré à partir de fichiers JSON. jsonArray : définissez sur jsonArray pour extraire des éléments individuels d’un tableau JSON sous forme de documents distincts dans Recherche cognitive Azure. jsonLines : définissez sur jsonLines pour extraire des entités JSON individuelles, séparées par une nouvelle ligne, en tant que documents distincts dans Recherche cognitive Azure. |
CharFilter |
Contient les cas possibles pour CharFilter. |
CharFilterName |
Définit des valeurs pour CharFilterName. Valeurs connues prises en charge par le servicehtml_strip : filtre de caractères qui tente de supprimer les constructions HTML. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Définit des valeurs pour CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Contient les cas possibles pour CognitiveServicesAccount. |
ComplexDataType |
Définit des valeurs pour ComplexDataType. Les valeurs possibles incluent : 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Options permettant d’effectuer l’opération de comptage sur l’index. |
CreateDataSourceConnectionOptions |
Options pour créer une opération de source de données. |
CreateIndexOptions |
Options pour créer une opération d’index. |
CreateIndexerOptions |
Options pour créer une opération d’indexeur. |
CreateSkillsetOptions |
Options pour créer une opération d’ensemble de compétences. |
CreateSynonymMapOptions |
Options pour créer une opération de synonymmap. |
CustomEntityLookupSkillLanguage |
Définit les langages pris en charge pour CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage peut être utilisé de manière interchangeable avec ce type |
DataChangeDetectionPolicy |
Contient les cas possibles pour DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Contient les cas possibles pour DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Options pour l’opération de suppression de documents. |
EdgeNGramTokenFilterSide |
Définit des valeurs pour EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage |
Définit les langages pris en charge pour EntityRecognitionSkillKnownEntityRecognitionSkillLanguage peut être utilisé de manière interchangeable avec ce type |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche en force brute sur l’ensemble de l’index vectoriel. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Options pour obtenir l’opération de source de données. |
GetIndexOptions |
Options pour obtenir l’opération d’index. |
GetIndexStatisticsOptions |
Options pour l’opération d’obtention des statistiques d’index. |
GetIndexerOptions |
Options pour l’opération d’obtention de l’indexeur. |
GetIndexerStatusOptions |
Options pour obtenir l’opération de status de l’indexeur. |
GetServiceStatisticsOptions |
Options pour obtenir l’opération de statistiques de service. |
GetSkillSetOptions |
Options d’obtention d’une opération d’ensemble de compétences. |
GetSynonymMapsOptions |
Options pour l’opération d’obtention de synonymmaps. |
HnswAlgorithmConfiguration |
Contient des options de configuration spécifiques à l’algorithme hnsw approximatif le plus proche voisin utilisé pendant le temps d’indexation. |
ImageAnalysisSkillLanguage |
Définit les langages pris en charge pour ImageAnalysisSkillKnownImageAnalysisSkillLanguage peut être utilisé de manière interchangeable avec ce type |
ImageDetail | |
IndexActionType |
Définit des valeurs pour IndexActionType. |
IndexDocumentsAction |
Représente une action d’index qui fonctionne sur un document. |
IndexIterator |
Itérateur pour répertorier les index qui existent dans le service Search. Effectue les requêtes en fonction des besoins pendant l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération. |
IndexNameIterator |
Itérateur pour répertorier les index qui existent dans le service Search. Effectue les requêtes en fonction des besoins pendant l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération. |
IndexerExecutionEnvironment |
Valeurs connues prises en charge par le servicestandard : indique que Recherche cognitive Azure pouvez déterminer où l’indexeur doit s’exécuter. Il s’agit de l’environnement par défaut lorsque rien n’est spécifié et qu’il s’agit de la valeur recommandée. private : indique que l’indexeur doit s’exécuter avec l’environnement approvisionné spécifiquement pour le service de recherche. Cela doit uniquement être spécifié en tant qu’environnement d’exécution si l’indexeur doit accéder aux ressources de manière sécurisée via des ressources de liaison privée partagées. |
IndexerExecutionStatus |
Définit des valeurs pour IndexerExecutionStatus. |
IndexerStatus |
Définit des valeurs pour IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Définit les langages pris en charge pour KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage peut être utilisé de manière interchangeable avec ce type |
LexicalAnalyzer |
Contient les cas possibles pour Analyzer. |
LexicalAnalyzerName |
Définit des valeurs pour LexicalAnalyzerName. Valeurs connues prises en charge par le servicear.microsoft : Analyseur Microsoft pour l’arabe. |
LexicalTokenizer |
Contient les cas possibles pour Tokenizer. |
LexicalTokenizerName |
Définit des valeurs pour LexicalTokenizerName. Valeurs connues prises en charge par le serviceclassique : générateur de jetons basé sur la grammaire adapté au traitement de la plupart des documents en langue européenne. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Options pour une opération de liste de sources de données. |
ListIndexersOptions |
Options pour une opération d’indexeurs de liste. |
ListIndexesOptions |
Options pour une opération d’index de liste. |
ListSkillsetsOptions |
Options pour une opération de liste d’ensembles de compétences. |
ListSynonymMapsOptions |
Options d’une opération de liste synonymMaps. |
MergeDocumentsOptions |
Options pour l’opération de fusion de documents. |
MergeOrUploadDocumentsOptions |
Options pour l’opération de fusion ou de chargement de documents. |
MicrosoftStemmingTokenizerLanguage |
Définit les valeurs de MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Définit des valeurs pour MicrosoftTokenizerLanguage. |
NarrowedModel |
Réduit le type de modèle pour inclure uniquement les champs sélectionnés |
OcrSkillLanguage |
Définit les langues prises en charge pour OcrSkillKnownOcrSkillLanguage peut être utilisée indifféremment avec ce type |
PIIDetectionSkillMaskingMode |
Définit des valeurs pour PIIDetectionSkillMaskingMode. Valeurs connues prises en charge par le servicenone : aucun masquage ne se produit et la sortie maskedText ne sera pas retournée. replace : remplace les entités détectées par le caractère donné dans le paramètre maskingCharacter. Le caractère est répété à la longueur de l’entité détectée afin que les décalages correspondent correctement au texte d’entrée ainsi qu’à la sortie masquéeText. |
PhoneticEncoder |
Définit des valeurs pour PhoneticEncoder. |
QueryAnswer |
Valeur qui spécifie si les réponses doivent être retournées dans le cadre de la réponse de recherche.
Ce paramètre n’est valide que si le type de requête est « sémantique ». Si la valeur est définie |
QueryCaption |
Valeur qui spécifie si les légendes doivent être retournées dans le cadre de la réponse de recherche. Ce paramètre n’est valide que si le type de requête est « sémantique ». Si la valeur est définie, la requête retourne les légendes extraites des passages clés dans les documents classés le plus haut. Lorsque Légendes est « extractif », la mise en surbrillance est activée par défaut. La valeur par défaut est « none ». |
QueryType |
Définit des valeurs pour QueryType. |
RegexFlags |
Définit des indicateurs pour la correspondance de modèle regex Valeurs connues prises en charge par le serviceCANON_EQ : active l’équivalence canonique. CASE_INSENSITIVE : active la correspondance sans respect de la casse. COMMENTAIRES : autorise les espaces blancs et les commentaires dans le modèle. DOTALL : active le mode dotall. LITTÉRAL : active l’analyse littérale du modèle. MULTILINE : active le mode multiligne. UNICODE_CASE : active le pliage de casse compatible Unicode. UNIX_LINES : active le mode lignes Unix. |
ResetIndexerOptions |
Options pour l’opération de réinitialisation de l’indexeur. |
RunIndexerOptions |
Options pour exécuter l’opération d’indexeur. |
ScoringFunction |
Contient les cas possibles pour ScoringFunction. |
ScoringFunctionAggregation |
Définit des valeurs pour ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Définit des valeurs pour ScoringFunctionInterpolation. |
ScoringStatistics |
Définit des valeurs pour ScoringStatistics. |
SearchField |
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ. |
SearchFieldArray |
Si |
SearchFieldDataType |
Définit des valeurs pour SearchFieldDataType. Les valeurs possibles sont les suivantes : 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)' NB : |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Contient les cas possibles pour Skill. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Options pour SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Options pour SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Options pour SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Options pour SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Options pour SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Itérateur pour les résultats de recherche d’une requête paticulaire. Effectue les requêtes en fonction des besoins pendant l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération. |
SearchMode |
Définit des valeurs pour SearchMode. |
SearchOptions |
Options de validation d’une demande de recherche complète. |
SearchPick |
Choisissez en profondeur des champs de T à l’aide de chemins d'$select accès OData de recherche cognitive valides. |
SearchRequestOptions |
Paramètres de filtrage, de tri, de facettes, de pagination et d’autres comportements de requête de recherche. |
SearchRequestQueryTypeOptions | |
SearchResult |
Contient un document trouvé par une requête de recherche, ainsi que les métadonnées associées. |
SelectArray |
Si |
SelectFields |
Produit une union de chemins OData de recherche cognitive valides $select pour T à l’aide d’une traversée post-ordre de l’arborescence de champs enracinée à T. |
SemanticErrorMode |
partial : si le traitement sémantique échoue, les résultats partiels sont toujours retournés. La définition des résultats partiels dépend de l’étape sémantique qui a échoué et de la raison de l’échec. fail : s’il existe une exception pendant l’étape de traitement sémantique, la requête échoue et retourne le code HTTP approprié en fonction de l’erreur. |
SemanticErrorReason |
maxWaitExceeded : si « semanticMaxWaitInMilliseconds » a été défini et que la durée de traitement sémantique a dépassé cette valeur. Seuls les résultats de base ont été retournés. capacityOverloaded : la requête a été limitée. Seuls les résultats de base ont été retournés. temporaire : au moins une étape du processus sémantique a échoué. |
SemanticSearchResultsType |
baseResults : résultats sans enrichissement sémantique ni reclassement. rerankedResults : les résultats ont été reclassés avec le modèle de reclasseur et incluent des légendes sémantiques. Ils n’incluront pas de réponses, de réponses en surbrillance ou de légende de faits saillants. |
SentimentSkillLanguage |
Définit les langages pris en charge pour SentimentSkillKnownSentimentSkillLanguage peut être utilisé indifféremment avec ce type |
SimilarityAlgorithm |
Contient les cas possibles pour similarité. |
SnowballTokenFilterLanguage |
Définit des valeurs pour SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Définit les langues prises en charge pour SplitSkillKnownSplitSkillLanguage peut être utilisée indifféremment avec ce type |
StemmerTokenFilterLanguage |
Définit des valeurs pour StemmerTokenFilterLanguage. |
StopwordsList |
Définit les valeurs de StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Options de récupération des suggestions basées sur searchText. |
SuggestResult |
Résultat contenant un document trouvé par une requête de suggestion, plus les métadonnées associées. |
TextSplitMode | |
TextTranslationSkillLanguage |
Définit les langues prises en charge pour TextTranslationSkillKnownTextTranslationSkillLanguage peut être utilisée indifféremment avec ce type |
TokenCharacterKind |
Définit des valeurs pour TokenCharacterKind. |
TokenFilter |
Contient les cas possibles pour TokenFilter. |
TokenFilterName |
Définit les valeurs de TokenFilterName. Valeurs connues prises en charge par le servicearabic_normalization : filtre de jeton qui applique le normaliseur arabe pour normaliser l’orthographe. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Options pour l’opération de chargement de documents. |
VectorFilterMode |
Détermine si les filtres sont appliqués avant ou après l’exécution de la recherche vectorielle. |
VectorQuery |
Paramètres de requête pour les requêtes de recherche vectorielle et hybride. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Contient des options de configuration spécifiques à l’algorithme utilisé lors de l’indexation et/ou de l’interrogation. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
Métrique de similarité à utiliser pour les comparaisons de vecteurs. |
VisualFeature |
Énumérations
Fonctions
create |
Méthode d’assistance pour créer un objet SynonymMap. Il s’agit d’une méthode NodeJS uniquement. |
odata(Template |
Échappe une expression de filtre odata pour éviter les erreurs avec les littéraux de chaîne de guillemets. Exemple d’utilisation :
Pour plus d’informations sur la syntaxe prise en charge, consultez : https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Informations relatives à la fonction
createSynonymMapFromFile(string, string)
Méthode d’assistance pour créer un objet SynonymMap. Il s’agit d’une méthode NodeJS uniquement.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Paramètres
- name
-
string
Nom du SynonymMap.
- filePath
-
string
Chemin du fichier qui contient les synonymes (séparées par de nouvelles lignes)
Retours
Promise<SynonymMap>
Objet SynonymMap
odata(TemplateStringsArray, unknown[])
Échappe une expression de filtre odata pour éviter les erreurs avec les littéraux de chaîne de guillemets. Exemple d’utilisation :
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Pour plus d’informations sur la syntaxe prise en charge, consultez : https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Paramètres
- strings
-
TemplateStringsArray
Tableau de chaînes pour l’expression
- values
-
unknown[]
Tableau de valeurs pour l’expression
Retours
string