@azure/search-documents package

Classes

AzureKeyCredential

Informations d’identification statiques basées sur une clé qui prend en charge la mise à jour de la valeur de clé sous-jacente.

GeographyPoint

Représente un point géographique dans les coordonnées globales.

IndexDocumentsBatch

Classe utilisée pour effectuer des opérations de traitement par lots avec plusieurs documents à l’index.

KnowledgeRetrievalClient

Classe utilisée pour effectuer des opérations sur une base de connaissances.

SearchClient

Classe utilisée pour effectuer des opérations sur un index de recherche, y compris l’interrogation de documents dans l’index, ainsi que l’ajout, la mise à jour et la suppression de ces documents.

SearchIndexClient

Classe pour effectuer des opérations pour gérer les index (créer, mettre à jour, liste/supprimer), & synonymes.

SearchIndexerClient

Classe pour effectuer des opérations pour gérer (créer, mettre à jour, liste/supprimer) des indexeurs, des sources de données & des ensembles de compétences.

SearchIndexingBufferedSender

Classe utilisée pour effectuer des opérations mises en mémoire tampon sur un index de recherche, notamment l’ajout, la mise à jour et la suppression de celles-ci.

Interfaces

AIServices

Paramètres pour les services d’IA.

AIServicesAccountIdentity

Le compte multi-régions d'une ressource de service IA Azure qui est attachée à un ensemble de compétences.

AIServicesAccountKey

La clé de compte d'une ressource de service IA Azure qui est associée à un ensemble de compétences, à utiliser avec le sous-domaine de la ressource.

AnalyzeRequest

Spécifie certains composants de texte et d’analyse utilisés pour décomposer ce texte en jetons.

AnalyzeResult

Résultat du test d’un analyseur sur du texte.

AnalyzedTokenInfo

Informations sur un jeton retourné par un analyseur.

AsciiFoldingTokenFilter

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

AutocompleteItem

Résultat des demandes de saisie semi-automatique.

AutocompleteRequest

Paramètres de correspondance approximative et autres comportements de requête de saisie semi-automatique.

AutocompleteResult

Résultat de la requête de saisie semi-automatique.

AzureActiveDirectoryApplicationCredentials

Informations d’identification d’une application inscrite créée pour votre service de recherche, utilisée pour l’accès authentifié aux clés de chiffrement stockées dans Azure Key Vault.

AzureBlobKnowledgeSource

Source de connaissances Configuration pour le stockage Blob Azure.

AzureBlobKnowledgeSourceParameters

Source de connaissances Paramètres pour le stockage Blob Azure.

AzureBlobKnowledgeSourceParams

Spécifie les paramètres d’exécution d’une source de connaissances d’objet blob azure

AzureMachineLearningVectorizer

Spécifie un point de terminaison Azure Machine Learning déployé via le catalogue Azure AI Foundry Model pour générer l’inclusion vectorielle d’une chaîne de requête.

AzureOpenAIEmbeddingSkill

Vous permet de générer un incorporation vectorielle pour une entrée de texte donnée à l’aide de la ressource Azure OpenAI.

AzureOpenAIParameters

Spécifie les paramètres de connexion à la ressource Azure OpenAI.

AzureOpenAIVectorizer

Contient les paramètres spécifiques à l’utilisation d’un service Azure Open AI pour la vectorisation au moment de la requête.

BM25Similarity

Fonction de classement basée sur l’algorithme de similarité OKapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de longueur (contrôlée par le paramètre « b ») ainsi que la saturation de fréquence de terme (contrôlée par le paramètre « k1 »).

BaseAzureMachineLearningVectorizerParameters

Spécifie les propriétés communes entre tous les types d’authentification de vectoriseur AML.

BaseCharFilter

Type de base pour les filtres de caractères.

BaseCognitiveServicesAccount

Type de base pour décrire toute ressource de service Azure AI attachée à un ensemble de compétences.

BaseDataChangeDetectionPolicy

Type de base pour les stratégies de détection des modifications de données.

BaseDataDeletionDetectionPolicy

Type de base pour les stratégies de détection de suppression de données.

BaseKnowledgeBaseActivityRecord

Type de base pour les enregistrements d’activité. Suit les détails d’exécution, le timing et les erreurs pour les opérations de la base de connaissances.

BaseKnowledgeBaseMessageContent

Spécifie le type de contenu du message.

BaseKnowledgeBaseModel

Spécifie les paramètres de connexion du modèle à utiliser pour la planification des requêtes.

BaseKnowledgeBaseReference

Type de base pour les références.

BaseKnowledgeRetrievalReasoningEffort

Type de base pour l’effort de raisonnement.

BaseKnowledgeSource

Représente une définition de source de connaissances.

BaseKnowledgeSourceParams

Type de base pour les paramètres d’exécution de la source de connaissances.

BaseKnowledgeSourceVectorizer

Spécifie la méthode de vectorisation à utiliser pour le modèle d’inclusion de source de connaissances.

BaseLexicalAnalyzer

Type de base pour les analyseurs.

BaseLexicalNormalizer

Type de base pour les normaliseurs.

BaseLexicalTokenizer

Type de base pour les tokenizers.

BaseScoringFunction

Type de base pour les fonctions qui peuvent modifier les scores de document pendant le classement.

BaseSearchIndexerDataIdentity

Type de base abstrait pour les identités de données.

BaseSearchIndexerSkill

Type de base pour les compétences.

BaseSearchRequestOptions

Paramètres de filtrage, de tri, de facette, de pagination et d’autres comportements de requête de recherche.

BaseSimilarityAlgorithm

Type de base pour les algorithmes de similarité. Les algorithmes de similarité sont utilisés pour calculer des scores qui lient des requêtes à des documents. Plus le score est élevé, plus le document est pertinent pour cette requête spécifique. Ces scores sont utilisés pour classer les résultats de la recherche.

BaseTokenFilter

Type de base pour les filtres de jetons.

BaseVectorQuery

Paramètres de requête pour les requêtes de recherche vectorielle et hybride.

BaseVectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme utilisé pendant l’indexation et/ou l’interrogation.

BaseVectorSearchCompression

Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation.

BaseVectorSearchVectorizer

Contient des détails spécifiques pour une méthode de vectorisation à utiliser pendant le temps de requête.

BinaryQuantizationCompression

Contient des options de configuration spécifiques à la méthode de compression de quantisation binaire utilisée lors de l’indexation et de l’interrogation.

ChatCompletionResponseFormat

Détermine comment la réponse du modèle de langage doit être sérialisée. La valeur par défaut est 'text'.

ChatCompletionResponseFormatJsonSchemaProperties

Propriétés pour le format de réponse de schéma JSON.

ChatCompletionSchema

Objet définissant le schéma personnalisé que le modèle utilisera pour structurer sa sortie.

ChatCompletionSkill

Une compétence qui appelle un modèle de langage via le point de terminaison Chat Completions d'Azure AI Foundry.

CjkBigramTokenFilter

Forme des bigrams de termes CJK générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

ClassicSimilarity

Algorithme de similarité hérité qui utilise l’implémentation lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation de longueur de document statique ainsi que les facteurs de coordination qui pénalisent les documents qui ne correspondent qu’en partie aux requêtes recherchées.

ClassicTokenizer

Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

CognitiveServicesAccountKey

Clé de compte multirégion d’une ressource de service IA Azure attachée à un ensemble de compétences.

CommonGramTokenFilter

Construisez des bigrams pour des termes fréquents lors de l’indexation. Les termes uniques sont toujours indexés, avec des bigrams superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

CommonModelParameters

Paramètres de modèle de langage commun pour les complétions de chat. En cas d’omission, les valeurs par défaut sont utilisées.

CompletedSynchronizationState

Représente l’état terminé de la dernière synchronisation.

ComplexField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

ConditionalSkill

Compétence qui permet aux scénarios nécessitant une opération booléenne pour déterminer les données à affecter à une sortie.

ContentUnderstandingSkill

Une compétence qui exploite Azure AI Content Understanding pour traiter et extraire des insights structurés des documents, permettant un contenu enrichi et consultable pour une indexation et une récupération de documents améliorées.

ContentUnderstandingSkillChunkingProperties

Contrôle la cardinalité de la segmentation du contenu.

CorsOptions

Définit les options permettant de contrôler le partage de ressources cross-origin (CORS) pour un index.

CreateKnowledgeBaseOptions
CreateKnowledgeSourceOptions
CreateOrUpdateAliasOptions

Options de création ou de mise à jour de l’opération d’alias.

CreateOrUpdateIndexOptions

Options pour l’opération de création/mise à jour de l’index.

CreateOrUpdateKnowledgeBaseOptions
CreateOrUpdateKnowledgeSourceOptions
CreateOrUpdateSkillsetOptions

Options d’opération de création/mise à jour de l’ensemble de compétences.

CreateOrUpdateSynonymMapOptions

Options pour l’opération create/update synonymmap.

CreateorUpdateDataSourceConnectionOptions

Options de création/mise à jour de l’opération de source de données.

CreateorUpdateIndexerOptions

Options pour l’opération de création/mise à jour de l’indexeur.

CustomAnalyzer

Vous permet de contrôler le processus de conversion de texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul tokenizer prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres pour modifier les jetons émis par le tokenizer.

CustomEntity

Objet qui contient des informations sur les correspondances trouvées et les métadonnées associées.

CustomEntityAlias

Objet complexe qui peut être utilisé pour spécifier d’autres orthographes ou synonymes au nom de l’entité racine.

CustomEntityLookupSkill

Une compétence recherche du texte à partir d’une liste personnalisée définie par l’utilisateur de mots et d’expressions.

CustomLexicalNormalizer

Vous permet de configurer la normalisation pour les champs filtrables, triables et facetables, qui fonctionnent par défaut avec une correspondance stricte. Il s’agit d’une configuration définie par l’utilisateur composée d’au moins un ou plusieurs filtres, qui modifient le jeton stocké.

DefaultCognitiveServicesAccount

Objet vide qui représente la ressource de service Azure AI par défaut pour un ensemble de compétences.

DeleteAliasOptions

Options pour l’opération de suppression d’alias.

DeleteDataSourceConnectionOptions

Options de suppression de l’opération de source de données.

DeleteIndexOptions

Options pour l’opération de suppression d’index.

DeleteIndexerOptions

Options pour l’opération de suppression d’indexeur.

DeleteKnowledgeBaseOptions
DeleteKnowledgeSourceOptions
DeleteSkillsetOptions

Options pour supprimer l’opération d’ensemble de compétences.

DeleteSynonymMapOptions

Options pour l’opération de suppression de synonymmap.

DictionaryDecompounderTokenFilter

Décompose les mots composés trouvés dans de nombreuses langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

DistanceScoringFunction

Définit une fonction qui améliore les scores en fonction de la distance d’un emplacement géographique.

DistanceScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de distance.

DocumentDebugInfo

Contient des informations de débogage qui peuvent être utilisées pour explorer davantage vos résultats de recherche.

DocumentExtractionSkill

Compétence qui extrait le contenu d’un fichier dans le pipeline d’enrichissement.

DocumentIntelligenceLayoutSkill

Compétence qui extrait le contenu et les informations de disposition (comme markdown), via Azure AI Services, à partir de fichiers au sein du pipeline d’enrichissement.

DocumentIntelligenceLayoutSkillChunkingProperties

Contrôle la cardinalité de la segmentation du contenu.

EdgeNGramTokenFilter

Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

EdgeNGramTokenizer

Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

ElisionTokenFilter

Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

EntityLinkingSkill

À l’aide de l’API Text Analytique, extrait les entités liées du texte.

EntityRecognitionSkill

Reconnaissance d’entité de texte analytique.

EntityRecognitionSkillV3

À l’aide de l’API Text Analytique, extrait les entités de différents types à partir du texte.

ExhaustiveKnnParameters

Contient les paramètres spécifiques à l’algorithme KNN exhaustif.

ExtractiveQueryAnswer

Extrait les candidats de réponse du contenu des documents retournés en réponse à une requête exprimée en tant que question en langage naturel.

ExtractiveQueryCaption

Extrait les légendes des documents correspondants qui contiennent des passages pertinents pour la requête de recherche.

FacetResult

Un seul compartiment d’un résultat de requête de facette. Signale le nombre de documents avec une valeur de champ comprise dans une plage particulière ou ayant une valeur ou un intervalle particulier.

FieldMapping

Définit un mappage entre un champ dans une source de données et un champ cible dans un index.

FieldMappingFunction

Représente une fonction qui transforme une valeur d’une source de données avant l’indexation.

FreshnessScoringFunction

Définit une fonction qui améliore les scores en fonction de la valeur d’un champ date-heure.

FreshnessScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’actualisation.

GenerativeQueryRewrites

Générez d’autres termes de requête pour augmenter le rappel d’une demande de recherche.

GetDocumentOptions

Options de récupération d’un document unique.

GetKnowledgeBaseOptions
GetKnowledgeSourceOptions
GetKnowledgeSourceStatusOptions
HighWaterMarkChangeDetectionPolicy

Définit une stratégie de détection des modifications de données qui capture les modifications en fonction de la valeur d’une colonne de marque d’eau élevée.

HnswParameters

Contient les paramètres spécifiques à l’algorithme hnsw.

ImageAnalysisSkill

Compétence qui analyse les fichiers image. Il extrait un ensemble complet de fonctionnalités visuelles basées sur le contenu de l’image.

IndexDocumentsClient

Indexer le client documents

IndexDocumentsOptions

Options pour l’opération de modification du lot d’index.

IndexDocumentsResult

Réponse contenant l’état des opérations pour tous les documents de la demande d’indexation.

IndexedOneLakeKnowledgeSource

Configuration de la source de connaissances OneLake.

IndexedOneLakeKnowledgeSourceParameters

Paramètres pour la source de connaissances OneLake.

IndexedOneLakeKnowledgeSourceParams

Spécifie les paramètres d’exécution d’une source de connaissances OneLake indexée

IndexerExecutionResult

Représente le résultat d’une exécution d’indexeur individuelle.

IndexingParameters

Représente des paramètres pour l’exécution de l’indexeur.

IndexingParametersConfiguration

Dictionnaire de propriétés de configuration spécifiques à l’indexeur. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif.

IndexingResult

État d’une opération d’indexation pour un document unique.

IndexingSchedule

Représente une planification pour l’exécution de l’indexeur.

InputFieldMappingEntry

Mappage de champs d’entrée pour une compétence.

KeepTokenFilter

Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste spécifiée de mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

KeyAuthAzureMachineLearningVectorizerParameters

Spécifie les propriétés de connexion à un vectoriseur AML avec une clé d’authentification.

KeyPhraseExtractionSkill

Compétence qui utilise du texte analytique pour l’extraction d’expressions clés.

KeywordMarkerTokenFilter

Marque les termes en tant que mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

KeywordTokenizer

Émet l’entrée entière sous forme de jeton unique. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

KnowledgeBase
KnowledgeBaseAgenticReasoningActivityRecord

Représente un enregistrement d’activité de raisonnement agentique.

KnowledgeBaseAzureBlobReference

Représente une référence de document de référence sur le stockage Blob Azure.

KnowledgeBaseAzureOpenAIModel

Spécifie la ressource Azure OpenAI utilisée pour la planification des requêtes.

KnowledgeBaseErrorAdditionalInfo

Informations supplémentaires sur l’erreur de gestion des ressources.

KnowledgeBaseErrorDetail

Détails de l’erreur.

KnowledgeBaseIndexedOneLakeReference

Représente une référence indexée de document OneLake.

KnowledgeBaseMessage

Objet de style de message en langage naturel.

KnowledgeBaseMessageImageContent

Type de message d’image.

KnowledgeBaseMessageImageContentImage

Contenu d’images.

KnowledgeBaseMessageTextContent

Type de SMS.

KnowledgeBaseModelWebSummarizationActivityRecord

Représente un enregistrement d’activité de synthèse web de LLM.

KnowledgeBaseRetrievalRequest

Contrat d’entrée pour la demande d’extraction.

KnowledgeBaseRetrievalResponse

Contrat de sortie pour la réponse d’extraction.

KnowledgeBaseSearchIndexReference

Représente une référence de document Recherche Azure.

KnowledgeBaseWebReference

Représente une référence de document Web.

KnowledgeRetrievalClientOptions

Options clientes utilisées pour configurer les demandes d’API Recherche cognitive.

KnowledgeRetrievalIntent

Une requête destinée à être exécutée sans planification de requête de modèle.

KnowledgeRetrievalMinimalReasoningEffort

Exécutez la récupération des connaissances avec un minimum d’effort de raisonnement.

KnowledgeRetrievalSemanticIntent

Une intention de requête sémantique.

KnowledgeSourceAzureOpenAIVectorizer

Spécifie la ressource Azure OpenAI utilisée pour vectoriser une chaîne de requête.

KnowledgeSourceIngestionParameters

Consolide tous les paramètres généraux d’ingestion des sources de connaissances.

KnowledgeSourceReference

Référence à une source de connaissances.

KnowledgeSourceStatistics

Informations statistiques sur l’historique de synchronisation des sources de connaissances.

KnowledgeSourceStatus

Représente l’état et l’historique de synchronisation d’une source de connaissances.

KnowledgeSourceSynchronizationError

Représente une erreur d’indexation au niveau du document rencontrée lors d’une exécution de synchronisation de source de connaissances.

LanguageDetectionSkill

Compétence qui détecte la langue du texte d’entrée et signale un code de langue unique pour chaque document soumis à la demande. Le code de langage est associé à un score indiquant la confiance de l’analyse.

LengthTokenFilter

Supprime les mots trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

LimitTokenFilter

Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

ListKnowledgeBasesOptions
ListKnowledgeSourcesOptions
ListSearchResultsPageSettings

Arguments pour récupérer la page suivante des résultats de recherche.

LuceneStandardAnalyzer

Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt.

LuceneStandardTokenizer

Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

MagnitudeScoringFunction

Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique.

MagnitudeScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de magnitude.

MappingCharFilter

Filtre de caractères qui applique les mappages définis avec l’option mappages. La correspondance est gourmande (la correspondance la plus longue à un point donné gagne). Le remplacement est autorisé à être la chaîne vide. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

MergeSkill

Compétence permettant de fusionner deux chaînes ou plus en une seule chaîne unifiée, avec un délimiteur facultatif défini par l’utilisateur séparant chaque composant.

MicrosoftLanguageStemmingTokenizer

Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leurs formulaires de base.

MicrosoftLanguageTokenizer

Divise le texte à l’aide de règles spécifiques à la langue.

NGramTokenFilter

Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

NGramTokenizer

Tokenise l’entrée en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

NativeBlobSoftDeleteDeletionDetectionPolicy

Définit une stratégie de détection de suppression de données utilisant la fonctionnalité de suppression réversible native du Stockage Blob Azure pour la détection de suppression.

NoAuthAzureMachineLearningVectorizerParameters

Spécifie les propriétés de connexion à un vectoriseur AML sans authentification.

OcrSkill

Compétence qui extrait du texte à partir de fichiers image.

OutputFieldMappingEntry

Mappage de champs de sortie pour une compétence.

PIIDetectionSkill

À l’aide de l’API Text Analytique, extrait des informations personnelles d’un texte d’entrée et vous donne la possibilité de la masquer.

PageSettings

Options de la méthode byPage

PagedAsyncIterableIterator

Interface qui permet une itération itérable asynchrone à la fois à l’achèvement et à la page.

PathHierarchyTokenizer

Tokenizer pour les hiérarchies similaires au chemin d’accès. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

PatternAnalyzer

Sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene.

PatternCaptureTokenFilter

Utilise des regex Java pour émettre plusieurs jetons : un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PatternReplaceCharFilter

Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

PatternReplaceTokenFilter

Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PatternTokenizer

Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

PhoneticTokenFilter

Créez des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

QueryAnswerResult

Une réponse est un passage de texte extrait du contenu des documents les plus pertinents correspondant à la requête. Les réponses sont extraites des résultats de recherche principaux. Les candidats à la réponse sont marqués et les premières réponses sont sélectionnées.

QueryCaptionResult

Les légendes sont les passages les plus représentatifs du document relativement à la requête de recherche. Ils sont souvent utilisés comme résumé de document. Les légendes sont retournées uniquement pour les requêtes de type semantic.

QueryResultDocumentSemanticField

Description des champs envoyés au processus d’enrichissement sémantique, ainsi que la façon dont ils ont été utilisés

QueryResultDocumentSubscores

Répartition des sous-scores entre les composants de requête de texte et de requête vectorielle de la requête de recherche pour ce document. Chaque requête vectorielle s’affiche sous la forme d’un objet distinct dans le même ordre qu’ils ont été reçus.

RescoringOptions

Contient les options de rescoring.

ResourceCounter

Représente l’utilisation et le quota d’une ressource.

RetrieveOptions
ScalarQuantizationCompression

Contient des options de configuration spécifiques à la méthode de compression de quantisation scalaire utilisée lors de l’indexation et de l’interrogation.

ScalarQuantizationParameters

Contient les paramètres spécifiques à la quantisation scalaire.

ScoringProfile

Définit des paramètres pour un index de recherche qui influencent le scoring dans les requêtes de recherche.

SearchAlias

Représente un alias d’index, qui décrit un mappage du nom de l’alias à un index. Le nom d’alias peut être utilisé à la place du nom d’index pour les opérations prises en charge.

SearchClientOptions

Options client utilisées pour configurer les demandes d’API AI Search.

SearchDocumentsPageResult

Réponse contenant les résultats de la page de recherche à partir d’un index.

SearchDocumentsResult

Réponse contenant des résultats de recherche à partir d’un index.

SearchDocumentsResultBase

Réponse contenant des résultats de recherche à partir d’un index.

SearchIndex

Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index.

SearchIndexClientOptions

Options client utilisées pour configurer les demandes d’API AI Search.

SearchIndexFieldReference

Référence de champ pour un index de recherche.

SearchIndexKnowledgeSource

Source de connaissances ciblant un index de recherche.

SearchIndexKnowledgeSourceParameters

Paramètres de la source de connaissances de l’index de recherche.

SearchIndexKnowledgeSourceParams

Spécifie les paramètres d’exécution d’une source de connaissances d’index de recherche

SearchIndexStatistics

Statistiques d’un index donné. Les statistiques sont collectées régulièrement et ne sont pas garanties d’être toujours up-to-date.

SearchIndexer

Représente un indexeur.

SearchIndexerClientOptions

Options client utilisées pour configurer les demandes d’API AI Search.

SearchIndexerDataContainer

Représente des informations sur l’entité (par exemple, la table Azure SQL ou la collection CosmosDB) qui sera indexée.

SearchIndexerDataNoneIdentity

Efface la propriété d’identité d’une source de données.

SearchIndexerDataSourceConnection

Représente une définition de source de données, qui peut être utilisée pour configurer un indexeur.

SearchIndexerDataUserAssignedIdentity

Spécifie l’identité d’une source de données à utiliser.

SearchIndexerError

Représente une erreur d’indexation au niveau de l’élément ou du document.

SearchIndexerIndexProjection

Définition de projections supplémentaires pour les index de recherche secondaire.

SearchIndexerIndexProjectionParameters

Dictionnaire des propriétés de configuration spécifiques à la projection d’index. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif.

SearchIndexerIndexProjectionSelector

Description des données à stocker dans l’index de recherche désigné.

SearchIndexerKnowledgeStore

Définition de projections supplémentaires sur des objets blob, une table ou des fichiers Azure, de données enrichies.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Classe abstraite pour partager des propriétés entre des sélecteurs concrets.

SearchIndexerKnowledgeStoreFileProjectionSelector

Définition de projection pour les données à stocker dans Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Définition de projection pour les données à stocker dans l’objet blob Azure.

SearchIndexerKnowledgeStoreParameters

Dictionnaire des propriétés de configuration spécifiques à la base de connaissances. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif.

SearchIndexerKnowledgeStoreProjection

Objet conteneur pour différents sélecteurs de projection.

SearchIndexerKnowledgeStoreProjectionSelector

Classe abstraite pour partager des propriétés entre des sélecteurs concrets.

SearchIndexerKnowledgeStoreTableProjectionSelector

Description des données à stocker dans les tables Azure.

SearchIndexerLimits

Représente les limites pouvant être appliquées à un indexeur.

SearchIndexerSkillset

Une liste de compétences.

SearchIndexerStatus

Représente l’état actuel et l’historique d’exécution d’un indexeur.

SearchIndexerWarning

Représente un avertissement au niveau de l’élément.

SearchIndexingBufferedSenderOptions

Options de SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos dans Recherche Azure AI, telles que des index et des mappages de synonymes.

SearchServiceStatistics

Réponse d’une demande de statistiques de service get. Si elle réussit, elle inclut des compteurs et des limites de niveau de service.

SemanticConfiguration

Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques.

SemanticDebugInfo

Options de débogage pour les requêtes de recherche sémantique.

SemanticField

Champ utilisé dans le cadre de la configuration sémantique.

SemanticPrioritizedFields

Décrit les champs de titre, de contenu et de mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses.

SemanticSearch

Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.

SemanticSearchOptions

Définit des options pour les requêtes de recherche sémantique

SentimentSkill

Le texte analytique analyse des sentiments négatifs positifs, marqué comme une valeur à virgule flottante dans une plage de zéro à 1.

SentimentSkillV3

À l’aide de l’API Text Analytique, évalue le texte non structuré et pour chaque enregistrement, fournit des étiquettes de sentiment (telles que « négative », « neutre » et « positive ») basées sur le score de confiance le plus élevé trouvé par le service au niveau de la phrase et du document.

ServiceCounters

Représente les compteurs de ressources et les quotas au niveau du service.

ServiceLimits

Représente différentes limites de niveau de service.

ShaperSkill

Une compétence pour remodeler les sorties. Il crée un type complexe pour prendre en charge les champs composites (également appelés champs à plusieurs parties).

ShingleTokenFilter

Crée des combinaisons de jetons en tant que jeton unique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

SimpleField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

SingleVectorFieldResult

Résultat d’un champ vectoriel unique. Les deux

SnowballTokenFilter

Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Définit une stratégie de détection de suppression de données qui implémente une stratégie de suppression réversible. Il détermine si un élément doit être supprimé en fonction de la valeur d’une colonne « suppression réversible » désignée.

SplitSkill

Compétence permettant de fractionner une chaîne en blocs de texte.

SqlIntegratedChangeTrackingPolicy

Définit une stratégie de détection des modifications de données qui capture les modifications à l’aide de la fonctionnalité Suivi des modifications intégré d’Azure SQL Database.

StemmerOverrideTokenFilter

Fournit la possibilité de remplacer d’autres filtres de recherche de recherche par recherche de données personnalisées basées sur des dictionnaires. Tous les termes liés aux dictionnaires seront marqués comme des mots clés afin qu’ils ne soient pas suivis de formes dérivées dans la chaîne. Doit être placé avant les filtres de recherche de recherche. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

Filtre de recherche de recherche spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StopAnalyzer

Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene.

StopwordsTokenFilter

Supprime les mots d’arrêt d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

SuggestDocumentsResult

Réponse contenant des résultats de requête de suggestion à partir d’un index.

SuggestRequest

Paramètres pour le filtrage, le tri, la correspondance approximative et d’autres comportements de requête de suggestions.

Suggester

Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index.

SynchronizationState

Représente l’état actuel d’une synchronisation en cours qui s’étend sur plusieurs exécutions d’indexeur.

SynonymMap

Représente une définition de carte de synonymes.

SynonymTokenFilter

Correspond aux synonymes à mot unique ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

TagScoringFunction

Définit une fonction qui améliore les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises.

TagScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’étiquette.

TextResult

Score BM25 ou Classique pour la partie texte de la requête.

TextTranslationSkill

Compétence pour traduire du texte d’une langue à une autre.

TextWeights

Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche.

TokenAuthAzureMachineLearningVectorizerParameters

Spécifie les propriétés de connexion à un vectoriseur AML avec une identité managée.

TruncateTokenFilter

Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

UaxUrlEmailTokenizer

Tokenise les URL et les e-mails sous la forme d’un seul jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

UniqueTokenFilter

Filtre les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

VectorSearch

Contient des options de configuration liées à la recherche vectorielle.

VectorSearchOptions

Définit des options pour les requêtes de recherche vectorielle

VectorSearchProfile

Définit une combinaison de configurations à utiliser avec la recherche vectorielle.

VectorizableImageBinaryQuery

Les paramètres de requête à utiliser pour la recherche vectorielle lorsqu’un binaire codé en base 64 d’une image devant être vectorisée est fourni.

VectorizableImageUrlQuery

Les paramètres de requête à utiliser pour la recherche vectorielle lorsqu’une URL qui représente une valeur d’image qui doit être vectorisée est fournie.

VectorizableTextQuery

Les paramètres de requête à utiliser pour la recherche vectorielle lorsqu’une valeur de texte devant être vectorisée est fournie.

VectorizedQuery

Paramètres de requête à utiliser pour la recherche vectorielle lorsqu’une valeur vectorielle brute est fournie.

VectorsDebugInfo

« Contient des informations de débogage spécifiques à la recherche vectorielle et hybride. »)

WebApiParameters

Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur.

WebApiSkill

Compétence qui peut appeler un point de terminaison d’API web, ce qui vous permet d’étendre un ensemble de compétences en le faisant appeler votre code personnalisé.

WebApiVectorizer

Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est obtenue à l’aide de l’interface d’API Web personnalisée d’un ensemble de compétences.

WebKnowledgeSource

Source de connaissances ciblant les résultats Web.

WebKnowledgeSourceDomain

Configuration pour le domaine source de connaissances web.

WebKnowledgeSourceDomains

Configuration d’autorisation/de blocage de domaine pour la source de connaissances Web.

WebKnowledgeSourceParameters

Paramètres de la source de connaissances Web.

WebKnowledgeSourceParams

Spécifie les paramètres d’exécution d’une source de connaissances Web

WordDelimiterTokenFilter

Fractionne les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Alias de type

AIFoundryModelCatalogName

Le nom du modèle d’embedding tiré du catalogue Azure AI Foundry qui sera appelé.
KnownAIFoundryModelCatalogName peut être utilisé de manière interchangeable avec AIFoundryModelCatalogName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 : OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32
OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336 : OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336
Facebook-DinoV2-Image-Embeddings-ViT-Base : Facebook-DinoV2-Image-Embeddings-ViT-Base
Facebook-DinoV2-Image-Embeddings-ViT-Giant : Facebook-DinoV2-Image-Embeddings-ViT-Giant
Cohere-embed-v3-english : Cohere-embed-v3-english
Cohere-embed-v3-multilingual : Cohere-embed-v3-multilingual
Cohere-embed-v4 : Modèle Cohere embed v4 pour générer des intégrations à partir de texte et d’images.

AliasIterator

Itérateur pour répertorier les alias qui existent dans le service de recherche. Cela effectue des requêtes selon les besoins pendant l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération.

AnalyzeTextOptions

Options d’analyse du texte.

AutocompleteMode

Spécifie le mode de saisie semi-automatique. La valeur par défaut est 'oneTerm'. Utilisez 'twoTerms' pour obtenir des bardeaux et 'oneTermWithContext' pour utiliser le contexte actuel dans la production de termes de saisie semi-automatique.

AutocompleteOptions

Options de récupération du texte de saisie semi-automatique pour un searchText partiel.

AzureMachineLearningVectorizerParameters

Spécifie les propriétés de connexion à un vectoriseur AML.

AzureOpenAIModelName

Nom du modèle Azure Open AI qui sera appelé.
KnownAzureOpenAIModelName peut être utilisé de manière interchangeable avec AzureOpenAIModelName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

text-embedding-ada-002 : modèle TextEmbeddingAda002.
text-embedding-3-large : TextEmbedding3Large modèle.
text-embedding-3-small : TextEmbedding3Small modèle.
gpt-5-mini : modèle Gpt5Mini.
gpt-5-nano : modèle Gpt5Nano.
gpt-5.4-mini : modèle gpt54Mini.
gpt-5.4-nano : modèle Gpt54Nano.

BaseKnowledgeRetrievalIntent

Alias pour KnowledgeRetrievalIntentUnion

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Contient les cas possibles pour CharFilter.

CharFilterName

Définit les noms de tous les filtres de caractères pris en charge par le moteur de recherche.
<xref:KnownCharFilterName> pouvez être utilisé de manière interchangeable avec CharFilterName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

html_strip: filtre de caractères qui tente de supprimer les constructions HTML. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

ChatCompletionExtraParametersBehavior

Précise comment « extraParamètres » doit être géré par Azure AI Foundry. La valeur par défaut est 'error'.
KnownChatCompletionExtraParametersBehavior peut être utilisé de manière interchangeable avec ChatCompletionExtraParametersBehavior, cette énumération contient les valeurs connues prises en charge par le service.

Valeurs connues prises en charge par le service

passThrough : transmet tous les paramètres supplémentaires directement au modèle.
drop : Supprime tous les paramètres supplémentaires.
error : Lève une erreur si un paramètre supplémentaire est présent.

ChatCompletionResponseFormatType

Spécifie comment le LLM doit formater la réponse.
KnownChatCompletionResponseFormatType peut être utilisé de manière interchangeable avec ChatCompletionResponseFormatType, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

texte : Format de réponse en texte clair.
jsonObject : Format arbitraire de réponse objet JSON.
jsonSchema : Format de réponse JSON qui adhère au schéma.

CjkBigramTokenFilterScripts

Scripts qui peuvent être ignorés par CjkBigramTokenFilter.

CognitiveServicesAccount

Contient les cas possibles pour CognitiveServicesAccount.

ComplexDataType

Définit des valeurs pour ComplexDataType. Les valeurs possibles sont les suivantes : « Edm.ComplexType », « Collection(Edm.ComplexType) »

ContentUnderstandingSkillChunkingUnit

Contrôle la cardinalité de l’unité de segmentation. Par défaut, c’est « personnages »
KnownContentUnderstandingSkillChunkingUnit peut être utilisé de manière interchangeable avec ContentSkillChunkingUnit ; cet enum contient les valeurs connues que le service supporte.

Valeurs connues prises en charge par le service

characters : spécifie bloc par caractère.

ContentUnderstandingSkillExtractionOptions

Contrôle la cardinalité du contenu extrait du document par la compétence.
KnownContentUnderstandingSkillExtractionOptions peut être utilisé de manière interchangeable avec ContentUnderstandingSkillExtractionOptions, ce terme contient les valeurs connues prises en charge par le service.

Valeurs connues prises en charge par le service

images : spécifiez que le contenu de l’image doit être extrait du document.
locationMetadata : spécifiez que les métadonnées de localisation doivent être extraites du document.

ContinuablePage

Interface qui décrit une page de résultats.

CountDocumentsOptions

Options d’exécution de l’opération de comptage sur l’index.

CreateAliasOptions

Options de création d’une opération d’alias.

CreateDataSourceConnectionOptions

Options de création d’une opération de source de données.

CreateIndexOptions

Options de création d’une opération d’index.

CreateIndexerOptions

Options de création d’une opération d’indexeur.

CreateSkillsetOptions

Options de création d’une opération d’ensemble de compétences.

CreateSynonymMapOptions

Options de création d’une opération de synonymmap.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Contient les cas possibles pour DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contient les cas possibles pour DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Options pour l’opération de suppression de documents.

DocumentIntelligenceLayoutSkillChunkingUnit

Contrôle la cardinalité de l’unité de segmentation. Par défaut, c’est « personnages »
KnownDocumentIntelligenceLayoutSkillChunkingUnit peut être utilisé de manière interchangeable avec DocumentIntelligenceLayoutSkillChunkingUnit, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

characters : spécifie bloc par caractère.

DocumentIntelligenceLayoutSkillExtractionOptions

Contrôle la cardinalité du contenu extrait du document par la compétence.
KnownDocumentIntelligenceLayoutSkillExtractionOptions peut être utilisé de manière interchangeable avec DocumentIntelligenceLayoutSkillExtractionOptions, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

images : spécifiez que le contenu de l’image doit être extrait du document.
locationMetadata : spécifiez que les métadonnées de localisation doivent être extraites du document.

DocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Profondeur des en-têtes dans la sortie markdown. La valeur par défaut est h6.
KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth peut être utilisé de manière interchangeable avec DocumentIntelligenceLayoutSkillMarkdownHeaderDepth, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

h1 : niveau d’en-tête 1.
h2 : niveau d’en-tête 2.
h3 : niveau d’en-tête 3.
h4 : niveau d’en-tête 4.
h5 : niveau d’en-tête 5.
h6 : niveau d’en-tête 6.

DocumentIntelligenceLayoutSkillOutputFormat

Contrôle la cardinalité du format de sortie. La valeur par défaut est 'markdown'.
KnownDocumentIntelligenceLayoutSkillOutputFormat peut être utilisé de manière interchangeable avec DocumentIntelligenceLayoutSkillOutputFormat, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

text : spécifiez le format de la sortie sous forme de texte.
markdown : spécifiez le format de la sortie en tant que markdown.

DocumentIntelligenceLayoutSkillOutputMode

Contrôle la cardinalité de la sortie produite par la compétence. La valeur par défaut est « oneToMany ».
KnownDocumentIntelligenceLayoutSkillOutputMode peut être utilisé de manière interchangeable avec DocumentIntelligenceLayoutSkillOutputMode, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

oneToMany : spécifiez que la sortie doit être analysée comme « oneToMany ».

EdgeNGramTokenFilterSide

Spécifie de quel côté de l’entrée un n-gramme doit être généré.

EntityCategory

Chaîne indiquant les catégories d’entités à renvoyer.
KnownEntityCategory peut être utilisé de manière interchangeable avec EntityCategory, cet enum contient les valeurs connues que le service supporte.

Valeurs connues prises en charge par le service

emplacement : Entités décrivant un lieu physique.
organisation : Entités décrivant une organisation.
personne : Entités décrivant une personne.
grandeur : Entités décrivant une quantité.
date et heure : Entités décrivant une date et une heure.
url : Entités décrivant une URL.
email : Entités décrivant une adresse e-mail.

EntityRecognitionSkillLanguage

Codes de langue pris en charge pour le texte d’entrée par EntityRecognitionSkill.
KnownEntityRecognitionSkillLanguage peut être utilisé de manière interchangeable avec EntityRecognitionSkillLanguage, cet enum contenant les valeurs connues que le service supporte.

Valeurs connues prises en charge par le service

ar : arabe
cs : tchèque
zh-Hans : Chinese-Simplified
zh-Hant : Chinese-Traditional
da : Danois
nl : néerlandais
en : anglais
fi : finnois
fr : français
de : allemand
el : grec
hu : hongrois
it : italien
ja : japonais
ko : Coréen
non : Norvégien (Bokmaal)
pl : polonais
pt-PT: Portugais (Portugal)
pt-BR: Portugais (Brésil)
ru : russe
es : espagnol
sv : suédois
tr : turc

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche par force brute sur l’index vectoriel entier.

ExtractDocumentKey
GetAliasOptions

Options pour l’opération d’obtention d’alias.

GetDataSourceConnectionOptions

Options d’obtention de l’opération de source de données.

GetIndexOptions

Options d’obtention de l’opération d’index.

GetIndexStatisticsOptions

Options d’obtention de l’opération de statistiques d’index.

GetIndexerOptions

Options pour l’opération get indexer.

GetIndexerStatusOptions

Options pour obtenir l’opération d’état de l’indexeur.

GetServiceStatisticsOptions

Options d’obtention de l’opération de statistiques de service.

GetSkillSetOptions

Options d’obtention d’une opération d’ensemble de compétences.

GetSynonymMapsOptions

Options pour l’opération get synonymmaps.

HnswAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme de voisin le plus proche approximativement utilisé pendant l’indexation.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Opération à effectuer sur un document d’un lot d’indexation.

IndexDocumentsAction

Représente une action d’index qui fonctionne sur un document.

IndexIterator

Itérateur pour répertorier les index qui existent dans le service de recherche. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération.

IndexNameIterator

Itérateur pour répertorier les index qui existent dans le service de recherche. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération.

IndexProjectionMode

Définit le comportement des projections d’index par rapport au reste de l’indexeur.
KnownIndexProjectionMode peut être utilisé de manière interchangeable avec IndexProjectionMode, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

skipIndexingParentDocuments: le document source est ignoré de l’écriture dans l’index cible de l’indexeur.
includeIndexingParentDocuments: le document source est écrit dans l’index cible de l’indexeur. Il s’agit du modèle par défaut.

IndexerExecutionEnvironment
IndexerExecutionStatus

Représente l’état de l’exécution d’un indexeur individuel.

IndexerResyncOption

Options avec différents types de données d’autorisation à indexer.
KnownIndexerResyncOption peut être utilisé de manière interchangeable avec IndexerResyncOption, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

permissions : l’indexeur permet de réingérer les données d’autorisations présélectionnées de la source de données vers l’index.

IndexerStatus

Représente l’état global de l’indexeur.

KeyPhraseExtractionSkillLanguage
KnowledgeBaseActivityRecord

Alias pour KnowledgeBaseActivityRecordUnion

KnowledgeBaseActivityRecordType

Le type de dossier d’activité.
<xref:KnownKnowledgeBaseActivityRecordType> peut être utilisé de manière interchangeable avec KnowledgeBaseActivityRecordType ; cet enum contient les valeurs connues prises en charge par le service.

Valeurs connues prises en charge par le service

searchIndex : activité de recherche d’index.
azureBlob : Azure activité de récupération de blob.
indexedOneLake : Activité de récupération indexée OneLake.
web : activité de recherche web.
modelWebSummarization : activité de résumé web de LLM.
Raisonnement agentique : Activité de raisonnement agentique.

KnowledgeBaseIterator

Un itérateur pour lister les bases de connaissances existant dans le service de recherche. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération.

KnowledgeBaseMessageContent

Alias pour KnowledgeBaseMessageContentUnion

KnowledgeBaseMessageContentType

Le type de contenu du message.
<xref:KnownKnowledgeBaseMessageContentType> peut être utilisé de manière interchangeable avec KnowledgeBaseMessageContentType, cet enum contient les valeurs connues prises en charge par le service.

Valeurs connues prises en charge par le service

texte : Contenu par SMS.
image : Contenu du message image type.

KnowledgeBaseModel
KnowledgeBaseModelKind

Le modèle d’IA à utiliser pour la planification des requêtes.
KnownKnowledgeBaseModelKind peut être utilisé de manière interchangeable avec KnowledgeBaseModelKind, cet enum contient les valeurs connues que le service supporte.

Valeurs connues prises en charge par le service

azureOpenAI : Utilisez Azure modèles d’IA Open pour la planification des requêtes.

KnowledgeBaseReference

Alias pour KnowledgeBaseReferenceUnion

KnowledgeBaseReferenceType

Type de référence.
<xref:KnownKnowledgeBaseReferenceType> peut être utilisé de manière interchangeable avec KnowledgeBaseReferenceType, cet enum contient les valeurs connues que le service supporte.

Valeurs connues prises en charge par le service

searchIndex : Recherche index référence documentaire.
azureBlob : Azure référence au document Blob.
indexedOneLake : Référence indexée du document OneLake.
web : Référence de document web.

KnowledgeRetrievalIntentType

Le type de configuration de la base de connaissances à utiliser.
<xref:KnownKnowledgeRetrievalIntentType> peut être utilisé de manière interchangeable avec KnowledgeRetrievalIntentType, cet enum contient les valeurs connues prises en charge par le service.

Valeurs connues prises en charge par le service

sémantique : une intention de requête sémantique en langage naturel.

KnowledgeRetrievalReasoningEffortKind

La quantité d’effort à fournir lors de la récupération.
<xref:KnownKnowledgeRetrievalReasoningEffortKind> peut être utilisé de manière interchangeable avec KnowledgeRetrievalReasoningEffortKind, cet enum contient les valeurs connues que le service supporte.

Valeurs connues prises en charge par le service

minimal : N’effectue aucune sélection de source, ni planification de requêtes, ni recherche itérative.

KnowledgeRetrievalReasoningEffortUnion

Alias pour RechercheRaisonnementEffortUnion

KnowledgeSource
KnowledgeSourceContentExtractionMode

Mode d’extraction de contenu en option. La valeur par défaut est « minimal ».
<xref:KnownKnowledgeSourceContentExtractionMode> peut être utilisé de manière interchangeable avec KnowledgeSourceContentExtractionMode, cet enum contient les valeurs connues prises en charge par le service.

Valeurs connues prises en charge par le service

minimal : Extrait uniquement les métadonnées essentielles tout en différant la plupart du traitement du contenu.
standard : Effectue la pipeline complète d’extraction de contenu par défaut.

KnowledgeSourceIterator

Un itérateur pour lister les sources de connaissances existantes dans le service de recherche. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération.

KnowledgeSourceKind

Le type de source de connaissance.
KnownKnowledgeSourceKind peut être utilisé de manière interchangeable avec KnowledgeSourceKind, cette énumération contient les valeurs connues prises en charge par le service.

Valeurs connues prises en charge par le service

searchIndex : source de connaissances qui lit les données d’un index de recherche.
azureBlob : source de connaissances qui lit et ingère des données de Stockage Blob Azure dans un index de recherche.
indexedOneLake : Une source de connaissances qui lit les données provenant de OneLake indexé.
Web : Une source de connaissances qui lit les données du web.

KnowledgeSourceParams

Alias pour KnowledgeSourceParamsUnion

KnowledgeSourceSynchronizationStatus

État actuel de la synchronisation de la source de connaissances.
<xref:KnownKnowledgeSourceSynchronizationStatus> peut être utilisé de manière interchangeable avec KnowledgeSourceSynchronizationStatus, cet enum contient les valeurs connues que le service supporte.

Valeurs connues prises en charge par le service

création : La source de connaissances est en cours de provision.
active : La source de connaissances est active et des sessions de synchronisation sont en cours.
suppression : La source de connaissances est supprimée et la synchronisation est mise en pause.

KnowledgeSourceVectorizer
LexicalAnalyzer

Contient les cas possibles pour Analyzer.

LexicalAnalyzerName

Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche.
KnownLexicalAnalyzerName peut être utilisé de manière interchangeable avec LexicalAnalyzerName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

ar.microsoft: Analyseur Microsoft pour l’arabe.
ar.lucene: analyseur Lucene pour l’arabe.
hy.lucene: analyseur Lucene pour arménien.
bn.microsoft: Analyseur Microsoft pour Bangla.
eu.lucene: analyseur Lucene pour basque.
bg.microsoft: Analyseur Microsoft pour bulgare.
bg.lucene: analyseur Lucene pour bulgare.
ca.microsoft: Analyseur Microsoft pour catalan.
ca.lucene: analyseur Lucene pour catalan.
zh-Hans.microsoft: Analyseur Microsoft pour chinois (simplifié).
zh-Hans.lucene: analyseur Lucene pour chinois (simplifié).
zh-Hant.microsoft: Analyseur Microsoft pour chinois (traditionnel).
zh-Hant.lucene: analyseur Lucene pour chinois (traditionnel).
hr.microsoft: Analyseur Microsoft pour croate.
cs.microsoft: Analyseur Microsoft pour tchèque.
cs.lucene: analyseur Lucene pour tchèque.
da.microsoft: Analyseur Microsoft pour danois.
da.lucene: analyseur Lucene pour danois.
nl.microsoft: Analyseur Microsoft pour néerlandais.
nl.lucene: analyseur Lucene pour néerlandais.
en.microsoft: Analyseur Microsoft pour l’anglais.
en.lucene: analyseur Lucene pour l’anglais.
et.microsoft: Analyseur Microsoft pour estonien.
fi.microsoft: Analyseur Microsoft pour finnois.
fi.lucene: analyseur Lucene pour le finnois.
fr.microsoft: Analyseur Microsoft pour le français.
fr.lucene: analyseur Lucene pour français.
gl.lucene: analyseur Lucene pour Galicien.
de.microsoft: Analyseur Microsoft pour l’allemand.
de.lucene: analyseur Lucene pour l’allemand.
el.microsoft: Analyseur Microsoft pour grec.
el.lucene: analyseur Lucene pour grec.
gu.microsoft: Analyseur Microsoft pour Gujarati.
he.microsoft: Analyseur Microsoft pour hébreu.
hi.microsoft: Analyseur Microsoft pour hindi.
hi.lucene: analyseur Lucene pour hindi.
hu.microsoft: Analyseur Microsoft pour hongrois.
hu.lucene: analyseur Lucene pour hongrois.
is.microsoft: Analyseur Microsoft pour l’Islande.
id.microsoft: Analyseur Microsoft pour indonésien (Bahasa).
id.lucene: analyseur Lucene pour indonésien.
ga.lucene: analyseur Lucene pour irlandais.
it.microsoft: Analyseur Microsoft pour italien.
it.lucene: analyseur Lucene pour italien.
ja.microsoft: Analyseur Microsoft pour japonais.
ja.lucene: analyseur Lucene pour japonais.
kn.microsoft: Analyseur Microsoft pour Kannada.
ko.microsoft: Analyseur Microsoft pour coréen.
ko.lucene: analyseur Lucene pour coréen.
lv.microsoft: Analyseur Microsoft pour letton.
lv.lucene: analyseur Lucene pour letton.
lt.microsoft: Analyseur Microsoft pour lituanien.
ml.microsoft: Analyseur Microsoft pour Malayalam.
ms.microsoft: Analyseur Microsoft pour Malay (latin).
mr.microsoft: Analyseur Microsoft pour Marathi.
nb. microsoft : Analyseur Microsoft pour le norvégien (Bokmål).
no.lucene: analyseur Lucene pour norvégien.
fa.lucene: analyseur Lucene pour persane.
pl.microsoft: Analyseur Microsoft pour polonais.
pl.lucene: analyseur Lucene pour polonais.
pt-BR.microsoft: Analyseur Microsoft pour portugais (Brésil).
pt-BR.lucene: analyseur Lucene pour portugais (Brésil).
pt-PT.microsoft: Analyseur Microsoft pour portugais (Portugal).
pt-PT.lucene: analyseur Lucene pour portugais (Portugal).
pa.microsoft: Analyseur Microsoft pour Punjabi.
ro.microsoft: Analyseur Microsoft pour roumain.
ro.lucene: analyseur Lucene pour roumain.
ru.microsoft: Analyseur Microsoft pour russe.
ru.lucene: analyseur Lucene pour russe.
sr-cyrillic.microsoft: Analyseur Microsoft pour serbe (cyrillique).
sr-latin.microsoft: Analyseur Microsoft pour serbe (latin).
sk.microsoft: Analyseur Microsoft pour slovaque.
sl.microsoft: Analyseur Microsoft pour le Slovène.
es.microsoft: Analyseur Microsoft pour l’espagnol.
es.lucene: analyseur Lucene pour l’espagnol.
sv.microsoft: Analyseur Microsoft pour suédois.
sv.lucene: analyseur Lucene pour suédois.
ta.microsoft: Analyseur Microsoft pour tamoul.
te.microsoft: Analyseur Microsoft pour Telugu.
th.microsoft: Analyseur Microsoft pour thaï.
th.lucene: analyseur Lucene pour thaï.
tr.microsoft: Analyseur Microsoft pour turc.
tr.lucene: analyseur Lucene pour turc.
uk.microsoft: Analyseur Microsoft pour ukrainien.
votre.microsoft: Analyseur Microsoft pour Urdu.
vi.microsoft: Analyseur Microsoft pour le Vietnamien.
standard.lucene: analyseur Lucene standard.
standardasciifolding.lucene: analyseur Lucene pliable ASCII standard. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
mot clé: traite tout le contenu d’un champ comme un seul jeton. Cela est utile pour les données telles que les codes postal, les ID et certains noms de produits. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
modèle: sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
simple: divise le texte en lettres non lettres et les convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
arrêter: divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
espace blanc: analyseur qui utilise le générateur de jetons d’espace blanc. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizer

Contient les cas possibles pour LexicalNormalizer.

LexicalNormalizerName

Définit les noms de tous les normaliseurs de texte pris en charge par le moteur de recherche.
KnownLexicalNormalizerName peut être utilisé de manière interchangeable avec LexicalNormalizerName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

asciifolding: convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, le cas échéant. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
élision: supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
minuscules : normalise le texte du jeton en minuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
Standard : normaliseur standard, qui se compose de minuscules et d’un repliage ascii. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
majuscules : normalise le texte du jeton en majuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizer

Contient les cas possibles pour Tokenizer.

LexicalTokenizerName

Définit les noms de tous les tokenizers pris en charge par le moteur de recherche.
<xref:KnownLexicalTokenizerName> pouvez être utilisé de manière interchangeable avec LexicalTokenizerName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

classique : tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: émet l’entrée entière sous forme de jeton unique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
lettre: divise le texte en lettres non lettres. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
minuscules: divise le texte en lettres non lettres et les convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: divise le texte à l’aide de règles spécifiques à la langue.
microsoft_language_stemming_tokenizer: divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leurs formulaires de base.
nGram: tokenise l’entrée en n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer pour les hiérarchies similaires au chemin d’accès. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
modèle: Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: analyseur Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokenizes url et e-mails sous la forme d’un seul jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
espace blanc: divise le texte à l’espace blanc. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListAliasesOptions

Options pour l’opération d’alias de liste.

ListDataSourceConnectionsOptions

Options d’une opération de sources de données de liste.

ListIndexersOptions

Options d’une opération d’indexeurs de liste.

ListIndexesOptions

Options d’une opération d’index de liste.

ListSkillsetsOptions

Options d’une opération d’ensembles de compétences de liste.

ListSynonymMapsOptions

Options d’une opération synonymMaps de liste.

MarkdownHeaderDepth

Spécifie la profondeur d’en-tête maximale qui sera prise en compte lors du regroupement du contenu Markdown. La valeur par défaut est h6.
KnownMarkdownHeaderDepth peut être utilisé de manière interchangeable avec MarkdownHeaderDepth, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

h1 : Indique que les en-têtes jusqu’à un niveau de h1 seront pris en compte lors du regroupement du contenu Markdown.
h2 : Indique que les en-têtes jusqu’à un niveau de h2 seront pris en compte lors du regroupement du contenu Markdown.
h3 : Indique que les en-têtes jusqu’à un niveau de h3 seront pris en compte lors du regroupement du contenu Markdown.
h4 : Indique que les en-têtes jusqu’à un niveau de h4 seront pris en compte lors du regroupement du contenu Markdown.
h5 : Indique que les en-têtes jusqu’à un niveau de h5 seront pris en compte lors du regroupement du contenu Markdown.
h6 : Indique que les en-têtes jusqu’à un niveau de h6 seront pris en compte lors du regroupement du contenu Markdown. Il s’agit de la valeur par défaut.

MarkdownParsingSubmode

Spécifie le sous-mode qui déterminera si un fichier Markdown sera analysé en un seul document de recherche ou en plusieurs documents de recherche. La valeur par défaut est oneToMany.
KnownMarkdownParsingSubmode peut être utilisé de manière interchangeable avec MarkdownParsingSubmode, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

oneToMany : indique que chaque section du fichier Markdown (jusqu’à une profondeur spécifiée) sera analysée en documents de recherche individuels. Cela peut entraîner un fichier Markdown unique produisant plusieurs documents de recherche. Il s’agit du sous-mode par défaut.
oneToOne : Indique que chaque fichier markdown sera analysé en un seul document de recherche.

MergeDocumentsOptions

Options pour l’opération de fusion de documents.

MergeOrUploadDocumentsOptions

Options pour l’opération de fusion ou de chargement de documents.

MicrosoftStemmingTokenizerLanguage

Liste les langages pris en charge par le tokenizer stemming du langage Microsoft.

MicrosoftTokenizerLanguage

Liste les langages pris en charge par le tokenizer de langage Microsoft.

NarrowedModel

Réduit le type de modèle pour inclure uniquement les champs sélectionnés

OcrLineEnding

Définit la séquence de caractères à utiliser entre les lignes de texte reconnues par la compétence OCR. La valeur par défaut est « espace ».
KnownOcrLineEnding peut être utilisé de manière interchangeable avec OcrLineEnding, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

'espace: les lignes sont séparées par un seul espace.
chariotReturn: les lignes sont séparées par un caractère de retour chariot ('\r').
lineFeed: les lignes sont séparées par un seul caractère de flux de ligne ('\n').
chariotReturnLineFeed: les lignes sont séparées par un retour chariot et un caractère de saut de ligne ('\r\n').

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Identifie le type d’encodeur phonétique à utiliser avec un PhoneticTokenFilter.

QueryAnswer

Valeur qui spécifie si les réponses doivent être retournées dans le cadre de la réponse de recherche. Ce paramètre n’est valide que si le type de requête est « sémantique ». Si elle est définie sur extractive, la requête retourne des réponses extraites des passages clés dans les documents les plus classés.

QueryCaption

Valeur qui spécifie si les légendes doivent être retournées dans le cadre de la réponse de recherche. Ce paramètre n’est valide que si le type de requête est « sémantique ». Si elle est définie, la requête retourne des légendes extraites des passages clés dans les documents classés les plus élevés. Lorsque les légendes sont « extractibles », la mise en surbrillance est activée par défaut. La valeur par défaut est « none ».

QueryDebugMode

Active un outil de débogage qui peut être utilisé pour explorer davantage vos résultats de recherche. Vous pouvez activer plusieurs modes de débogage simultanément en les séparant par un | caractère, par exemple : semantic|queryRewrites.
KnownQueryDebugMode peut être utilisé de manière interchangeable avec QueryDebugMode, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

disabled : aucune information de débogage de requête n’est renvoyée.
sémantique : permet à l’utilisateur d’explorer davantage ses résultats reclassés.
vecteur : permet à l’utilisateur d’explorer davantage les résultats de ses requêtes hybrides et vectorielles.
queryRewrites : permet à l’utilisateur d’explorer la liste des réécritures de requête générées pour sa demande de recherche.
innerHits : Permet à l’utilisateur de récupérer des informations de score concernant les vecteurs correspondants au sein d’une collection de types complexes.
all : activez toutes les options de débogage.

QueryRewrites

Définit les options de réécriture des requêtes.

QueryType

Spécifie la syntaxe de la requête de recherche. La valeur par défaut est « simple ». Utilisez 'full' si votre requête utilise la syntaxe de requête Lucene et 'semantic' si la syntaxe de requête n’est pas nécessaire.
<xref:KnownQueryType> peut être utilisé de manière interchangeable avec QueryType, cet enum contient les valeurs connues que le service supporte.

Valeurs connues prises en charge par le service

simple : Utilise la syntaxe simple de requête pour les recherches. Le texte de recherche est interprété à l’aide d’un langage de requête simple qui autorise l’utilisation de symboles tels que +, * et «  ». Par défaut, les requêtes sont évaluées dans tous les champs pouvant faire l’objet d’une recherche, sauf si le paramètre searchFields est spécifié.
full : Utilise la syntaxe complète des requêtes Lucene pour les recherches. Le texte de recherche est interprété à l’aide du langage de requête Lucene qui permet des recherches spécifiques aux champs et pondérées, ainsi que d’autres fonctionnalités avancées.
Sémantique : Mieux adapté aux requêtes exprimées en langage naturel plutôt qu’aux mots-clés. Améliore la précision des résultats de recherche en reclassant les premiers résultats de recherche à l’aide d’un modèle de classement entraîné sur le corpus Web.

RankingOrder

Représente le score à utiliser pour l’ordre de tri des documents.
KnownRankingOrder peut être utilisé de manière interchangeable avec RankingOrder, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

BoostedRerankerScore : définit l’ordre de tri comme BoostedRerankerScore
RerankerScore : définit l’ordre de tri en tant que ReRankerScore

RegexFlags
ResetIndexerOptions

Options pour l’opération de réinitialisation de l’indexeur.

RunIndexerOptions

Options pour l’opération d’indexeur d’exécution.

ScoringFunction

Contient les cas possibles pour ScoringFunction.

ScoringFunctionAggregation

Définit la fonction d’agrégation utilisée pour combiner les résultats de toutes les fonctions de scoring dans un profil de score.

ScoringFunctionInterpolation

Définit la fonction utilisée pour interpoler l’augmentation du score dans une plage de documents.

ScoringStatistics

Valeur qui spécifie si nous voulons calculer des statistiques de scoring (telles que la fréquence du document) globalement pour un scoring plus cohérent, ou localement, pour une latence inférieure. La valeur par défaut est 'local'. Utilisez « global » pour agréger les statistiques de score globales avant de marquer. L’utilisation de statistiques de score globales peut augmenter la latence des requêtes de recherche.

SearchField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

SearchFieldArray

Si TModel est un objet non typé, un tableau de chaînes non typé sinon, les champs délimités par des barres obliques de TModel.

SearchFieldDataType

Définit des valeurs pour SearchFieldDataType.

Valeurs connues prises en charge par le service :

Edm.String : indique qu’un champ contient une chaîne.

Edm.Int32: indique qu’un champ contient un entier signé 32 bits.

Edm.Int64: indique qu’un champ contient un entier signé 64 bits.

Edm.Double: indique qu’un champ contient un nombre à virgule flottante à double précision IEEE.

Edm.Boolean: indique qu’un champ contient une valeur booléenne (true ou false).

Edm.DateTimeOffset: indique qu’un champ contient une valeur de date/heure, y compris les informations de fuseau horaire.

Edm.GeographyPoint: indique qu’un champ contient un emplacement géographique en termes de longitude et de latitude.

Edm.ComplexType: indique qu’un champ contient un ou plusieurs objets complexes qui, à son tour, ont des sous-champs d’autres types.

Edm.Single: indique qu’un champ contient un nombre à virgule flottante simple précision. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Single).

Edm.Half: indique qu’un champ contient un nombre à virgule flottante demi précision. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Half).

Edm.Int16: indique qu’un champ contient un entier signé 16 bits. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Int16).

Edm.SByte: indique qu’un champ contient un entier signé 8 bits. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.SByte).

Edm.Byte: indique qu’un champ contient un entier non signé 8 bits. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Byte).

SearchIndexAlias

Objet Alias de recherche.

SearchIndexerDataIdentity

Contient les cas possibles pour SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Contient les cas possibles pour Compétence.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Options pour SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Options pour SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Options pour SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Options pour SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Options pour SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Itérateur pour les résultats de recherche d’une requête paticulaire. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération.

SearchMode

Spécifie si l’un ou l’ensemble des termes de recherche doivent être mis en correspondance pour que le document soit considéré comme une correspondance.

SearchOptions

Options de validation d’une demande de recherche complète.

SearchPick

Identifiez en profondeur les champs de T à l’aide des chemins d’accès $select OData AI Search valides.

SearchRequestOptions

Paramètres de filtrage, de tri, de facette, de pagination et d’autres comportements de requête de recherche.

SearchRequestQueryTypeOptions
SearchResult

Contient un document trouvé par une requête de recherche, ainsi que les métadonnées associées.

SelectFields

Produit une union de chemins OData $select AI Search valides pour T à l’aide d’une traversée post-ordre de l’arbre de champs enraciné à T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType

Type de réponse partielle renvoyée pour une demande de classement sémantique.
KnownSemanticSearchResultsType peut être utilisé de manière interchangeable avec SemanticSearchResultsType, cet enum contenant les valeurs connues prises en charge par le service.

Valeurs connues prises en charge par le service

baseResults : Résultats sans enrichissement sémantique ni reclassement.
rerankedResults : Les résultats ont été reclassés avec le modèle reclasseur et incluront des légendes sémantiques. Ils n’incluront aucune réponse, les mises en surbrillance des réponses ou les surbrillances de légende.

SentimentSkillLanguage

Les codes de langue pris en charge pour le texte d’entrée par SentimentSkill.
KnownSentimentSkillLanguage peut être utilisé de manière interchangeable avec SentimentSkillLanguage, ce groupe contient les valeurs connues que le service supporte.

Valeurs connues prises en charge par le service

da : Danois
nl : néerlandais
en : anglais
fi : finnois
fr : français
de : allemand
el : grec
it : italien
non : Norvégien (Bokmaal)
pl : polonais
pt-PT: Portugais (Portugal)
ru : russe
es : espagnol
sv : suédois
tr : turc

Similarity

Alias pour SimilarityAlgorithmUnion

SimilarityAlgorithm

Contient les cas possibles pour similarité.

SnowballTokenFilterLanguage

Langue à utiliser pour un filtre de jeton Snowball.

SplitSkillLanguage
StemmerTokenFilterLanguage

Langue à utiliser pour un filtre de jeton de type dérivé.

StopwordsList

Identifie une liste prédéfinie de mots vides spécifiques à la langue.

SuggestNarrowedModel
SuggestOptions

Options de récupération des suggestions basées sur searchText.

SuggestResult

Résultat contenant un document trouvé par une requête de suggestion, ainsi que des métadonnées associées.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Représente les classes de caractères sur lesquelles un filtre de jeton peut fonctionner.

TokenFilter

Contient les cas possibles pour TokenFilter.

TokenFilterName

Définit les noms de tous les filtres de jetons pris en charge par le moteur de recherche.
<xref:KnownTokenFilterName> pouvez être utilisé de manière interchangeable avec TokenFilterName, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

arabic_normalization: filtre de jeton qui applique le normaliseur arabe pour normaliser l’orthographie. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrophe: supprime tous les caractères après une apostrophe (y compris l’apostrophe elle-même). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, le cas échéant. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: forme des bigrams de termes CJK générés à partir du tokenizer standard. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: normalise les différences de largeur CJK. Replie les variantes ASCII pleine largeur dans le latin de base équivalent, et les variantes Katakana demi-largeur dans le Kana équivalent. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
classique : supprime les possessifs anglais et les points des acronymes. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: construisez des bigrams pour des termes fréquents lors de l’indexation. Les termes uniques sont toujours indexés, avec des bigrams superposés. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
élision: supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: normalise les caractères allemands en fonction de l’heuristique de l’algorithme de boule de neige allemand2. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: normalise le texte en hindi pour supprimer certaines différences dans les variantes orthographiques. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normalise la représentation Unicode du texte dans les langues indiennes. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: émet chaque jeton entrant deux fois, une fois en tant que mot clé et une fois comme non-mot clé. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: filtre kstem hautes performances pour l’anglais. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
longueur: supprime les mots trop longs ou trop courts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limite: limite le nombre de jetons lors de l’indexation. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
minuscules : normalise le texte du jeton en minuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: génère des n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: applique la normalisation pour le persane. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
phonétique : créez des jetons pour les correspondances phonétiques. Voir https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: utilise l’algorithme de recherche de type Porter pour transformer le flux de jetons. Voir http://tartarus.org/~martin/PorterStemmer
inverse : inverse la chaîne de jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: normalise l’utilisation des caractères scandinaves interchangeables. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding : Folds Scandinaves Characters Ã¥ã... äæÃ"Æ->a et öÖà ̧à ̃-o>. Il discrimine également contre l’utilisation de voyelles doubles aa, ae, ao, oe et oo, laissant juste la première. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
bardeau: crée des combinaisons de jetons en tant que jeton unique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
boule de neige: filtre qui forme des mots à l’aide d’un générateur de tiges généré par Snowball. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: normalise la représentation Unicode du texte Sorani. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
de souche : filtre de recherche de contenu spécifique au langage. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
mots vides: supprime les mots vides d’un flux de jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
découper: supprime les espaces blancs de début et de fin des jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
tronquer: tronque les termes à une longueur spécifique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unique : filtre les jetons avec le même texte que le jeton précédent. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
majuscules: normalise le texte du jeton en majuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: fractionne les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots.

UnionToIntersection
UploadDocumentsOptions

Options pour l’opération de chargement de documents.

VectorEncodingFormat

Format d’encodage pour l’interprétation du contenu des champs vectoriels.
KnownVectorEncodingFormat pouvez être utilisé de manière interchangeable avec VectorEncodingFormat, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

packedBit: format d’encodage représentant les bits emballés dans un type de données plus large.

VectorFilterMode
VectorQuery

Paramètres de requête pour les requêtes de recherche vectorielle et hybride.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme utilisé pendant l’indexation et/ou l’interrogation.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation.

VectorSearchCompressionKind

Méthode de compression utilisée pour l’indexation et l’interrogation.
KnownVectorSearchCompressionKind peut être utilisé de manière interchangeable avec VectorSearchCompressionKind, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

scalaireQuantization: Quantization Scalar, type de méthode de compression. Dans la quantisation scalaire, les valeurs de vecteurs d’origine sont compressées dans un type plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide d’un ensemble réduit de valeurs quantifiées, réduisant ainsi la taille globale des données.
binaryQuantization: Quantization binaire, type de méthode de compression. Dans la quantisation binaire, les valeurs de vecteurs d’origine sont compressées dans le type binaire plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide de valeurs binaires, réduisant ainsi la taille globale des données.

VectorSearchCompressionRescoreStorageMethod

Méthode de stockage des vecteurs de précision complète d’origine utilisés pour la réévaluation et les opérations d’index internes.
KnownVectorSearchCompressionRescoreStorageMethod peut être utilisé de manière interchangeable avec VectorSearchCompressionRescoreStorageMethod, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

preserveOriginals : cette option conserve les vecteurs originaux de pleine précision. Choisissez cette option pour une flexibilité maximale et une qualité optimale des résultats de recherche compressés. Cela consomme davantage de stockage, mais permet de rescoring et de suréchantillonnement.
discardOriginals : cette option supprime les vecteurs de précision d’origine. Choisissez cette option pour réaliser des économies de stockage maximales. Étant donné que cette option n’autorise pas la rescoring et le surachantillonnement, elle provoquera souvent une légère réduction modérée de la qualité.

VectorSearchCompressionTarget

Type de données quantifiées des valeurs vectorielles compressées.
KnownVectorSearchCompressionTarget peut être utilisé de manière interchangeable avec VectorSearchCompressionTarget, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

int8 : entier signé 8 bits.

VectorSearchVectorizer

Contient des options de configuration sur la façon de vectoriser des requêtes vectorielles de texte.

VectorSearchVectorizerKind

Méthode de vectorisation à utiliser au moment de la requête.
KnownVectorSearchVectorizerKind peut être utilisé de manière interchangeable avec VectorSearchVectorizerKind, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

azureOpenAI: générer des incorporations à l’aide d’une ressource Azure OpenAI au moment de la requête.
customWebApi: générer des incorporations à l’aide d’un point de terminaison web personnalisé au moment de la requête.
aiServicesVision : générez des intégrations pour une entrée d’image ou de texte au moment de la requête à l’aide de l’API Azure AI Services Vision Vectorize.
aml : Générez des intégrations à l’aide d’un point de terminaison Azure Machine Learning déployé via le catalogue de modèles Azure AI Foundry au moment de la requête.

VisualFeature
WebApiSkills

Énumérations

KnownAIFoundryModelCatalogName

Le nom du modèle d’embedding tiré du catalogue Azure AI Foundry qui sera appelé.

KnownAnalyzerNames

Définit des valeurs pour AnalyzerName. Voir https://learn.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Nom du modèle Azure Open AI qui sera appelé.

KnownBlobIndexerDataToExtract

Spécifie les données à extraire du stockage d’objets blob Azure et indique à l’indexeur les données à extraire du contenu de l’image lorsque « imageAction » est défini sur une valeur autre que « none ». Cela s’applique au contenu d’image incorporé dans un .PDF ou une autre application, ou aux fichiers image tels que .jpg et .png, dans les objets blob Azure.

KnownBlobIndexerImageAction

Détermine comment traiter les images incorporées et les fichiers image dans le stockage d’objets blob Azure. La définition de la configuration « imageAction » sur une valeur autre que « none » nécessite qu’un ensemble de compétences soit également attaché à cet indexeur.

KnownBlobIndexerPDFTextRotationAlgorithm

Détermine l’algorithme d’extraction de texte à partir de fichiers PDF dans le stockage d’objets blob Azure.

KnownBlobIndexerParsingMode

Représente le mode d’analyse pour l’indexation à partir d’une source de données d’objet blob Azure.

KnownCharFilterNames

Définit des valeurs pour CharFilterName.

KnownChatCompletionExtraParametersBehavior

Précise comment « extraParamètres » doit être géré par Azure AI Foundry. La valeur par défaut est 'error'.

KnownChatCompletionResponseFormatType

Spécifie comment le LLM doit formater la réponse.

KnownContentUnderstandingSkillChunkingUnit

Contrôle la cardinalité de l’unité de segmentation. La valeur par défaut est 'caractères'

KnownContentUnderstandingSkillExtractionOptions

Contrôle la cardinalité du contenu extrait du document par la compétence.

KnownCustomEntityLookupSkillLanguage

Codes de langue pris en charge pour le texte d’entrée par CustomEntityLookupSkill.

KnownDocumentIntelligenceLayoutSkillChunkingUnit

Contrôle la cardinalité de l’unité de segmentation. La valeur par défaut est 'caractères'

KnownDocumentIntelligenceLayoutSkillExtractionOptions

Contrôle la cardinalité du contenu extrait du document par la compétence.

KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Profondeur des en-têtes dans la sortie markdown. La valeur par défaut est h6.

KnownDocumentIntelligenceLayoutSkillOutputFormat

Contrôle la cardinalité du format de sortie. La valeur par défaut est 'markdown'.

KnownDocumentIntelligenceLayoutSkillOutputMode

Contrôle la cardinalité de la sortie produite par la compétence. La valeur par défaut est « oneToMany ».

KnownEntityCategory

Chaîne indiquant les catégories d’entités à renvoyer.

KnownEntityRecognitionSkillLanguage

Codes de langue pris en charge pour le texte d’entrée par EntityRecognitionSkill.

KnownImageAnalysisSkillLanguage

Codes de langue pris en charge pour l’entrée par ImageAnalysisSkill.

KnownImageDetail

Chaîne indiquant les détails spécifiques au domaine à retourner.

KnownIndexProjectionMode

Définit le comportement des projections d’index par rapport au reste de l’indexeur.

KnownIndexerExecutionEnvironment

Spécifie l’environnement dans lequel l’indexeur doit s’exécuter.

KnownIndexerResyncOption

Options avec différents types de données d’autorisation à indexer.

KnownKeyPhraseExtractionSkillLanguage

Codes de langue pris en charge pour le texte d’entrée par KeyPhraseExtractionSkill.

KnownKnowledgeBaseModelKind

Le modèle d’IA à utiliser pour la planification des requêtes.

KnownKnowledgeSourceKind

Le type de source de connaissance.

KnownLexicalAnalyzerName

Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche.

KnownLexicalNormalizerName

Définit les noms de tous les normaliseurs de texte pris en charge par le moteur de recherche.

KnownMarkdownHeaderDepth

Spécifie la profondeur d’en-tête maximale qui sera prise en compte lors du regroupement du contenu Markdown. La valeur par défaut est h6.

KnownMarkdownParsingSubmode

Spécifie le sous-mode qui déterminera si un fichier Markdown sera analysé en un seul document de recherche ou en plusieurs documents de recherche. La valeur par défaut est oneToMany.

KnownOcrLineEnding

Définit la séquence de caractères à utiliser entre les lignes de texte reconnues par la compétence OCR. La valeur par défaut est « espace ».

KnownOcrSkillLanguage

Les codes de langue pris en charge pour la saisie par OcrSkill.

KnownPIIDetectionSkillMaskingMode

Chaîne indiquant le mode de masquage à utiliser pour masquer les informations personnelles détectées dans le texte d’entrée.

KnownQueryDebugMode

Active un outil de débogage qui peut être utilisé pour explorer davantage vos résultats de recherche. Vous pouvez activer plusieurs modes de débogage simultanément en les séparant par un | caractère, par exemple : semantic|queryRewrites.

KnownRankingOrder

Représente le score à utiliser pour l’ordre de tri des documents.

KnownRegexFlags

Définit un drapeau d’expression régulière pouvant être utilisé dans l’analyseur de motifs et le tokeniseur de patterns.

KnownSearchAudience

Valeurs connues pour l’audience de recherche

KnownSearchFieldDataType

Définit le type de données d’un champ dans un index de recherche.

KnownSearchIndexerDataSourceType

Définit le type d’une source de données.

KnownSemanticErrorMode

Permet à l’utilisateur de choisir si un appel sémantique doit échouer complètement ou de retourner des résultats partiels.

KnownSemanticErrorReason

Raison pour laquelle une réponse partielle a été renvoyée pour une demande de classement sémantique.

KnownSemanticSearchResultsType

Type de réponse partielle renvoyée pour une demande de classement sémantique.

KnownSentimentSkillLanguage

Les codes de langue pris en charge pour le texte d’entrée par SentimentSkill.

KnownSplitSkillLanguage

Les codes de langue pris en charge pour le texte d’entrée par SplitSkill.

KnownTextSplitMode

Valeur indiquant le mode fractionné à effectuer.

KnownTextTranslationSkillLanguage

Les codes de langue pris en charge pour le texte d’entrée par TextTranslationSkill.

KnownTokenFilterNames

Définit des valeurs pour TokenFilterName.

KnownTokenizerNames

Définit des valeurs pour TokenizerName.

KnownVectorEncodingFormat

Format d’encodage pour l’interprétation du contenu des champs vectoriels.

KnownVectorFilterMode

Détermine si des filtres sont appliqués avant ou après l’exécution de la recherche vectorielle.

KnownVectorQueryKind

Type de requête vectorielle en cours d’exécution.

KnownVectorSearchAlgorithmKind

Algorithme utilisé pour l’indexation et l’interrogation.

KnownVectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs. Il est recommandé de choisir la même métrique de similarité que celle sur laquelle le modèle d’intégration a été formé.

KnownVectorSearchCompressionKind

Méthode de compression utilisée pour l’indexation et l’interrogation.

KnownVectorSearchCompressionRescoreStorageMethod

Méthode de stockage des vecteurs de précision complète d’origine utilisés pour la réévaluation et les opérations d’index internes.

KnownVectorSearchCompressionTarget

Type de données quantifiées des valeurs vectorielles compressées.

KnownVectorSearchVectorizerKind

Méthode de vectorisation à utiliser au moment de la requête.

KnownVisualFeature

Chaînes indiquant les types de fonctionnalités visuelles à renvoyer.

Functions

createSynonymMapFromFile(string, string)

Méthode d’assistance pour créer un objet SynonymMap. Il s’agit d’une méthode NodeJS uniquement.

odata(TemplateStringsArray, unknown[])

Échappe une expression de filtre odata pour éviter les erreurs avec des littéraux de chaîne de guillemets. Exemple d’utilisation :

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Pour plus d’informations sur la syntaxe prise en charge, consultez : https://learn.microsoft.com/azure/search/search-query-odata-filter

Variables

DEFAULT_BATCH_SIZE

Taille par défaut du lot

DEFAULT_FLUSH_WINDOW

Intervalle de flush par défaut de fenêtre

DEFAULT_RETRY_COUNT

Nombre par défaut de réessayages.

Informations relatives à la fonction

createSynonymMapFromFile(string, string)

Méthode d’assistance pour créer un objet SynonymMap. Il s’agit d’une méthode NodeJS uniquement.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Paramètres

name

string

Nom du SynonymMap.

filePath

string

Chemin d’accès du fichier qui contient les synonymes (séparés par de nouvelles lignes)

Retours

Promise<SynonymMap>

Objet SynonymMap

odata(TemplateStringsArray, unknown[])

Échappe une expression de filtre odata pour éviter les erreurs avec des littéraux de chaîne de guillemets. Exemple d’utilisation :

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Pour plus d’informations sur la syntaxe prise en charge, consultez : https://learn.microsoft.com/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Paramètres

strings

TemplateStringsArray

Tableau de chaînes pour l’expression

values

unknown[]

Tableau de valeurs pour l’expression

Retours

string

Détails de variable

DEFAULT_BATCH_SIZE

Taille par défaut du lot

DEFAULT_BATCH_SIZE: number

Type

number

DEFAULT_FLUSH_WINDOW

Intervalle de flush par défaut de fenêtre

DEFAULT_FLUSH_WINDOW: number

Type

number

DEFAULT_RETRY_COUNT

Nombre par défaut de réessayages.

DEFAULT_RETRY_COUNT: number

Type

number