@azure/search-documents package
Classes
| AzureKeyCredential |
Informations d’identification statiques basées sur une clé qui prend en charge la mise à jour de la valeur de clé sous-jacente. |
| GeographyPoint |
Représente un point géographique dans les coordonnées globales. |
| IndexDocumentsBatch |
Classe utilisée pour effectuer des opérations de traitement par lots avec plusieurs documents à l’index. |
| KnowledgeRetrievalClient |
Classe utilisée pour effectuer des opérations sur une base de connaissances. |
| SearchClient |
Classe utilisée pour effectuer des opérations sur un index de recherche, y compris l’interrogation de documents dans l’index, ainsi que l’ajout, la mise à jour et la suppression de ces documents. |
| SearchIndexClient |
Classe pour effectuer des opérations pour gérer les index (créer, mettre à jour, liste/supprimer), & synonymes. |
| SearchIndexerClient |
Classe pour effectuer des opérations pour gérer (créer, mettre à jour, liste/supprimer) des indexeurs, des sources de données & des ensembles de compétences. |
| SearchIndexingBufferedSender |
Classe utilisée pour effectuer des opérations mises en mémoire tampon sur un index de recherche, notamment l’ajout, la mise à jour et la suppression de celles-ci. |
Interfaces
| AIServices |
Paramètres pour les services d’IA. |
| AIServicesAccountIdentity |
Le compte multi-régions d'une ressource de service IA Azure qui est attachée à un ensemble de compétences. |
| AIServicesAccountKey |
La clé de compte d'une ressource de service IA Azure qui est associée à un ensemble de compétences, à utiliser avec le sous-domaine de la ressource. |
| AnalyzeRequest |
Spécifie certains composants de texte et d’analyse utilisés pour décomposer ce texte en jetons. |
| AnalyzeResult |
Résultat du test d’un analyseur sur du texte. |
| AnalyzedTokenInfo |
Informations sur un jeton retourné par un analyseur. |
| AsciiFoldingTokenFilter |
Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| AutocompleteItem |
Résultat des demandes de saisie semi-automatique. |
| AutocompleteRequest |
Paramètres de correspondance approximative et autres comportements de requête de saisie semi-automatique. |
| AutocompleteResult |
Résultat de la requête de saisie semi-automatique. |
| AzureActiveDirectoryApplicationCredentials |
Informations d’identification d’une application inscrite créée pour votre service de recherche, utilisée pour l’accès authentifié aux clés de chiffrement stockées dans Azure Key Vault. |
| AzureBlobKnowledgeSource |
Source de connaissances Configuration pour le stockage Blob Azure. |
| AzureBlobKnowledgeSourceParameters |
Source de connaissances Paramètres pour le stockage Blob Azure. |
| AzureBlobKnowledgeSourceParams |
Spécifie les paramètres d’exécution d’une source de connaissances d’objet blob azure |
| AzureMachineLearningVectorizer |
Spécifie un point de terminaison Azure Machine Learning déployé via le catalogue Azure AI Foundry Model pour générer l’inclusion vectorielle d’une chaîne de requête. |
| AzureOpenAIEmbeddingSkill |
Vous permet de générer un incorporation vectorielle pour une entrée de texte donnée à l’aide de la ressource Azure OpenAI. |
| AzureOpenAIParameters |
Spécifie les paramètres de connexion à la ressource Azure OpenAI. |
| AzureOpenAIVectorizer |
Contient les paramètres spécifiques à l’utilisation d’un service Azure Open AI pour la vectorisation au moment de la requête. |
| BM25Similarity |
Fonction de classement basée sur l’algorithme de similarité OKapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de longueur (contrôlée par le paramètre « b ») ainsi que la saturation de fréquence de terme (contrôlée par le paramètre « k1 »). |
| BaseAzureMachineLearningVectorizerParameters |
Spécifie les propriétés communes entre tous les types d’authentification de vectoriseur AML. |
| BaseCharFilter |
Type de base pour les filtres de caractères. |
| BaseCognitiveServicesAccount |
Type de base pour décrire toute ressource de service Azure AI attachée à un ensemble de compétences. |
| BaseDataChangeDetectionPolicy |
Type de base pour les stratégies de détection des modifications de données. |
| BaseDataDeletionDetectionPolicy |
Type de base pour les stratégies de détection de suppression de données. |
| BaseKnowledgeBaseActivityRecord |
Type de base pour les enregistrements d’activité. Suit les détails d’exécution, le timing et les erreurs pour les opérations de la base de connaissances. |
| BaseKnowledgeBaseMessageContent |
Spécifie le type de contenu du message. |
| BaseKnowledgeBaseModel |
Spécifie les paramètres de connexion du modèle à utiliser pour la planification des requêtes. |
| BaseKnowledgeBaseReference |
Type de base pour les références. |
| BaseKnowledgeRetrievalReasoningEffort |
Type de base pour l’effort de raisonnement. |
| BaseKnowledgeSource |
Représente une définition de source de connaissances. |
| BaseKnowledgeSourceParams |
Type de base pour les paramètres d’exécution de la source de connaissances. |
| BaseKnowledgeSourceVectorizer |
Spécifie la méthode de vectorisation à utiliser pour le modèle d’inclusion de source de connaissances. |
| BaseLexicalAnalyzer |
Type de base pour les analyseurs. |
| BaseLexicalNormalizer |
Type de base pour les normaliseurs. |
| BaseLexicalTokenizer |
Type de base pour les tokenizers. |
| BaseScoringFunction |
Type de base pour les fonctions qui peuvent modifier les scores de document pendant le classement. |
| BaseSearchIndexerDataIdentity |
Type de base abstrait pour les identités de données. |
| BaseSearchIndexerSkill |
Type de base pour les compétences. |
| BaseSearchRequestOptions |
Paramètres de filtrage, de tri, de facette, de pagination et d’autres comportements de requête de recherche. |
| BaseSimilarityAlgorithm |
Type de base pour les algorithmes de similarité. Les algorithmes de similarité sont utilisés pour calculer des scores qui lient des requêtes à des documents. Plus le score est élevé, plus le document est pertinent pour cette requête spécifique. Ces scores sont utilisés pour classer les résultats de la recherche. |
| BaseTokenFilter |
Type de base pour les filtres de jetons. |
| BaseVectorQuery |
Paramètres de requête pour les requêtes de recherche vectorielle et hybride. |
| BaseVectorSearchAlgorithmConfiguration |
Contient des options de configuration spécifiques à l’algorithme utilisé pendant l’indexation et/ou l’interrogation. |
| BaseVectorSearchCompression |
Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation. |
| BaseVectorSearchVectorizer |
Contient des détails spécifiques pour une méthode de vectorisation à utiliser pendant le temps de requête. |
| BinaryQuantizationCompression |
Contient des options de configuration spécifiques à la méthode de compression de quantisation binaire utilisée lors de l’indexation et de l’interrogation. |
| ChatCompletionResponseFormat |
Détermine comment la réponse du modèle de langage doit être sérialisée. La valeur par défaut est 'text'. |
| ChatCompletionResponseFormatJsonSchemaProperties |
Propriétés pour le format de réponse de schéma JSON. |
| ChatCompletionSchema |
Objet définissant le schéma personnalisé que le modèle utilisera pour structurer sa sortie. |
| ChatCompletionSkill |
Une compétence qui appelle un modèle de langage via le point de terminaison Chat Completions d'Azure AI Foundry. |
| CjkBigramTokenFilter |
Forme des bigrams de termes CJK générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| ClassicSimilarity |
Algorithme de similarité hérité qui utilise l’implémentation lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation de longueur de document statique ainsi que les facteurs de coordination qui pénalisent les documents qui ne correspondent qu’en partie aux requêtes recherchées. |
| ClassicTokenizer |
Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
| CognitiveServicesAccountKey |
Clé de compte multirégion d’une ressource de service IA Azure attachée à un ensemble de compétences. |
| CommonGramTokenFilter |
Construisez des bigrams pour des termes fréquents lors de l’indexation. Les termes uniques sont toujours indexés, avec des bigrams superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| CommonModelParameters |
Paramètres de modèle de langage commun pour les complétions de chat. En cas d’omission, les valeurs par défaut sont utilisées. |
| CompletedSynchronizationState |
Représente l’état terminé de la dernière synchronisation. |
| ComplexField |
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ. |
| ConditionalSkill |
Compétence qui permet aux scénarios nécessitant une opération booléenne pour déterminer les données à affecter à une sortie. |
| ContentUnderstandingSkill |
Une compétence qui exploite Azure AI Content Understanding pour traiter et extraire des insights structurés des documents, permettant un contenu enrichi et consultable pour une indexation et une récupération de documents améliorées. |
| ContentUnderstandingSkillChunkingProperties |
Contrôle la cardinalité de la segmentation du contenu. |
| CorsOptions |
Définit les options permettant de contrôler le partage de ressources cross-origin (CORS) pour un index. |
| CreateKnowledgeBaseOptions | |
| CreateKnowledgeSourceOptions | |
| CreateOrUpdateAliasOptions |
Options de création ou de mise à jour de l’opération d’alias. |
| CreateOrUpdateIndexOptions |
Options pour l’opération de création/mise à jour de l’index. |
| CreateOrUpdateKnowledgeBaseOptions | |
| CreateOrUpdateKnowledgeSourceOptions | |
| CreateOrUpdateSkillsetOptions |
Options d’opération de création/mise à jour de l’ensemble de compétences. |
| CreateOrUpdateSynonymMapOptions |
Options pour l’opération create/update synonymmap. |
| CreateorUpdateDataSourceConnectionOptions |
Options de création/mise à jour de l’opération de source de données. |
| CreateorUpdateIndexerOptions |
Options pour l’opération de création/mise à jour de l’indexeur. |
| CustomAnalyzer |
Vous permet de contrôler le processus de conversion de texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul tokenizer prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres pour modifier les jetons émis par le tokenizer. |
| CustomEntity |
Objet qui contient des informations sur les correspondances trouvées et les métadonnées associées. |
| CustomEntityAlias |
Objet complexe qui peut être utilisé pour spécifier d’autres orthographes ou synonymes au nom de l’entité racine. |
| CustomEntityLookupSkill |
Une compétence recherche du texte à partir d’une liste personnalisée définie par l’utilisateur de mots et d’expressions. |
| CustomLexicalNormalizer |
Vous permet de configurer la normalisation pour les champs filtrables, triables et facetables, qui fonctionnent par défaut avec une correspondance stricte. Il s’agit d’une configuration définie par l’utilisateur composée d’au moins un ou plusieurs filtres, qui modifient le jeton stocké. |
| DefaultCognitiveServicesAccount |
Objet vide qui représente la ressource de service Azure AI par défaut pour un ensemble de compétences. |
| DeleteAliasOptions |
Options pour l’opération de suppression d’alias. |
| DeleteDataSourceConnectionOptions |
Options de suppression de l’opération de source de données. |
| DeleteIndexOptions |
Options pour l’opération de suppression d’index. |
| DeleteIndexerOptions |
Options pour l’opération de suppression d’indexeur. |
| DeleteKnowledgeBaseOptions | |
| DeleteKnowledgeSourceOptions | |
| DeleteSkillsetOptions |
Options pour supprimer l’opération d’ensemble de compétences. |
| DeleteSynonymMapOptions |
Options pour l’opération de suppression de synonymmap. |
| DictionaryDecompounderTokenFilter |
Décompose les mots composés trouvés dans de nombreuses langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| DistanceScoringFunction |
Définit une fonction qui améliore les scores en fonction de la distance d’un emplacement géographique. |
| DistanceScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring de distance. |
| DocumentDebugInfo |
Contient des informations de débogage qui peuvent être utilisées pour explorer davantage vos résultats de recherche. |
| DocumentExtractionSkill |
Compétence qui extrait le contenu d’un fichier dans le pipeline d’enrichissement. |
| DocumentIntelligenceLayoutSkill |
Compétence qui extrait le contenu et les informations de disposition (comme markdown), via Azure AI Services, à partir de fichiers au sein du pipeline d’enrichissement. |
| DocumentIntelligenceLayoutSkillChunkingProperties |
Contrôle la cardinalité de la segmentation du contenu. |
| EdgeNGramTokenFilter |
Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| EdgeNGramTokenizer |
Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
| ElisionTokenFilter |
Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| EntityLinkingSkill |
À l’aide de l’API Text Analytique, extrait les entités liées du texte. |
| EntityRecognitionSkill |
Reconnaissance d’entité de texte analytique. |
| EntityRecognitionSkillV3 |
À l’aide de l’API Text Analytique, extrait les entités de différents types à partir du texte. |
| ExhaustiveKnnParameters |
Contient les paramètres spécifiques à l’algorithme KNN exhaustif. |
| ExtractiveQueryAnswer |
Extrait les candidats de réponse du contenu des documents retournés en réponse à une requête exprimée en tant que question en langage naturel. |
| ExtractiveQueryCaption |
Extrait les légendes des documents correspondants qui contiennent des passages pertinents pour la requête de recherche. |
| FacetResult |
Un seul compartiment d’un résultat de requête de facette. Signale le nombre de documents avec une valeur de champ comprise dans une plage particulière ou ayant une valeur ou un intervalle particulier. |
| FieldMapping |
Définit un mappage entre un champ dans une source de données et un champ cible dans un index. |
| FieldMappingFunction |
Représente une fonction qui transforme une valeur d’une source de données avant l’indexation. |
| FreshnessScoringFunction |
Définit une fonction qui améliore les scores en fonction de la valeur d’un champ date-heure. |
| FreshnessScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring d’actualisation. |
| GenerativeQueryRewrites |
Générez d’autres termes de requête pour augmenter le rappel d’une demande de recherche. |
| GetDocumentOptions |
Options de récupération d’un document unique. |
| GetKnowledgeBaseOptions | |
| GetKnowledgeSourceOptions | |
| GetKnowledgeSourceStatusOptions | |
| HighWaterMarkChangeDetectionPolicy |
Définit une stratégie de détection des modifications de données qui capture les modifications en fonction de la valeur d’une colonne de marque d’eau élevée. |
| HnswParameters |
Contient les paramètres spécifiques à l’algorithme hnsw. |
| ImageAnalysisSkill |
Compétence qui analyse les fichiers image. Il extrait un ensemble complet de fonctionnalités visuelles basées sur le contenu de l’image. |
| IndexDocumentsClient |
Indexer le client documents |
| IndexDocumentsOptions |
Options pour l’opération de modification du lot d’index. |
| IndexDocumentsResult |
Réponse contenant l’état des opérations pour tous les documents de la demande d’indexation. |
| IndexedOneLakeKnowledgeSource |
Configuration de la source de connaissances OneLake. |
| IndexedOneLakeKnowledgeSourceParameters |
Paramètres pour la source de connaissances OneLake. |
| IndexedOneLakeKnowledgeSourceParams |
Spécifie les paramètres d’exécution d’une source de connaissances OneLake indexée |
| IndexerExecutionResult |
Représente le résultat d’une exécution d’indexeur individuelle. |
| IndexingParameters |
Représente des paramètres pour l’exécution de l’indexeur. |
| IndexingParametersConfiguration |
Dictionnaire de propriétés de configuration spécifiques à l’indexeur. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif. |
| IndexingResult |
État d’une opération d’indexation pour un document unique. |
| IndexingSchedule |
Représente une planification pour l’exécution de l’indexeur. |
| InputFieldMappingEntry |
Mappage de champs d’entrée pour une compétence. |
| KeepTokenFilter |
Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste spécifiée de mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| KeyAuthAzureMachineLearningVectorizerParameters |
Spécifie les propriétés de connexion à un vectoriseur AML avec une clé d’authentification. |
| KeyPhraseExtractionSkill |
Compétence qui utilise du texte analytique pour l’extraction d’expressions clés. |
| KeywordMarkerTokenFilter |
Marque les termes en tant que mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| KeywordTokenizer |
Émet l’entrée entière sous forme de jeton unique. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
| KnowledgeBase | |
| KnowledgeBaseAgenticReasoningActivityRecord |
Représente un enregistrement d’activité de raisonnement agentique. |
| KnowledgeBaseAzureBlobReference |
Représente une référence de document de référence sur le stockage Blob Azure. |
| KnowledgeBaseAzureOpenAIModel |
Spécifie la ressource Azure OpenAI utilisée pour la planification des requêtes. |
| KnowledgeBaseErrorAdditionalInfo |
Informations supplémentaires sur l’erreur de gestion des ressources. |
| KnowledgeBaseErrorDetail |
Détails de l’erreur. |
| KnowledgeBaseIndexedOneLakeReference |
Représente une référence indexée de document OneLake. |
| KnowledgeBaseMessage |
Objet de style de message en langage naturel. |
| KnowledgeBaseMessageImageContent |
Type de message d’image. |
| KnowledgeBaseMessageImageContentImage |
Contenu d’images. |
| KnowledgeBaseMessageTextContent |
Type de SMS. |
| KnowledgeBaseModelWebSummarizationActivityRecord |
Représente un enregistrement d’activité de synthèse web de LLM. |
| KnowledgeBaseRetrievalRequest |
Contrat d’entrée pour la demande d’extraction. |
| KnowledgeBaseRetrievalResponse |
Contrat de sortie pour la réponse d’extraction. |
| KnowledgeBaseSearchIndexReference |
Représente une référence de document Recherche Azure. |
| KnowledgeBaseWebReference |
Représente une référence de document Web. |
| KnowledgeRetrievalClientOptions |
Options clientes utilisées pour configurer les demandes d’API Recherche cognitive. |
| KnowledgeRetrievalIntent |
Une requête destinée à être exécutée sans planification de requête de modèle. |
| KnowledgeRetrievalMinimalReasoningEffort |
Exécutez la récupération des connaissances avec un minimum d’effort de raisonnement. |
| KnowledgeRetrievalSemanticIntent |
Une intention de requête sémantique. |
| KnowledgeSourceAzureOpenAIVectorizer |
Spécifie la ressource Azure OpenAI utilisée pour vectoriser une chaîne de requête. |
| KnowledgeSourceIngestionParameters |
Consolide tous les paramètres généraux d’ingestion des sources de connaissances. |
| KnowledgeSourceReference |
Référence à une source de connaissances. |
| KnowledgeSourceStatistics |
Informations statistiques sur l’historique de synchronisation des sources de connaissances. |
| KnowledgeSourceStatus |
Représente l’état et l’historique de synchronisation d’une source de connaissances. |
| KnowledgeSourceSynchronizationError |
Représente une erreur d’indexation au niveau du document rencontrée lors d’une exécution de synchronisation de source de connaissances. |
| LanguageDetectionSkill |
Compétence qui détecte la langue du texte d’entrée et signale un code de langue unique pour chaque document soumis à la demande. Le code de langage est associé à un score indiquant la confiance de l’analyse. |
| LengthTokenFilter |
Supprime les mots trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| LimitTokenFilter |
Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| ListKnowledgeBasesOptions | |
| ListKnowledgeSourcesOptions | |
| ListSearchResultsPageSettings |
Arguments pour récupérer la page suivante des résultats de recherche. |
| LuceneStandardAnalyzer |
Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt. |
| LuceneStandardTokenizer |
Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
| MagnitudeScoringFunction |
Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique. |
| MagnitudeScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring de magnitude. |
| MappingCharFilter |
Filtre de caractères qui applique les mappages définis avec l’option mappages. La correspondance est gourmande (la correspondance la plus longue à un point donné gagne). Le remplacement est autorisé à être la chaîne vide. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene. |
| MergeSkill |
Compétence permettant de fusionner deux chaînes ou plus en une seule chaîne unifiée, avec un délimiteur facultatif défini par l’utilisateur séparant chaque composant. |
| MicrosoftLanguageStemmingTokenizer |
Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leurs formulaires de base. |
| MicrosoftLanguageTokenizer |
Divise le texte à l’aide de règles spécifiques à la langue. |
| NGramTokenFilter |
Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| NGramTokenizer |
Tokenise l’entrée en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
| NativeBlobSoftDeleteDeletionDetectionPolicy |
Définit une stratégie de détection de suppression de données utilisant la fonctionnalité de suppression réversible native du Stockage Blob Azure pour la détection de suppression. |
| NoAuthAzureMachineLearningVectorizerParameters |
Spécifie les propriétés de connexion à un vectoriseur AML sans authentification. |
| OcrSkill |
Compétence qui extrait du texte à partir de fichiers image. |
| OutputFieldMappingEntry |
Mappage de champs de sortie pour une compétence. |
| PIIDetectionSkill |
À l’aide de l’API Text Analytique, extrait des informations personnelles d’un texte d’entrée et vous donne la possibilité de la masquer. |
| PageSettings |
Options de la méthode byPage |
| PagedAsyncIterableIterator |
Interface qui permet une itération itérable asynchrone à la fois à l’achèvement et à la page. |
| PathHierarchyTokenizer |
Tokenizer pour les hiérarchies similaires au chemin d’accès. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
| PatternAnalyzer |
Sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene. |
| PatternCaptureTokenFilter |
Utilise des regex Java pour émettre plusieurs jetons : un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| PatternReplaceCharFilter |
Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene. |
| PatternReplaceTokenFilter |
Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| PatternTokenizer |
Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
| PhoneticTokenFilter |
Créez des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| QueryAnswerResult |
Une réponse est un passage de texte extrait du contenu des documents les plus pertinents correspondant à la requête. Les réponses sont extraites des résultats de recherche principaux. Les candidats à la réponse sont marqués et les premières réponses sont sélectionnées. |
| QueryCaptionResult |
Les légendes sont les passages les plus représentatifs du document relativement à la requête de recherche.
Ils sont souvent utilisés comme résumé de document. Les légendes sont retournées uniquement pour les requêtes de type |
| QueryResultDocumentSemanticField |
Description des champs envoyés au processus d’enrichissement sémantique, ainsi que la façon dont ils ont été utilisés |
| QueryResultDocumentSubscores |
Répartition des sous-scores entre les composants de requête de texte et de requête vectorielle de la requête de recherche pour ce document. Chaque requête vectorielle s’affiche sous la forme d’un objet distinct dans le même ordre qu’ils ont été reçus. |
| RescoringOptions |
Contient les options de rescoring. |
| ResourceCounter |
Représente l’utilisation et le quota d’une ressource. |
| RetrieveOptions | |
| ScalarQuantizationCompression |
Contient des options de configuration spécifiques à la méthode de compression de quantisation scalaire utilisée lors de l’indexation et de l’interrogation. |
| ScalarQuantizationParameters |
Contient les paramètres spécifiques à la quantisation scalaire. |
| ScoringProfile |
Définit des paramètres pour un index de recherche qui influencent le scoring dans les requêtes de recherche. |
| SearchAlias |
Représente un alias d’index, qui décrit un mappage du nom de l’alias à un index. Le nom d’alias peut être utilisé à la place du nom d’index pour les opérations prises en charge. |
| SearchClientOptions |
Options client utilisées pour configurer les demandes d’API AI Search. |
| SearchDocumentsPageResult |
Réponse contenant les résultats de la page de recherche à partir d’un index. |
| SearchDocumentsResult |
Réponse contenant des résultats de recherche à partir d’un index. |
| SearchDocumentsResultBase |
Réponse contenant des résultats de recherche à partir d’un index. |
| SearchIndex |
Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index. |
| SearchIndexClientOptions |
Options client utilisées pour configurer les demandes d’API AI Search. |
| SearchIndexFieldReference |
Référence de champ pour un index de recherche. |
| SearchIndexKnowledgeSource |
Source de connaissances ciblant un index de recherche. |
| SearchIndexKnowledgeSourceParameters |
Paramètres de la source de connaissances de l’index de recherche. |
| SearchIndexKnowledgeSourceParams |
Spécifie les paramètres d’exécution d’une source de connaissances d’index de recherche |
| SearchIndexStatistics |
Statistiques d’un index donné. Les statistiques sont collectées régulièrement et ne sont pas garanties d’être toujours up-to-date. |
| SearchIndexer |
Représente un indexeur. |
| SearchIndexerClientOptions |
Options client utilisées pour configurer les demandes d’API AI Search. |
| SearchIndexerDataContainer |
Représente des informations sur l’entité (par exemple, la table Azure SQL ou la collection CosmosDB) qui sera indexée. |
| SearchIndexerDataNoneIdentity |
Efface la propriété d’identité d’une source de données. |
| SearchIndexerDataSourceConnection |
Représente une définition de source de données, qui peut être utilisée pour configurer un indexeur. |
| SearchIndexerDataUserAssignedIdentity |
Spécifie l’identité d’une source de données à utiliser. |
| SearchIndexerError |
Représente une erreur d’indexation au niveau de l’élément ou du document. |
| SearchIndexerIndexProjection |
Définition de projections supplémentaires pour les index de recherche secondaire. |
| SearchIndexerIndexProjectionParameters |
Dictionnaire des propriétés de configuration spécifiques à la projection d’index. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif. |
| SearchIndexerIndexProjectionSelector |
Description des données à stocker dans l’index de recherche désigné. |
| SearchIndexerKnowledgeStore |
Définition de projections supplémentaires sur des objets blob, une table ou des fichiers Azure, de données enrichies. |
| SearchIndexerKnowledgeStoreBlobProjectionSelector |
Classe abstraite pour partager des propriétés entre des sélecteurs concrets. |
| SearchIndexerKnowledgeStoreFileProjectionSelector |
Définition de projection pour les données à stocker dans Azure Files. |
| SearchIndexerKnowledgeStoreObjectProjectionSelector |
Définition de projection pour les données à stocker dans l’objet blob Azure. |
| SearchIndexerKnowledgeStoreParameters |
Dictionnaire des propriétés de configuration spécifiques à la base de connaissances. Chaque nom est le nom d’une propriété spécifique. Chaque valeur doit être d’un type primitif. |
| SearchIndexerKnowledgeStoreProjection |
Objet conteneur pour différents sélecteurs de projection. |
| SearchIndexerKnowledgeStoreProjectionSelector |
Classe abstraite pour partager des propriétés entre des sélecteurs concrets. |
| SearchIndexerKnowledgeStoreTableProjectionSelector |
Description des données à stocker dans les tables Azure. |
| SearchIndexerLimits |
Représente les limites pouvant être appliquées à un indexeur. |
| SearchIndexerSkillset |
Une liste de compétences. |
| SearchIndexerStatus |
Représente l’état actuel et l’historique d’exécution d’un indexeur. |
| SearchIndexerWarning |
Représente un avertissement au niveau de l’élément. |
| SearchIndexingBufferedSenderOptions |
Options de SearchIndexingBufferedSender. |
| SearchResourceEncryptionKey |
Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos dans Recherche Azure AI, telles que des index et des mappages de synonymes. |
| SearchServiceStatistics |
Réponse d’une demande de statistiques de service get. Si elle réussit, elle inclut des compteurs et des limites de niveau de service. |
| SemanticConfiguration |
Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques. |
| SemanticDebugInfo |
Options de débogage pour les requêtes de recherche sémantique. |
| SemanticField |
Champ utilisé dans le cadre de la configuration sémantique. |
| SemanticPrioritizedFields |
Décrit les champs de titre, de contenu et de mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. |
| SemanticSearch |
Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques. |
| SemanticSearchOptions |
Définit des options pour les requêtes de recherche sémantique |
| SentimentSkill |
Le texte analytique analyse des sentiments négatifs positifs, marqué comme une valeur à virgule flottante dans une plage de zéro à 1. |
| SentimentSkillV3 |
À l’aide de l’API Text Analytique, évalue le texte non structuré et pour chaque enregistrement, fournit des étiquettes de sentiment (telles que « négative », « neutre » et « positive ») basées sur le score de confiance le plus élevé trouvé par le service au niveau de la phrase et du document. |
| ServiceCounters |
Représente les compteurs de ressources et les quotas au niveau du service. |
| ServiceLimits |
Représente différentes limites de niveau de service. |
| ShaperSkill |
Une compétence pour remodeler les sorties. Il crée un type complexe pour prendre en charge les champs composites (également appelés champs à plusieurs parties). |
| ShingleTokenFilter |
Crée des combinaisons de jetons en tant que jeton unique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| SimpleField |
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ. |
| SingleVectorFieldResult |
Résultat d’un champ vectoriel unique. Les deux |
| SnowballTokenFilter |
Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| SoftDeleteColumnDeletionDetectionPolicy |
Définit une stratégie de détection de suppression de données qui implémente une stratégie de suppression réversible. Il détermine si un élément doit être supprimé en fonction de la valeur d’une colonne « suppression réversible » désignée. |
| SplitSkill |
Compétence permettant de fractionner une chaîne en blocs de texte. |
| SqlIntegratedChangeTrackingPolicy |
Définit une stratégie de détection des modifications de données qui capture les modifications à l’aide de la fonctionnalité Suivi des modifications intégré d’Azure SQL Database. |
| StemmerOverrideTokenFilter |
Fournit la possibilité de remplacer d’autres filtres de recherche de recherche par recherche de données personnalisées basées sur des dictionnaires. Tous les termes liés aux dictionnaires seront marqués comme des mots clés afin qu’ils ne soient pas suivis de formes dérivées dans la chaîne. Doit être placé avant les filtres de recherche de recherche. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html |
| StemmerTokenFilter |
Filtre de recherche de recherche spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters |
| StopAnalyzer |
Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene. |
| StopwordsTokenFilter |
Supprime les mots d’arrêt d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html |
| SuggestDocumentsResult |
Réponse contenant des résultats de requête de suggestion à partir d’un index. |
| SuggestRequest |
Paramètres pour le filtrage, le tri, la correspondance approximative et d’autres comportements de requête de suggestions. |
| Suggester |
Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index. |
| SynchronizationState |
Représente l’état actuel d’une synchronisation en cours qui s’étend sur plusieurs exécutions d’indexeur. |
| SynonymMap |
Représente une définition de carte de synonymes. |
| SynonymTokenFilter |
Correspond aux synonymes à mot unique ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| TagScoringFunction |
Définit une fonction qui améliore les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises. |
| TagScoringParameters |
Fournit des valeurs de paramètre à une fonction de scoring d’étiquette. |
| TextResult |
Score BM25 ou Classique pour la partie texte de la requête. |
| TextTranslationSkill |
Compétence pour traduire du texte d’une langue à une autre. |
| TextWeights |
Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche. |
| TokenAuthAzureMachineLearningVectorizerParameters |
Spécifie les propriétés de connexion à un vectoriseur AML avec une identité managée. |
| TruncateTokenFilter |
Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| UaxUrlEmailTokenizer |
Tokenise les URL et les e-mails sous la forme d’un seul jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
| UniqueTokenFilter |
Filtre les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
| VectorSearch |
Contient des options de configuration liées à la recherche vectorielle. |
| VectorSearchOptions |
Définit des options pour les requêtes de recherche vectorielle |
| VectorSearchProfile |
Définit une combinaison de configurations à utiliser avec la recherche vectorielle. |
| VectorizableImageBinaryQuery |
Les paramètres de requête à utiliser pour la recherche vectorielle lorsqu’un binaire codé en base 64 d’une image devant être vectorisée est fourni. |
| VectorizableImageUrlQuery |
Les paramètres de requête à utiliser pour la recherche vectorielle lorsqu’une URL qui représente une valeur d’image qui doit être vectorisée est fournie. |
| VectorizableTextQuery |
Les paramètres de requête à utiliser pour la recherche vectorielle lorsqu’une valeur de texte devant être vectorisée est fournie. |
| VectorizedQuery |
Paramètres de requête à utiliser pour la recherche vectorielle lorsqu’une valeur vectorielle brute est fournie. |
| VectorsDebugInfo |
« Contient des informations de débogage spécifiques à la recherche vectorielle et hybride. ») |
| WebApiParameters |
Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur. |
| WebApiSkill |
Compétence qui peut appeler un point de terminaison d’API web, ce qui vous permet d’étendre un ensemble de compétences en le faisant appeler votre code personnalisé. |
| WebApiVectorizer |
Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est obtenue à l’aide de l’interface d’API Web personnalisée d’un ensemble de compétences. |
| WebKnowledgeSource |
Source de connaissances ciblant les résultats Web. |
| WebKnowledgeSourceDomain |
Configuration pour le domaine source de connaissances web. |
| WebKnowledgeSourceDomains |
Configuration d’autorisation/de blocage de domaine pour la source de connaissances Web. |
| WebKnowledgeSourceParameters |
Paramètres de la source de connaissances Web. |
| WebKnowledgeSourceParams |
Spécifie les paramètres d’exécution d’une source de connaissances Web |
| WordDelimiterTokenFilter |
Fractionne les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Alias de type
| AIFoundryModelCatalogName |
Le nom du modèle d’embedding tiré du catalogue Azure AI Foundry qui sera appelé. Valeurs connues prises en charge par le service
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 : OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
| AliasIterator |
Itérateur pour répertorier les alias qui existent dans le service de recherche. Cela effectue des requêtes selon les besoins pendant l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération. |
| AnalyzeTextOptions |
Options d’analyse du texte. |
| AutocompleteMode |
Spécifie le mode de saisie semi-automatique. La valeur par défaut est 'oneTerm'. Utilisez 'twoTerms' pour obtenir des bardeaux et 'oneTermWithContext' pour utiliser le contexte actuel dans la production de termes de saisie semi-automatique. |
| AutocompleteOptions |
Options de récupération du texte de saisie semi-automatique pour un searchText partiel. |
| AzureMachineLearningVectorizerParameters |
Spécifie les propriétés de connexion à un vectoriseur AML. |
| AzureOpenAIModelName |
Nom du modèle Azure Open AI qui sera appelé. Valeurs connues prises en charge par le service
text-embedding-ada-002 : modèle TextEmbeddingAda002. |
| BaseKnowledgeRetrievalIntent |
Alias pour KnowledgeRetrievalIntentUnion |
| BlobIndexerDataToExtract | |
| BlobIndexerImageAction | |
| BlobIndexerPDFTextRotationAlgorithm | |
| BlobIndexerParsingMode | |
| CharFilter |
Contient les cas possibles pour CharFilter. |
| CharFilterName |
Définit les noms de tous les filtres de caractères pris en charge par le moteur de recherche. Valeurs connues prises en charge par le servicehtml_strip: filtre de caractères qui tente de supprimer les constructions HTML. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
| ChatCompletionExtraParametersBehavior |
Précise comment « extraParamètres » doit être géré par Azure AI Foundry. La valeur par défaut est 'error'. Valeurs connues prises en charge par le service
passThrough : transmet tous les paramètres supplémentaires directement au modèle. |
| ChatCompletionResponseFormatType |
Spécifie comment le LLM doit formater la réponse. Valeurs connues prises en charge par le service
texte : Format de réponse en texte clair. |
| CjkBigramTokenFilterScripts |
Scripts qui peuvent être ignorés par CjkBigramTokenFilter. |
| CognitiveServicesAccount |
Contient les cas possibles pour CognitiveServicesAccount. |
| ComplexDataType |
Définit des valeurs pour ComplexDataType. Les valeurs possibles sont les suivantes : « Edm.ComplexType », « Collection(Edm.ComplexType) » |
| ContentUnderstandingSkillChunkingUnit |
Contrôle la cardinalité de l’unité de segmentation. Par défaut, c’est « personnages » Valeurs connues prises en charge par le servicecharacters : spécifie bloc par caractère. |
| ContentUnderstandingSkillExtractionOptions |
Contrôle la cardinalité du contenu extrait du document par la compétence. Valeurs connues prises en charge par le service
images : spécifiez que le contenu de l’image doit être extrait du document. |
| ContinuablePage |
Interface qui décrit une page de résultats. |
| CountDocumentsOptions |
Options d’exécution de l’opération de comptage sur l’index. |
| CreateAliasOptions |
Options de création d’une opération d’alias. |
| CreateDataSourceConnectionOptions |
Options de création d’une opération de source de données. |
| CreateIndexOptions |
Options de création d’une opération d’index. |
| CreateIndexerOptions |
Options de création d’une opération d’indexeur. |
| CreateSkillsetOptions |
Options de création d’une opération d’ensemble de compétences. |
| CreateSynonymMapOptions |
Options de création d’une opération de synonymmap. |
| CustomEntityLookupSkillLanguage | |
| DataChangeDetectionPolicy |
Contient les cas possibles pour DataChangeDetectionPolicy. |
| DataDeletionDetectionPolicy |
Contient les cas possibles pour DataDeletionDetectionPolicy. |
| DeleteDocumentsOptions |
Options pour l’opération de suppression de documents. |
| DocumentIntelligenceLayoutSkillChunkingUnit |
Contrôle la cardinalité de l’unité de segmentation. Par défaut, c’est « personnages » Valeurs connues prises en charge par le servicecharacters : spécifie bloc par caractère. |
| DocumentIntelligenceLayoutSkillExtractionOptions |
Contrôle la cardinalité du contenu extrait du document par la compétence. Valeurs connues prises en charge par le service
images : spécifiez que le contenu de l’image doit être extrait du document. |
| DocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Profondeur des en-têtes dans la sortie markdown. La valeur par défaut est h6. Valeurs connues prises en charge par le service
h1 : niveau d’en-tête 1. |
| DocumentIntelligenceLayoutSkillOutputFormat |
Contrôle la cardinalité du format de sortie. La valeur par défaut est 'markdown'. Valeurs connues prises en charge par le service
text : spécifiez le format de la sortie sous forme de texte. |
| DocumentIntelligenceLayoutSkillOutputMode |
Contrôle la cardinalité de la sortie produite par la compétence. La valeur par défaut est « oneToMany ». Valeurs connues prises en charge par le serviceoneToMany : spécifiez que la sortie doit être analysée comme « oneToMany ». |
| EdgeNGramTokenFilterSide |
Spécifie de quel côté de l’entrée un n-gramme doit être généré. |
| EntityCategory |
Chaîne indiquant les catégories d’entités à renvoyer. Valeurs connues prises en charge par le service
emplacement : Entités décrivant un lieu physique. |
| EntityRecognitionSkillLanguage |
Codes de langue pris en charge pour le texte d’entrée par EntityRecognitionSkill. Valeurs connues prises en charge par le service
ar : arabe |
| ExcludedODataTypes | |
| ExhaustiveKnnAlgorithmConfiguration |
Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche par force brute sur l’index vectoriel entier. |
| ExtractDocumentKey | |
| GetAliasOptions |
Options pour l’opération d’obtention d’alias. |
| GetDataSourceConnectionOptions |
Options d’obtention de l’opération de source de données. |
| GetIndexOptions |
Options d’obtention de l’opération d’index. |
| GetIndexStatisticsOptions |
Options d’obtention de l’opération de statistiques d’index. |
| GetIndexerOptions |
Options pour l’opération get indexer. |
| GetIndexerStatusOptions |
Options pour obtenir l’opération d’état de l’indexeur. |
| GetServiceStatisticsOptions |
Options d’obtention de l’opération de statistiques de service. |
| GetSkillSetOptions |
Options d’obtention d’une opération d’ensemble de compétences. |
| GetSynonymMapsOptions |
Options pour l’opération get synonymmaps. |
| HnswAlgorithmConfiguration |
Contient des options de configuration spécifiques à l’algorithme de voisin le plus proche approximativement utilisé pendant l’indexation. |
| ImageAnalysisSkillLanguage | |
| ImageDetail | |
| IndexActionType |
Opération à effectuer sur un document d’un lot d’indexation. |
| IndexDocumentsAction |
Représente une action d’index qui fonctionne sur un document. |
| IndexIterator |
Itérateur pour répertorier les index qui existent dans le service de recherche. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération. |
| IndexNameIterator |
Itérateur pour répertorier les index qui existent dans le service de recherche. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération. |
| IndexProjectionMode |
Définit le comportement des projections d’index par rapport au reste de l’indexeur. Valeurs connues prises en charge par le service
skipIndexingParentDocuments: le document source est ignoré de l’écriture dans l’index cible de l’indexeur. |
| IndexerExecutionEnvironment | |
| IndexerExecutionStatus |
Représente l’état de l’exécution d’un indexeur individuel. |
| IndexerResyncOption |
Options avec différents types de données d’autorisation à indexer. Valeurs connues prises en charge par le servicepermissions : l’indexeur permet de réingérer les données d’autorisations présélectionnées de la source de données vers l’index. |
| IndexerStatus |
Représente l’état global de l’indexeur. |
| KeyPhraseExtractionSkillLanguage | |
| KnowledgeBaseActivityRecord |
Alias pour KnowledgeBaseActivityRecordUnion |
| KnowledgeBaseActivityRecordType |
Le type de dossier d’activité. Valeurs connues prises en charge par le service
searchIndex : activité de recherche d’index. |
| KnowledgeBaseIterator |
Un itérateur pour lister les bases de connaissances existant dans le service de recherche. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération. |
| KnowledgeBaseMessageContent |
Alias pour KnowledgeBaseMessageContentUnion |
| KnowledgeBaseMessageContentType |
Le type de contenu du message. Valeurs connues prises en charge par le service
texte : Contenu par SMS. |
| KnowledgeBaseModel | |
| KnowledgeBaseModelKind |
Le modèle d’IA à utiliser pour la planification des requêtes. Valeurs connues prises en charge par le serviceazureOpenAI : Utilisez Azure modèles d’IA Open pour la planification des requêtes. |
| KnowledgeBaseReference |
Alias pour KnowledgeBaseReferenceUnion |
| KnowledgeBaseReferenceType |
Type de référence. Valeurs connues prises en charge par le service
searchIndex : Recherche index référence documentaire. |
| KnowledgeRetrievalIntentType |
Le type de configuration de la base de connaissances à utiliser. Valeurs connues prises en charge par le servicesémantique : une intention de requête sémantique en langage naturel. |
| KnowledgeRetrievalReasoningEffortKind |
La quantité d’effort à fournir lors de la récupération. Valeurs connues prises en charge par le serviceminimal : N’effectue aucune sélection de source, ni planification de requêtes, ni recherche itérative. |
| KnowledgeRetrievalReasoningEffortUnion |
Alias pour RechercheRaisonnementEffortUnion |
| KnowledgeSource | |
| KnowledgeSourceContentExtractionMode |
Mode d’extraction de contenu en option. La valeur par défaut est « minimal ». Valeurs connues prises en charge par le service
minimal : Extrait uniquement les métadonnées essentielles tout en différant la plupart du traitement du contenu. |
| KnowledgeSourceIterator |
Un itérateur pour lister les sources de connaissances existantes dans le service de recherche. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération. |
| KnowledgeSourceKind |
Le type de source de connaissance. Valeurs connues prises en charge par le service
searchIndex : source de connaissances qui lit les données d’un index de recherche. |
| KnowledgeSourceParams |
Alias pour KnowledgeSourceParamsUnion |
| KnowledgeSourceSynchronizationStatus |
État actuel de la synchronisation de la source de connaissances. Valeurs connues prises en charge par le service
création : La source de connaissances est en cours de provision. |
| KnowledgeSourceVectorizer | |
| LexicalAnalyzer |
Contient les cas possibles pour Analyzer. |
| LexicalAnalyzerName |
Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche. Valeurs connues prises en charge par le service
ar.microsoft: Analyseur Microsoft pour l’arabe. |
| LexicalNormalizer |
Contient les cas possibles pour LexicalNormalizer. |
| LexicalNormalizerName |
Définit les noms de tous les normaliseurs de texte pris en charge par le moteur de recherche. Valeurs connues prises en charge par le service
asciifolding: convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, le cas échéant. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
| LexicalTokenizer |
Contient les cas possibles pour Tokenizer. |
| LexicalTokenizerName |
Définit les noms de tous les tokenizers pris en charge par le moteur de recherche. Valeurs connues prises en charge par le service
classique : tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
| ListAliasesOptions |
Options pour l’opération d’alias de liste. |
| ListDataSourceConnectionsOptions |
Options d’une opération de sources de données de liste. |
| ListIndexersOptions |
Options d’une opération d’indexeurs de liste. |
| ListIndexesOptions |
Options d’une opération d’index de liste. |
| ListSkillsetsOptions |
Options d’une opération d’ensembles de compétences de liste. |
| ListSynonymMapsOptions |
Options d’une opération synonymMaps de liste. |
| MarkdownHeaderDepth |
Spécifie la profondeur d’en-tête maximale qui sera prise en compte lors du regroupement du contenu Markdown. La valeur par défaut est Valeurs connues prises en charge par le service
h1 : Indique que les en-têtes jusqu’à un niveau de h1 seront pris en compte lors du regroupement du contenu Markdown. |
| MarkdownParsingSubmode |
Spécifie le sous-mode qui déterminera si un fichier Markdown sera analysé en un seul document de recherche ou en plusieurs documents de recherche. La valeur par défaut est Valeurs connues prises en charge par le service
oneToMany : indique que chaque section du fichier Markdown (jusqu’à une profondeur spécifiée) sera analysée en documents de recherche individuels. Cela peut entraîner un fichier Markdown unique produisant plusieurs documents de recherche. Il s’agit du sous-mode par défaut. |
| MergeDocumentsOptions |
Options pour l’opération de fusion de documents. |
| MergeOrUploadDocumentsOptions |
Options pour l’opération de fusion ou de chargement de documents. |
| MicrosoftStemmingTokenizerLanguage |
Liste les langages pris en charge par le tokenizer stemming du langage Microsoft. |
| MicrosoftTokenizerLanguage |
Liste les langages pris en charge par le tokenizer de langage Microsoft. |
| NarrowedModel |
Réduit le type de modèle pour inclure uniquement les champs sélectionnés |
| OcrLineEnding |
Définit la séquence de caractères à utiliser entre les lignes de texte reconnues par la compétence OCR. La valeur par défaut est « espace ». Valeurs connues prises en charge par le service
'espace: les lignes sont séparées par un seul espace. |
| OcrSkillLanguage | |
| PIIDetectionSkillMaskingMode | |
| PhoneticEncoder |
Identifie le type d’encodeur phonétique à utiliser avec un PhoneticTokenFilter. |
| QueryAnswer |
Valeur qui spécifie si les réponses doivent être retournées dans le cadre de la réponse de recherche.
Ce paramètre n’est valide que si le type de requête est « sémantique ». Si elle est définie sur |
| QueryCaption |
Valeur qui spécifie si les légendes doivent être retournées dans le cadre de la réponse de recherche. Ce paramètre n’est valide que si le type de requête est « sémantique ». Si elle est définie, la requête retourne des légendes extraites des passages clés dans les documents classés les plus élevés. Lorsque les légendes sont « extractibles », la mise en surbrillance est activée par défaut. La valeur par défaut est « none ». |
| QueryDebugMode |
Active un outil de débogage qui peut être utilisé pour explorer davantage vos résultats de recherche. Vous pouvez activer plusieurs modes de débogage simultanément en les séparant par un | caractère, par exemple : semantic|queryRewrites. Valeurs connues prises en charge par le service
disabled : aucune information de débogage de requête n’est renvoyée. |
| QueryRewrites |
Définit les options de réécriture des requêtes. |
| QueryType |
Spécifie la syntaxe de la requête de recherche. La valeur par défaut est « simple ». Utilisez 'full' si votre requête utilise la syntaxe de requête Lucene et 'semantic' si la syntaxe de requête n’est pas nécessaire. Valeurs connues prises en charge par le service
simple : Utilise la syntaxe simple de requête pour les recherches. Le texte de recherche est interprété à l’aide d’un langage de requête simple qui autorise l’utilisation de symboles tels que +, * et « ». Par défaut, les requêtes sont évaluées dans tous les champs pouvant faire l’objet d’une recherche, sauf si le paramètre searchFields est spécifié. |
| RankingOrder |
Représente le score à utiliser pour l’ordre de tri des documents. Valeurs connues prises en charge par le service
BoostedRerankerScore : définit l’ordre de tri comme BoostedRerankerScore |
| RegexFlags | |
| ResetIndexerOptions |
Options pour l’opération de réinitialisation de l’indexeur. |
| RunIndexerOptions |
Options pour l’opération d’indexeur d’exécution. |
| ScoringFunction |
Contient les cas possibles pour ScoringFunction. |
| ScoringFunctionAggregation |
Définit la fonction d’agrégation utilisée pour combiner les résultats de toutes les fonctions de scoring dans un profil de score. |
| ScoringFunctionInterpolation |
Définit la fonction utilisée pour interpoler l’augmentation du score dans une plage de documents. |
| ScoringStatistics |
Valeur qui spécifie si nous voulons calculer des statistiques de scoring (telles que la fréquence du document) globalement pour un scoring plus cohérent, ou localement, pour une latence inférieure. La valeur par défaut est 'local'. Utilisez « global » pour agréger les statistiques de score globales avant de marquer. L’utilisation de statistiques de score globales peut augmenter la latence des requêtes de recherche. |
| SearchField |
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ. |
| SearchFieldArray |
Si |
| SearchFieldDataType |
Définit des valeurs pour SearchFieldDataType. Valeurs connues prises en charge par le service :Edm.String : indique qu’un champ contient une chaîne. Edm.Int32: indique qu’un champ contient un entier signé 32 bits. Edm.Int64: indique qu’un champ contient un entier signé 64 bits. Edm.Double: indique qu’un champ contient un nombre à virgule flottante à double précision IEEE. Edm.Boolean: indique qu’un champ contient une valeur booléenne (true ou false). Edm.DateTimeOffset: indique qu’un champ contient une valeur de date/heure, y compris les informations de fuseau horaire. Edm.GeographyPoint: indique qu’un champ contient un emplacement géographique en termes de longitude et de latitude. Edm.ComplexType: indique qu’un champ contient un ou plusieurs objets complexes qui, à son tour, ont des sous-champs d’autres types. Edm.Single: indique qu’un champ contient un nombre à virgule flottante simple précision. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Single). Edm.Half: indique qu’un champ contient un nombre à virgule flottante demi précision. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Half). Edm.Int16: indique qu’un champ contient un entier signé 16 bits. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Int16). Edm.SByte: indique qu’un champ contient un entier signé 8 bits. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.SByte). Edm.Byte: indique qu’un champ contient un entier non signé 8 bits. Cela n’est valide que lorsqu’il est utilisé dans le cadre d’un type de collection, c’est-à-dire Collection(Edm.Byte). |
| SearchIndexAlias |
Objet Alias de recherche. |
| SearchIndexerDataIdentity |
Contient les cas possibles pour SearchIndexerDataIdentity. |
| SearchIndexerDataSourceType | |
| SearchIndexerSkill |
Contient les cas possibles pour Compétence. |
| SearchIndexingBufferedSenderDeleteDocumentsOptions |
Options pour SearchIndexingBufferedSenderDeleteDocuments. |
| SearchIndexingBufferedSenderFlushDocumentsOptions |
Options pour SearchIndexingBufferedSenderFlushDocuments. |
| SearchIndexingBufferedSenderMergeDocumentsOptions |
Options pour SearchIndexingBufferedSenderMergeDocuments. |
| SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Options pour SearchIndexingBufferedSenderMergeOrUploadDocuments. |
| SearchIndexingBufferedSenderUploadDocumentsOptions |
Options pour SearchIndexingBufferedSenderUploadDocuments. |
| SearchIterator |
Itérateur pour les résultats de recherche d’une requête paticulaire. Effectue les requêtes en fonction des besoins lors de l’itération. Utilisez .byPage() pour effectuer une requête au serveur par itération. |
| SearchMode |
Spécifie si l’un ou l’ensemble des termes de recherche doivent être mis en correspondance pour que le document soit considéré comme une correspondance. |
| SearchOptions |
Options de validation d’une demande de recherche complète. |
| SearchPick |
Identifiez en profondeur les champs de T à l’aide des chemins d’accès $select OData AI Search valides. |
| SearchRequestOptions |
Paramètres de filtrage, de tri, de facette, de pagination et d’autres comportements de requête de recherche. |
| SearchRequestQueryTypeOptions | |
| SearchResult |
Contient un document trouvé par une requête de recherche, ainsi que les métadonnées associées. |
| SelectFields |
Produit une union de chemins OData $select AI Search valides pour T à l’aide d’une traversée post-ordre de l’arbre de champs enraciné à T. |
| SemanticErrorMode | |
| SemanticErrorReason | |
| SemanticSearchResultsType |
Type de réponse partielle renvoyée pour une demande de classement sémantique. Valeurs connues prises en charge par le service
baseResults : Résultats sans enrichissement sémantique ni reclassement. |
| SentimentSkillLanguage |
Les codes de langue pris en charge pour le texte d’entrée par SentimentSkill. Valeurs connues prises en charge par le service
da : Danois |
| Similarity |
Alias pour SimilarityAlgorithmUnion |
| SimilarityAlgorithm |
Contient les cas possibles pour similarité. |
| SnowballTokenFilterLanguage |
Langue à utiliser pour un filtre de jeton Snowball. |
| SplitSkillLanguage | |
| StemmerTokenFilterLanguage |
Langue à utiliser pour un filtre de jeton de type dérivé. |
| StopwordsList |
Identifie une liste prédéfinie de mots vides spécifiques à la langue. |
| SuggestNarrowedModel | |
| SuggestOptions |
Options de récupération des suggestions basées sur searchText. |
| SuggestResult |
Résultat contenant un document trouvé par une requête de suggestion, ainsi que des métadonnées associées. |
| TextSplitMode | |
| TextTranslationSkillLanguage | |
| TokenCharacterKind |
Représente les classes de caractères sur lesquelles un filtre de jeton peut fonctionner. |
| TokenFilter |
Contient les cas possibles pour TokenFilter. |
| TokenFilterName |
Définit les noms de tous les filtres de jetons pris en charge par le moteur de recherche. Valeurs connues prises en charge par le service
arabic_normalization: filtre de jeton qui applique le normaliseur arabe pour normaliser l’orthographie. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
| UnionToIntersection | |
| UploadDocumentsOptions |
Options pour l’opération de chargement de documents. |
| VectorEncodingFormat |
Format d’encodage pour l’interprétation du contenu des champs vectoriels. Valeurs connues prises en charge par le servicepackedBit: format d’encodage représentant les bits emballés dans un type de données plus large. |
| VectorFilterMode | |
| VectorQuery |
Paramètres de requête pour les requêtes de recherche vectorielle et hybride. |
| VectorQueryKind | |
| VectorSearchAlgorithmConfiguration |
Contient des options de configuration spécifiques à l’algorithme utilisé pendant l’indexation et/ou l’interrogation. |
| VectorSearchAlgorithmKind | |
| VectorSearchAlgorithmMetric | |
| VectorSearchCompression |
Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation. |
| VectorSearchCompressionKind |
Méthode de compression utilisée pour l’indexation et l’interrogation. Valeurs connues prises en charge par le service
scalaireQuantization: Quantization Scalar, type de méthode de compression. Dans la quantisation scalaire, les valeurs de vecteurs d’origine sont compressées dans un type plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide d’un ensemble réduit de valeurs quantifiées, réduisant ainsi la taille globale des données. |
| VectorSearchCompressionRescoreStorageMethod |
Méthode de stockage des vecteurs de précision complète d’origine utilisés pour la réévaluation et les opérations d’index internes. Valeurs connues prises en charge par le service
preserveOriginals : cette option conserve les vecteurs originaux de pleine précision. Choisissez cette option pour une flexibilité maximale et une qualité optimale des résultats de recherche compressés. Cela consomme davantage de stockage, mais permet de rescoring et de suréchantillonnement. |
| VectorSearchCompressionTarget |
Type de données quantifiées des valeurs vectorielles compressées. Valeurs connues prises en charge par le serviceint8 : entier signé 8 bits. |
| VectorSearchVectorizer |
Contient des options de configuration sur la façon de vectoriser des requêtes vectorielles de texte. |
| VectorSearchVectorizerKind |
Méthode de vectorisation à utiliser au moment de la requête. Valeurs connues prises en charge par le service
azureOpenAI: générer des incorporations à l’aide d’une ressource Azure OpenAI au moment de la requête. |
| VisualFeature | |
| WebApiSkills | |
Énumérations
| KnownAIFoundryModelCatalogName |
Le nom du modèle d’embedding tiré du catalogue Azure AI Foundry qui sera appelé. |
| KnownAnalyzerNames |
Définit des valeurs pour AnalyzerName. Voir https://learn.microsoft.com/rest/api/searchservice/Language-support |
| KnownAzureOpenAIModelName |
Nom du modèle Azure Open AI qui sera appelé. |
| KnownBlobIndexerDataToExtract |
Spécifie les données à extraire du stockage d’objets blob Azure et indique à l’indexeur les données à extraire du contenu de l’image lorsque « imageAction » est défini sur une valeur autre que « none ». Cela s’applique au contenu d’image incorporé dans un .PDF ou une autre application, ou aux fichiers image tels que .jpg et .png, dans les objets blob Azure. |
| KnownBlobIndexerImageAction |
Détermine comment traiter les images incorporées et les fichiers image dans le stockage d’objets blob Azure. La définition de la configuration « imageAction » sur une valeur autre que « none » nécessite qu’un ensemble de compétences soit également attaché à cet indexeur. |
| KnownBlobIndexerPDFTextRotationAlgorithm |
Détermine l’algorithme d’extraction de texte à partir de fichiers PDF dans le stockage d’objets blob Azure. |
| KnownBlobIndexerParsingMode |
Représente le mode d’analyse pour l’indexation à partir d’une source de données d’objet blob Azure. |
| KnownCharFilterNames |
Définit des valeurs pour CharFilterName. |
| KnownChatCompletionExtraParametersBehavior |
Précise comment « extraParamètres » doit être géré par Azure AI Foundry. La valeur par défaut est 'error'. |
| KnownChatCompletionResponseFormatType |
Spécifie comment le LLM doit formater la réponse. |
| KnownContentUnderstandingSkillChunkingUnit |
Contrôle la cardinalité de l’unité de segmentation. La valeur par défaut est 'caractères' |
| KnownContentUnderstandingSkillExtractionOptions |
Contrôle la cardinalité du contenu extrait du document par la compétence. |
| KnownCustomEntityLookupSkillLanguage |
Codes de langue pris en charge pour le texte d’entrée par CustomEntityLookupSkill. |
| KnownDocumentIntelligenceLayoutSkillChunkingUnit |
Contrôle la cardinalité de l’unité de segmentation. La valeur par défaut est 'caractères' |
| KnownDocumentIntelligenceLayoutSkillExtractionOptions |
Contrôle la cardinalité du contenu extrait du document par la compétence. |
| KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Profondeur des en-têtes dans la sortie markdown. La valeur par défaut est h6. |
| KnownDocumentIntelligenceLayoutSkillOutputFormat |
Contrôle la cardinalité du format de sortie. La valeur par défaut est 'markdown'. |
| KnownDocumentIntelligenceLayoutSkillOutputMode |
Contrôle la cardinalité de la sortie produite par la compétence. La valeur par défaut est « oneToMany ». |
| KnownEntityCategory |
Chaîne indiquant les catégories d’entités à renvoyer. |
| KnownEntityRecognitionSkillLanguage |
Codes de langue pris en charge pour le texte d’entrée par EntityRecognitionSkill. |
| KnownImageAnalysisSkillLanguage |
Codes de langue pris en charge pour l’entrée par ImageAnalysisSkill. |
| KnownImageDetail |
Chaîne indiquant les détails spécifiques au domaine à retourner. |
| KnownIndexProjectionMode |
Définit le comportement des projections d’index par rapport au reste de l’indexeur. |
| KnownIndexerExecutionEnvironment |
Spécifie l’environnement dans lequel l’indexeur doit s’exécuter. |
| KnownIndexerResyncOption |
Options avec différents types de données d’autorisation à indexer. |
| KnownKeyPhraseExtractionSkillLanguage |
Codes de langue pris en charge pour le texte d’entrée par KeyPhraseExtractionSkill. |
| KnownKnowledgeBaseModelKind |
Le modèle d’IA à utiliser pour la planification des requêtes. |
| KnownKnowledgeSourceKind |
Le type de source de connaissance. |
| KnownLexicalAnalyzerName |
Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche. |
| KnownLexicalNormalizerName |
Définit les noms de tous les normaliseurs de texte pris en charge par le moteur de recherche. |
| KnownMarkdownHeaderDepth |
Spécifie la profondeur d’en-tête maximale qui sera prise en compte lors du regroupement du contenu Markdown. La valeur par défaut est |
| KnownMarkdownParsingSubmode |
Spécifie le sous-mode qui déterminera si un fichier Markdown sera analysé en un seul document de recherche ou en plusieurs documents de recherche. La valeur par défaut est |
| KnownOcrLineEnding |
Définit la séquence de caractères à utiliser entre les lignes de texte reconnues par la compétence OCR. La valeur par défaut est « espace ». |
| KnownOcrSkillLanguage |
Les codes de langue pris en charge pour la saisie par OcrSkill. |
| KnownPIIDetectionSkillMaskingMode |
Chaîne indiquant le mode de masquage à utiliser pour masquer les informations personnelles détectées dans le texte d’entrée. |
| KnownQueryDebugMode |
Active un outil de débogage qui peut être utilisé pour explorer davantage vos résultats de recherche. Vous pouvez activer plusieurs modes de débogage simultanément en les séparant par un | caractère, par exemple : semantic|queryRewrites. |
| KnownRankingOrder |
Représente le score à utiliser pour l’ordre de tri des documents. |
| KnownRegexFlags |
Définit un drapeau d’expression régulière pouvant être utilisé dans l’analyseur de motifs et le tokeniseur de patterns. |
| KnownSearchAudience |
Valeurs connues pour l’audience de recherche |
| KnownSearchFieldDataType |
Définit le type de données d’un champ dans un index de recherche. |
| KnownSearchIndexerDataSourceType |
Définit le type d’une source de données. |
| KnownSemanticErrorMode |
Permet à l’utilisateur de choisir si un appel sémantique doit échouer complètement ou de retourner des résultats partiels. |
| KnownSemanticErrorReason |
Raison pour laquelle une réponse partielle a été renvoyée pour une demande de classement sémantique. |
| KnownSemanticSearchResultsType |
Type de réponse partielle renvoyée pour une demande de classement sémantique. |
| KnownSentimentSkillLanguage |
Les codes de langue pris en charge pour le texte d’entrée par SentimentSkill. |
| KnownSplitSkillLanguage |
Les codes de langue pris en charge pour le texte d’entrée par SplitSkill. |
| KnownTextSplitMode |
Valeur indiquant le mode fractionné à effectuer. |
| KnownTextTranslationSkillLanguage |
Les codes de langue pris en charge pour le texte d’entrée par TextTranslationSkill. |
| KnownTokenFilterNames |
Définit des valeurs pour TokenFilterName. |
| KnownTokenizerNames |
Définit des valeurs pour TokenizerName. |
| KnownVectorEncodingFormat |
Format d’encodage pour l’interprétation du contenu des champs vectoriels. |
| KnownVectorFilterMode |
Détermine si des filtres sont appliqués avant ou après l’exécution de la recherche vectorielle. |
| KnownVectorQueryKind |
Type de requête vectorielle en cours d’exécution. |
| KnownVectorSearchAlgorithmKind |
Algorithme utilisé pour l’indexation et l’interrogation. |
| KnownVectorSearchAlgorithmMetric |
Métrique de similarité à utiliser pour les comparaisons de vecteurs. Il est recommandé de choisir la même métrique de similarité que celle sur laquelle le modèle d’intégration a été formé. |
| KnownVectorSearchCompressionKind |
Méthode de compression utilisée pour l’indexation et l’interrogation. |
| KnownVectorSearchCompressionRescoreStorageMethod |
Méthode de stockage des vecteurs de précision complète d’origine utilisés pour la réévaluation et les opérations d’index internes. |
| KnownVectorSearchCompressionTarget |
Type de données quantifiées des valeurs vectorielles compressées. |
| KnownVectorSearchVectorizerKind |
Méthode de vectorisation à utiliser au moment de la requête. |
| KnownVisualFeature |
Chaînes indiquant les types de fonctionnalités visuelles à renvoyer. |
Functions
| create |
Méthode d’assistance pour créer un objet SynonymMap. Il s’agit d’une méthode NodeJS uniquement. |
| odata(Template |
Échappe une expression de filtre odata pour éviter les erreurs avec des littéraux de chaîne de guillemets. Exemple d’utilisation :
Pour plus d’informations sur la syntaxe prise en charge, consultez : https://learn.microsoft.com/azure/search/search-query-odata-filter |
Variables
| DEFAULT_BATCH_SIZE | Taille par défaut du lot |
| DEFAULT_FLUSH_WINDOW | Intervalle de flush par défaut de fenêtre |
| DEFAULT_RETRY_COUNT | Nombre par défaut de réessayages. |
Informations relatives à la fonction
createSynonymMapFromFile(string, string)
Méthode d’assistance pour créer un objet SynonymMap. Il s’agit d’une méthode NodeJS uniquement.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Paramètres
- name
-
string
Nom du SynonymMap.
- filePath
-
string
Chemin d’accès du fichier qui contient les synonymes (séparés par de nouvelles lignes)
Retours
Promise<SynonymMap>
Objet SynonymMap
odata(TemplateStringsArray, unknown[])
Échappe une expression de filtre odata pour éviter les erreurs avec des littéraux de chaîne de guillemets. Exemple d’utilisation :
import { odata } from "@azure/search-documents";
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Pour plus d’informations sur la syntaxe prise en charge, consultez : https://learn.microsoft.com/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Paramètres
- strings
-
TemplateStringsArray
Tableau de chaînes pour l’expression
- values
-
unknown[]
Tableau de valeurs pour l’expression
Retours
string
Détails de variable
DEFAULT_BATCH_SIZE
Taille par défaut du lot
DEFAULT_BATCH_SIZE: number
Type
number
DEFAULT_FLUSH_WINDOW
Intervalle de flush par défaut de fenêtre
DEFAULT_FLUSH_WINDOW: number
Type
number
DEFAULT_RETRY_COUNT
Nombre par défaut de réessayages.
DEFAULT_RETRY_COUNT: number
Type
number