Indexes - Create
Crée un index de recherche.
POST {endpoint}/indexes?api-version=2024-07-01
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
endpoint
|
path | True |
string |
URL du point de terminaison du service de recherche. |
api-version
|
query | True |
string |
Version de l’API cliente. |
En-tête de la demande
Nom | Obligatoire | Type | Description |
---|---|---|---|
x-ms-client-request-id |
string uuid |
ID de suivi envoyé avec la demande pour faciliter le débogage. |
Corps de la demande
Nom | Obligatoire | Type | Description |
---|---|---|---|
fields | True |
Champs de l’index. |
|
name | True |
string |
Nom de l’index. |
@odata.etag |
string |
ETag de l’index. |
|
analyzers | LexicalAnalyzer[]: |
Analyseurs de l’index. |
|
charFilters | CharFilter[]: |
Filtres de caractères pour l’index. |
|
corsOptions |
Options permettant de contrôler le partage de ressources cross-origin (CORS) pour l’index. |
||
defaultScoringProfile |
string |
Nom du profil de scoring à utiliser si aucune n’est spécifiée dans la requête. Si cette propriété n’est pas définie et qu’aucun profil de scoring n’est spécifié dans la requête, le scoring par défaut (tf-idf) est utilisé. |
|
encryptionKey |
Description d’une clé de chiffrement que vous créez dans Azure Key Vault. Cette clé est utilisée pour fournir un niveau supplémentaire de chiffrement au repos pour vos données lorsque vous souhaitez une assurance totale que personne, même Microsoft, ne peut déchiffrer vos données. Une fois que vous avez chiffré vos données, elles restent toujours chiffrées. Le service de recherche ignore les tentatives de définition de cette propriété sur Null. Vous pouvez modifier cette propriété si nécessaire si vous souhaitez faire pivoter votre clé de chiffrement ; Vos données ne seront pas affectées. Le chiffrement avec des clés gérées par le client n’est pas disponible pour les services de recherche gratuits et n’est disponible que pour les services payants créés le 1er janvier 2019. |
||
scoringProfiles |
Profils de scoring pour l’index. |
||
semantic |
Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques. |
||
similarity | Similarity: |
Type d’algorithme de similarité à utiliser lors du scoring et du classement des documents correspondant à une requête de recherche. L’algorithme de similarité ne peut être défini qu’au moment de la création d’index et ne peut pas être modifié sur les index existants. Si la valeur est Null, l’algorithme ClassicSimilarity est utilisé. |
|
suggesters |
Suggesteurs pour l’index. |
||
tokenFilters |
TokenFilter[]:
|
Le jeton filtre l’index. |
|
tokenizers | LexicalTokenizer[]: |
Les tokenizers de l’index. |
|
vectorSearch |
Contient des options de configuration liées à la recherche vectorielle. |
Réponses
Nom | Type | Description |
---|---|---|
201 Created | ||
Other Status Codes |
Réponse d’erreur. |
Exemples
SearchServiceCreateIndex
Exemple de requête
POST https://myservice.search.windows.net/indexes?api-version=2024-07-01
{
"name": "hotels",
"fields": [
{
"name": "hotelId",
"type": "Edm.String",
"key": true,
"searchable": false
},
{
"name": "baseRate",
"type": "Edm.Double"
},
{
"name": "description",
"type": "Edm.String",
"filterable": false,
"sortable": false,
"facetable": false
},
{
"name": "descriptionEmbedding",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": [],
"dimensions": 1536,
"vectorSearchProfile": "myHnswSQProfile"
},
{
"name": "descriptionEmbedding_notstored",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": false,
"stored": false,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": [],
"dimensions": 1536,
"vectorSearchProfile": "myHnswSQProfile"
},
{
"name": "descriptionEmbedding_forBQ",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": [],
"dimensions": 1536,
"vectorSearchProfile": "myHnswBQProfile"
},
{
"name": "description_fr",
"type": "Edm.String",
"filterable": false,
"sortable": false,
"facetable": false,
"analyzer": "fr.lucene"
},
{
"name": "hotelName",
"type": "Edm.String"
},
{
"name": "nameEmbedding",
"type": "Collection(Edm.Half)",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": [],
"dimensions": 1536,
"vectorSearchProfile": "myHnswProfile"
},
{
"name": "category",
"type": "Edm.String"
},
{
"name": "tags",
"type": "Collection(Edm.String)",
"analyzer": "tagsAnalyzer"
},
{
"name": "parkingIncluded",
"type": "Edm.Boolean"
},
{
"name": "smokingAllowed",
"type": "Edm.Boolean"
},
{
"name": "lastRenovationDate",
"type": "Edm.DateTimeOffset"
},
{
"name": "rating",
"type": "Edm.Int32"
},
{
"name": "location",
"type": "Edm.GeographyPoint"
}
],
"scoringProfiles": [
{
"name": "geo",
"text": {
"weights": {
"hotelName": 5
}
},
"functions": [
{
"type": "distance",
"boost": 5,
"fieldName": "location",
"interpolation": "logarithmic",
"distance": {
"referencePointParameter": "currentLocation",
"boostingDistance": 10
}
}
]
}
],
"defaultScoringProfile": "geo",
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"hotelName"
]
}
],
"analyzers": [
{
"name": "tagsAnalyzer",
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"charFilters": [
"html_strip"
],
"tokenizer": "standard_v2"
}
],
"corsOptions": {
"allowedOrigins": [
"tempuri.org"
],
"maxAgeInSeconds": 60
},
"encryptionKey": {
"keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
"keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
"keyVaultUri": "https://myKeyVault.vault.azure.net",
"accessCredentials": {
"applicationId": "00000000-0000-0000-0000-000000000000",
"applicationSecret": "<applicationSecret>"
}
},
"similarity": {
"@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
"b": 0.5,
"k1": 1.3
},
"semantic": {
"configurations": [
{
"name": "semanticHotels",
"prioritizedFields": {
"titleField": {
"fieldName": "hotelName"
},
"prioritizedContentFields": [
{
"fieldName": "description"
},
{
"fieldName": "description_fr"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "tags"
},
{
"fieldName": "category"
}
]
}
}
]
},
"vectorSearch": {
"profiles": [
{
"name": "myHnswProfile",
"algorithm": "myHnsw"
},
{
"name": "myHnswSQProfile",
"algorithm": "myHnsw",
"compression": "mySQ8"
},
{
"name": "myHnswBQProfile",
"algorithm": "myHnsw",
"compression": "myBQ"
},
{
"name": "myAlgorithm",
"algorithm": "myExhaustive"
}
],
"algorithms": [
{
"name": "myHnsw",
"kind": "hnsw",
"hnswParameters": {
"m": 4,
"metric": "cosine"
}
},
{
"name": "myExhaustive",
"kind": "exhaustiveKnn",
"exhaustiveKnnParameters": {
"metric": "cosine"
}
}
],
"compressions": [
{
"name": "mySQ8",
"kind": "scalarQuantization",
"scalarQuantizationParameters": {
"quantizedDataType": "int8"
},
"rerankWithOriginalVectors": true,
"defaultOversampling": 10
},
{
"name": "myBQ",
"kind": "binaryQuantization",
"rerankWithOriginalVectors": true,
"defaultOversampling": 10
}
]
}
}
Exemple de réponse
{
"name": "hotels",
"fields": [
{
"name": "hotelId",
"type": "Edm.String",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": true,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "baseRate",
"type": "Edm.Double",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "description",
"type": "Edm.String",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "descriptionEmbedding",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": 1536,
"vectorSearchProfile": "myHnswSQProfile",
"synonymMaps": []
},
{
"name": "descriptionEmbedding_notstored",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": false,
"stored": false,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": [],
"dimensions": 1536,
"vectorSearchProfile": "myHnswSQProfile"
},
{
"name": "descriptionEmbedding_forBQ",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": 1536,
"vectorSearchProfile": "myHnswBQProfile",
"synonymMaps": []
},
{
"name": "description_fr",
"type": "Edm.String",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": "fr.lucene",
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "hotelName",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "nameEmbedding",
"type": "Collection(Edm.Half)",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": 1536,
"vectorSearchProfile": "myHnswProfile",
"synonymMaps": []
},
{
"name": "category",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "tags",
"type": "Collection(Edm.String)",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": false,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": "tagsAnalyzer",
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "parkingIncluded",
"type": "Edm.Boolean",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "smokingAllowed",
"type": "Edm.Boolean",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "lastRenovationDate",
"type": "Edm.DateTimeOffset",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "rating",
"type": "Edm.Int32",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "location",
"type": "Edm.GeographyPoint",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
}
],
"scoringProfiles": [
{
"name": "geo",
"functionAggregation": "sum",
"text": {
"weights": {
"hotelName": 5
}
},
"functions": [
{
"fieldName": "location",
"interpolation": "logarithmic",
"type": "distance",
"boost": 5,
"distance": {
"referencePointParameter": "currentLocation",
"boostingDistance": 10
}
}
]
}
],
"defaultScoringProfile": "geo",
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"hotelName"
]
}
],
"analyzers": [
{
"name": "tagsAnalyzer",
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"charFilters": [
"html_strip"
],
"tokenFilters": [],
"tokenizer": "standard_v2"
}
],
"tokenizers": [],
"tokenFilters": [],
"charFilters": [],
"corsOptions": {
"allowedOrigins": [
"tempuri.org"
],
"maxAgeInSeconds": 60
},
"encryptionKey": {
"keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
"keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
"keyVaultUri": "https://myKeyVault.vault.azure.net",
"accessCredentials": {
"applicationId": "00000000-0000-0000-0000-000000000000",
"applicationSecret": null
}
},
"similarity": {
"@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
"b": 0.5,
"k1": 1.3
},
"semantic": {
"configurations": [
{
"name": "semanticHotels",
"prioritizedFields": {
"titleField": {
"fieldName": "hotelName"
},
"prioritizedContentFields": [
{
"fieldName": "description"
},
{
"fieldName": "description_fr"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "tags"
},
{
"fieldName": "category"
}
]
}
}
]
},
"vectorSearch": {
"algorithms": [
{
"name": "myHnsw",
"kind": "hnsw",
"hnswParameters": {
"metric": "cosine",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "myExhaustive",
"kind": "exhaustiveKnn",
"exhaustiveKnnParameters": {
"metric": "cosine"
}
}
],
"profiles": [
{
"name": "myHnswProfile",
"algorithm": "myHnsw"
},
{
"name": "myHnswSQProfile",
"algorithm": "myHnsw",
"compression": "mySQ8"
},
{
"name": "myHnswBQProfile",
"algorithm": "myHnsw",
"vectorizer": "myOpenAi",
"compression": "myBQ"
},
{
"name": "myAlgorithm",
"algorithm": "myExhaustive"
}
],
"compressions": [
{
"name": "mySQ8",
"kind": "scalarQuantization",
"scalarQuantizationParameters": {
"quantizedDataType": "int8"
},
"rerankWithOriginalVectors": true,
"defaultOversampling": 10
},
{
"name": "myBQ",
"kind": "binaryQuantization",
"rerankWithOriginalVectors": true,
"defaultOversampling": 10
}
]
}
}
Définitions
Nom | Description |
---|---|
Ascii |
Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Azure |
Informations d’identification d’une application inscrite créée pour votre service de recherche, utilisée pour l’accès authentifié aux clés de chiffrement stockées dans Azure Key Vault. |
Azure |
Vous permet de générer un incorporation vectorielle pour une entrée de texte donnée à l’aide de la ressource Azure OpenAI. |
Azure |
Nom du modèle Azure Open AI qui sera appelé. |
Azure |
Spécifie les paramètres de connexion à la ressource Azure OpenAI. |
Azure |
Spécifie la ressource Azure OpenAI utilisée pour vectoriser une chaîne de requête. |
Binary |
Contient des options de configuration spécifiques à la méthode de compression de quantisation binaire utilisée lors de l’indexation et de l’interrogation. |
BM25Similarity |
Fonction de classement basée sur l’algorithme de similarité OKapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de longueur (contrôlée par le paramètre « b ») ainsi que la saturation de fréquence de terme (contrôlée par le paramètre « k1 »). |
Char |
Définit les noms de tous les filtres de caractères pris en charge par le moteur de recherche. |
Cjk |
Forme des bigrams de termes CJK générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Cjk |
Scripts qui peuvent être ignorés par CjkBigramTokenFilter. |
Classic |
Algorithme de similarité hérité qui utilise l’implémentation lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation de longueur de document statique ainsi que les facteurs de coordination qui pénalisent les documents qui ne correspondent qu’en partie aux requêtes recherchées. |
Classic |
Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
Common |
Construisez des bigrams pour des termes fréquents lors de l’indexation. Les termes uniques sont toujours indexés, avec des bigrams superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Cors |
Définit les options permettant de contrôler le partage de ressources cross-origin (CORS) pour un index. |
Custom |
Vous permet de contrôler le processus de conversion de texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul tokenizer prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres pour modifier les jetons émis par le tokenizer. |
Dictionary |
Décompose les mots composés trouvés dans de nombreuses langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Distance |
Définit une fonction qui améliore les scores en fonction de la distance d’un emplacement géographique. |
Distance |
Fournit des valeurs de paramètre à une fonction de scoring de distance. |
Edge |
Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Edge |
Spécifie le côté de l’entrée à partir duquel un n-grammes doit être généré. |
Edge |
Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Edge |
Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
Elision |
Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Error |
Informations supplémentaires sur l’erreur de gestion des ressources. |
Error |
Détail de l’erreur. |
Error |
Réponse d’erreur |
Exhaustive |
Contient les paramètres spécifiques à l’algorithme KNN exhaustif. |
Exhaustive |
Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche par force brute sur l’index vectoriel entier. |
Freshness |
Définit une fonction qui améliore les scores en fonction de la valeur d’un champ date-heure. |
Freshness |
Fournit des valeurs de paramètre à une fonction de scoring d’actualisation. |
Hnsw |
Contient les paramètres spécifiques à l’algorithme HNSW. |
Hnsw |
Contient des options de configuration spécifiques à l’algorithme HNSW le plus proche utilisé lors de l’indexation et de l’interrogation. L’algorithme HNSW offre un compromis entre la vitesse de recherche et la précision. |
Input |
Mappage de champs d’entrée pour une compétence. |
Keep |
Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste spécifiée de mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Keyword |
Marque les termes en tant que mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Keyword |
Émet l’entrée entière sous forme de jeton unique. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
Keyword |
Émet l’entrée entière sous forme de jeton unique. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
Length |
Supprime les mots trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Lexical |
Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche. |
Lexical |
Définit les noms de tous les tokenizers pris en charge par le moteur de recherche. |
Limit |
Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Lucene |
Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt. |
Lucene |
Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
Lucene |
Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
Magnitude |
Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique. |
Magnitude |
Fournit des valeurs de paramètre à une fonction de scoring de magnitude. |
Mapping |
Filtre de caractères qui applique les mappages définis avec l’option mappages. La correspondance est gourmande (la correspondance la plus longue à un point donné gagne). Le remplacement est autorisé à être la chaîne vide. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene. |
Microsoft |
Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leurs formulaires de base. |
Microsoft |
Divise le texte à l’aide de règles spécifiques à la langue. |
Microsoft |
Répertorie les langues prises en charge par le générateur de jetons de recherche de clé de recherche de la langue Microsoft. |
Microsoft |
Répertorie les langues prises en charge par le générateur de jetons de langue Microsoft. |
NGram |
Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
NGram |
Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
NGram |
Tokenise l’entrée en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
Output |
Mappage de champs de sortie pour une compétence. |
Path |
Tokenizer pour les hiérarchies similaires au chemin d’accès. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
Pattern |
Sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene. |
Pattern |
Utilise des regex Java pour émettre plusieurs jetons : un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Pattern |
Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene. |
Pattern |
Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Pattern |
Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
Phonetic |
Identifie le type d’encodeur phonétique à utiliser avec un PhoneticTokenFilter. |
Phonetic |
Créez des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Prioritized |
Décrit les champs de titre, de contenu et de mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. |
Regex |
Définit des indicateurs qui peuvent être combinés pour contrôler la façon dont les expressions régulières sont utilisées dans l’analyseur de modèle et le générateur de jetons de modèle. |
Scalar |
Contient les paramètres spécifiques à la quantisation scalaire. |
Scalar |
Contient des options de configuration spécifiques à la méthode de compression de quantisation scalaire utilisée lors de l’indexation et de l’interrogation. |
Scoring |
Définit la fonction d’agrégation utilisée pour combiner les résultats de toutes les fonctions de scoring dans un profil de scoring. |
Scoring |
Définit la fonction utilisée pour interpoler l’amélioration du score sur une plage de documents. |
Scoring |
Définit des paramètres pour un index de recherche qui influencent le scoring dans les requêtes de recherche. |
Search |
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ. |
Search |
Définit le type de données d’un champ dans un index de recherche. |
Search |
Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index. |
Search |
Efface la propriété d’identité d’une source de données. |
Search |
Spécifie l’identité d’une source de données à utiliser. |
Search |
Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos, telles que des index et des mappages de synonymes. |
Semantic |
Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques. |
Semantic |
Champ utilisé dans le cadre de la configuration sémantique. |
Semantic |
Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques. |
Shingle |
Crée des combinaisons de jetons en tant que jeton unique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Snowball |
Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Snowball |
Langue à utiliser pour un filtre de jeton Snowball. |
Stemmer |
Fournit la possibilité de remplacer d’autres filtres de recherche de recherche par recherche de données personnalisées basées sur des dictionnaires. Tous les termes liés aux dictionnaires seront marqués comme des mots clés afin qu’ils ne soient pas suivis de formes dérivées dans la chaîne. Doit être placé avant les filtres de recherche de recherche. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Stemmer |
Filtre de recherche de recherche spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Stemmer |
Langage à utiliser pour un filtre de jeton de type stemmer. |
Stop |
Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene. |
Stopwords |
Identifie une liste prédéfinie de mots vides spécifiques à la langue. |
Stopwords |
Supprime les mots d’arrêt d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Suggester |
Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index. |
Suggester |
Valeur indiquant les fonctionnalités de l’suggesteur. |
Synonym |
Correspond aux synonymes à mot unique ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Tag |
Définit une fonction qui améliore les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises. |
Tag |
Fournit des valeurs de paramètre à une fonction de scoring d’étiquette. |
Text |
Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche. |
Token |
Représente des classes de caractères sur lesquelles un filtre de jeton peut fonctionner. |
Token |
Définit les noms de tous les filtres de jetons pris en charge par le moteur de recherche. |
Truncate |
Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Uax |
Tokenise les URL et les e-mails sous la forme d’un seul jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene. |
Unique |
Filtre les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
Vector |
Format d’encodage pour interpréter le contenu du champ vectoriel. |
Vector |
Contient des options de configuration liées à la recherche vectorielle. |
Vector |
Algorithme utilisé pour l’indexation et l’interrogation. |
Vector |
Métrique de similarité à utiliser pour les comparaisons de vecteurs. Il est recommandé de choisir la même métrique de similarité que le modèle d’incorporation a été entraîné. |
Vector |
Méthode de compression utilisée pour l’indexation et l’interrogation. |
Vector |
Type de données quantifié de valeurs vectorielles compressées. |
Vector |
Définit une combinaison de configurations à utiliser avec la recherche vectorielle. |
Vector |
Méthode de vectorisation à utiliser pendant le temps de requête. |
Web |
Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur. |
Web |
Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est obtenue à l’aide de l’interface d’API Web personnalisée d’un ensemble de compétences. |
Word |
Fractionne les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene. |
AsciiFoldingTokenFilter
Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
preserveOriginal |
boolean |
False |
Valeur indiquant si le jeton d’origine sera conservé. La valeur par défaut est false. |
AzureActiveDirectoryApplicationCredentials
Informations d’identification d’une application inscrite créée pour votre service de recherche, utilisée pour l’accès authentifié aux clés de chiffrement stockées dans Azure Key Vault.
Nom | Type | Description |
---|---|---|
applicationId |
string |
ID d’application AAD qui a reçu les autorisations d’accès requises au coffre de clés Azure à utiliser lors du chiffrement de vos données au repos. L’ID d’application ne doit pas être confondu avec l’ID d’objet de votre application AAD. |
applicationSecret |
string |
Clé d’authentification de l’application AAD spécifiée. |
AzureOpenAIEmbeddingSkill
Vous permet de générer un incorporation vectorielle pour une entrée de texte donnée à l’aide de la ressource Azure OpenAI.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de compétence. |
apiKey |
string |
Clé API de la ressource Azure OpenAI désignée. |
authIdentity | SearchIndexerDataIdentity: |
Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes. |
context |
string |
Représente le niveau auquel les opérations se produisent, telles que la racine du document ou le contenu du document (par exemple, /document ou /document/content). La valeur par défaut est /document. |
deploymentId |
string |
ID du déploiement du modèle Azure OpenAI sur la ressource désignée. |
description |
string |
Description de la compétence qui décrit les entrées, sorties et utilisation de la compétence. |
dimensions |
integer |
Nombre de dimensions dont les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieur. |
inputs |
Les entrées des compétences peuvent être une colonne dans le jeu de données source ou la sortie d’une compétence en amont. |
|
modelName |
Nom du modèle d’incorporation déployé sur le chemin d’accès deploymentId fourni. |
|
name |
string |
Nom de la compétence qui l’identifie de manière unique dans l’ensemble de compétences. Une compétence sans nom défini reçoit un nom par défaut de son index basé sur 1 dans le tableau de compétences, précédé du caractère « # ». |
outputs |
La sortie d’une compétence est soit un champ dans un index de recherche, soit une valeur qui peut être consommée comme entrée par une autre compétence. |
|
resourceUri |
string |
URI de ressource de la ressource Azure OpenAI. |
AzureOpenAIModelName
Nom du modèle Azure Open AI qui sera appelé.
Nom | Type | Description |
---|---|---|
text-embedding-3-large |
string |
|
text-embedding-3-small |
string |
|
text-embedding-ada-002 |
string |
AzureOpenAIParameters
Spécifie les paramètres de connexion à la ressource Azure OpenAI.
Nom | Type | Description |
---|---|---|
apiKey |
string |
Clé API de la ressource Azure OpenAI désignée. |
authIdentity | SearchIndexerDataIdentity: |
Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes. |
deploymentId |
string |
ID du déploiement du modèle Azure OpenAI sur la ressource désignée. |
modelName |
Nom du modèle d’incorporation déployé sur le chemin d’accès deploymentId fourni. |
|
resourceUri |
string |
URI de ressource de la ressource Azure OpenAI. |
AzureOpenAIVectorizer
Spécifie la ressource Azure OpenAI utilisée pour vectoriser une chaîne de requête.
Nom | Type | Description |
---|---|---|
azureOpenAIParameters | AzureOpenAIParameters: |
Contient les paramètres spécifiques à la vectorisation incorporée Azure OpenAI. |
kind |
string:
azure |
Nom du type de méthode de vectorisation configuré pour une utilisation avec la recherche vectorielle. |
name |
string |
Nom à associer à cette méthode de vectorisation particulière. |
BinaryQuantizationVectorSearchCompressionConfiguration
Contient des options de configuration spécifiques à la méthode de compression de quantisation binaire utilisée lors de l’indexation et de l’interrogation.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
defaultOversampling |
number |
Facteur de surachantillonnage par défaut. Le surachantage demande en interne davantage de documents (spécifiés par ce multiplicateur) dans la recherche initiale. Cela augmente l’ensemble des résultats qui seront reclassés à l’aide de scores de similarité reputés à partir de vecteurs de précision complète. La valeur minimale est 1, ce qui signifie qu’aucun suréchantillonnage (1x). Ce paramètre ne peut être défini que lorsque rerankWithOriginalVectors a la valeur true. Les valeurs plus élevées améliorent le rappel au détriment de la latence. |
|
kind |
string:
binary |
Nom du type de méthode de compression configuré pour une utilisation avec la recherche vectorielle. |
|
name |
string |
Nom à associer à cette configuration particulière. |
|
rerankWithOriginalVectors |
boolean |
True |
Si la valeur est true, une fois que l’ensemble ordonné de résultats calculés à l’aide de vecteurs compressés est obtenu, ils seront reclassés en recalculant les scores de similarité de précision complète. Cela permettra d’améliorer le rappel au détriment de la latence. |
BM25Similarity
Fonction de classement basée sur l’algorithme de similarité OKapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de longueur (contrôlée par le paramètre « b ») ainsi que la saturation de fréquence de terme (contrôlée par le paramètre « k1 »).
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
|
b |
number |
Cette propriété contrôle la façon dont la longueur d’un document affecte le score de pertinence. Par défaut, une valeur de 0,75 est utilisée. La valeur 0,0 signifie qu’aucune normalisation de longueur n’est appliquée, tandis qu’une valeur de 1,0 signifie que le score est entièrement normalisé par la longueur du document. |
k1 |
number |
Cette propriété contrôle la fonction de mise à l’échelle entre la fréquence de terme de chaque terme correspondant et le score de pertinence final d’une paire document-requête. Par défaut, une valeur de 1.2 est utilisée. La valeur 0,0 signifie que le score n’est pas mis à l’échelle avec une augmentation de la fréquence de terme. |
CharFilterName
Définit les noms de tous les filtres de caractères pris en charge par le moteur de recherche.
Nom | Type | Description |
---|---|---|
html_strip |
string |
Filtre de caractères qui tente de supprimer les constructions HTML. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilter
Forme des bigrams de termes CJK générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
ignoreScripts |
Scripts à ignorer. |
||
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
outputUnigrams |
boolean |
False |
Valeur indiquant s’il faut générer à la fois des unigrammes et des bigrams (si true) ou simplement des bigrams (si false). La valeur par défaut est false. |
CjkBigramTokenFilterScripts
Scripts qui peuvent être ignorés par CjkBigramTokenFilter.
Nom | Type | Description |
---|---|---|
han |
string |
Ignorez le script Han lors de la formation de bigrams de termes CJK. |
hangul |
string |
Ignorez le script Hangul lors de la formation de bigrams de termes CJK. |
hiragana |
string |
Ignorez le script Hiragana lors de la formation de bigrams de termes CJK. |
katakana |
string |
Ignorez le script Katakana lors de la formation de bigrams de termes CJK. |
ClassicSimilarity
Algorithme de similarité hérité qui utilise l’implémentation lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation de longueur de document statique ainsi que les facteurs de coordination qui pénalisent les documents qui ne correspondent qu’en partie aux requêtes recherchées.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
ClassicTokenizer
Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de tokenizer. |
|
maxTokenLength |
integer |
255 |
Longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. |
name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
CommonGramTokenFilter
Construisez des bigrams pour des termes fréquents lors de l’indexation. Les termes uniques sont toujours indexés, avec des bigrams superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
commonWords |
string[] |
Ensemble de mots communs. |
|
ignoreCase |
boolean |
False |
Valeur indiquant si les mots communs correspondants ne respectent pas la casse. La valeur par défaut est false. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
queryMode |
boolean |
False |
Valeur qui indique si le filtre de jeton est en mode requête. En mode requête, le filtre de jeton génère des bigrams, puis supprime les mots courants et les termes uniques suivis d’un mot commun. La valeur par défaut est false. |
CorsOptions
Définit les options permettant de contrôler le partage de ressources cross-origin (CORS) pour un index.
Nom | Type | Description |
---|---|---|
allowedOrigins |
string[] |
Liste des origines à partir de laquelle le code JavaScript sera autorisé à accéder à votre index. Peut contenir une liste d’hôtes du formulaire {protocol} ://{nom-domaine-complet}[ :{port#}], ou un seul '*' pour autoriser toutes les origines (non recommandées). |
maxAgeInSeconds |
integer |
Durée pendant laquelle les navigateurs doivent mettre en cache les réponses préliminaires CORS. La valeur par défaut est de 5 minutes. |
CustomAnalyzer
Vous permet de contrôler le processus de conversion de texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul tokenizer prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres pour modifier les jetons émis par le tokenizer.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type d’analyseur. |
charFilters |
Liste des filtres de caractères utilisés pour préparer le texte d’entrée avant qu’il ne soit traité par le tokenizer. Par exemple, ils peuvent remplacer certains caractères ou symboles. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés. |
|
name |
string |
Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
tokenFilters |
Liste des filtres de jetons utilisés pour filtrer ou modifier les jetons générés par un tokenizer. Par exemple, vous pouvez spécifier un filtre en minuscules qui convertit tous les caractères en minuscules. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés. |
|
tokenizer |
Nom du générateur de jetons à utiliser pour diviser le texte continu en une séquence de jetons, par exemple en cassant une phrase en mots. |
DictionaryDecompounderTokenFilter
Décompose les mots composés trouvés dans de nombreuses langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
maxSubwordSize |
integer |
15 |
Taille maximale des sous-mots. Seuls les sous-mots plus courts que celui-ci sont générés. La valeur par défaut est 15. La valeur maximale est de 300. |
minSubwordSize |
integer |
2 |
Taille minimale du sous-mot. Seuls les sous-mots plus longs que ceux-ci sont générés. La valeur par défaut est 2. La valeur maximale est de 300. |
minWordSize |
integer |
5 |
Taille minimale du mot. Seuls les mots plus longs que celui-ci sont traités. La valeur par défaut est 5. La valeur maximale est de 300. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
onlyLongestMatch |
boolean |
False |
Valeur indiquant s’il faut ajouter uniquement le sous-mot correspondant le plus long à la sortie. La valeur par défaut est false. |
wordList |
string[] |
Liste des mots à mettre en correspondance. |
DistanceScoringFunction
Définit une fonction qui améliore les scores en fonction de la distance d’un emplacement géographique.
Nom | Type | Description |
---|---|---|
boost |
number |
Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0. |
distance |
Valeurs de paramètre pour la fonction de scoring de distance. |
|
fieldName |
string |
Nom du champ utilisé comme entrée de la fonction de scoring. |
interpolation |
Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ». |
|
type |
string:
distance |
Indique le type de fonction à utiliser. Les valeurs valides incluent la magnitude, l’actualisation, la distance et la balise. Le type de fonction doit être en minuscules. |
DistanceScoringParameters
Fournit des valeurs de paramètre à une fonction de scoring de distance.
Nom | Type | Description |
---|---|---|
boostingDistance |
number |
Distance en kilomètres de l’emplacement de référence où se termine la plage de boosting. |
referencePointParameter |
string |
Nom du paramètre passé dans les requêtes de recherche pour spécifier l’emplacement de référence. |
EdgeNGramTokenFilter
Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
maxGram |
integer |
2 |
Longueur maximale de n-gramme. La valeur par défaut est 2. |
minGram |
integer |
1 |
Longueur minimale de n-gramme. La valeur par défaut est 1. Doit être inférieur à la valeur de maxGram. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
side | front |
Spécifie le côté de l’entrée à partir duquel le n-grammes doit être généré. La valeur par défaut est « front ». |
EdgeNGramTokenFilterSide
Spécifie le côté de l’entrée à partir duquel un n-grammes doit être généré.
Nom | Type | Description |
---|---|---|
back |
string |
Spécifie que le n-grammes doit être généré à partir de l’arrière de l’entrée. |
front |
string |
Spécifie que le n-grammes doit être généré à partir de l’avant de l’entrée. |
EdgeNGramTokenFilterV2
Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
maxGram |
integer |
2 |
Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300. |
minGram |
integer |
1 |
Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
side | front |
Spécifie le côté de l’entrée à partir duquel le n-grammes doit être généré. La valeur par défaut est « front ». |
EdgeNGramTokenizer
Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de tokenizer. |
|
maxGram |
integer |
2 |
Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300. |
minGram |
integer |
1 |
Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram. |
name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
tokenChars |
Classes de caractères à conserver dans les jetons. |
ElisionTokenFilter
Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
articles |
string[] |
Ensemble d’articles à supprimer. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
ErrorAdditionalInfo
Informations supplémentaires sur l’erreur de gestion des ressources.
Nom | Type | Description |
---|---|---|
info |
object |
Informations supplémentaires. |
type |
string |
Type d’informations supplémentaire. |
ErrorDetail
Détail de l’erreur.
Nom | Type | Description |
---|---|---|
additionalInfo |
Informations supplémentaires sur l’erreur. |
|
code |
string |
Code d’erreur. |
details |
Détails de l’erreur. |
|
message |
string |
Message d’erreur. |
target |
string |
Cible d’erreur. |
ErrorResponse
Réponse d’erreur
Nom | Type | Description |
---|---|---|
error |
Objet d’erreur. |
ExhaustiveKnnParameters
Contient les paramètres spécifiques à l’algorithme KNN exhaustif.
Nom | Type | Description |
---|---|---|
metric |
Métrique de similarité à utiliser pour les comparaisons de vecteurs. |
ExhaustiveKnnVectorSearchAlgorithmConfiguration
Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche par force brute sur l’index vectoriel entier.
Nom | Type | Description |
---|---|---|
exhaustiveKnnParameters |
Contient les paramètres spécifiques à l’algorithme KNN exhaustif. |
|
kind |
string:
exhaustive |
Nom du type d’algorithme configuré pour une utilisation avec la recherche vectorielle. |
name |
string |
Nom à associer à cette configuration particulière. |
FreshnessScoringFunction
Définit une fonction qui améliore les scores en fonction de la valeur d’un champ date-heure.
Nom | Type | Description |
---|---|---|
boost |
number |
Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0. |
fieldName |
string |
Nom du champ utilisé comme entrée de la fonction de scoring. |
freshness |
Valeurs de paramètre pour la fonction de scoring de l’actualisation. |
|
interpolation |
Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ». |
|
type |
string:
freshness |
Indique le type de fonction à utiliser. Les valeurs valides incluent la magnitude, l’actualisation, la distance et la balise. Le type de fonction doit être en minuscules. |
FreshnessScoringParameters
Fournit des valeurs de paramètre à une fonction de scoring d’actualisation.
Nom | Type | Description |
---|---|---|
boostingDuration |
string |
Période d’expiration après laquelle l’amélioration s’arrêtera pour un document particulier. |
HnswParameters
Contient les paramètres spécifiques à l’algorithme HNSW.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
efConstruction |
integer |
400 |
Taille de la liste dynamique contenant les voisins les plus proches, qui est utilisée pendant l’heure d’index. L’augmentation de ce paramètre peut améliorer la qualité de l’index, au détriment de l’augmentation du temps d’indexation. À un certain moment, l’augmentation de ce paramètre entraîne une diminution des retours. |
efSearch |
integer |
500 |
Taille de la liste dynamique contenant les voisins les plus proches, qui est utilisée pendant le temps de recherche. L’augmentation de ce paramètre peut améliorer les résultats de la recherche, au détriment de la recherche plus lente. À un certain moment, l’augmentation de ce paramètre entraîne une diminution des retours. |
m |
integer |
4 |
Nombre de liens bidirectionnels créés pour chaque nouvel élément pendant la construction. L’augmentation de cette valeur de paramètre peut améliorer le rappel et réduire les temps de récupération des jeux de données avec une dimensionnalité intrinsèque élevée au détriment de la consommation de mémoire accrue et du temps d’indexation plus long. |
metric |
Métrique de similarité à utiliser pour les comparaisons de vecteurs. |
HnswVectorSearchAlgorithmConfiguration
Contient des options de configuration spécifiques à l’algorithme HNSW le plus proche utilisé lors de l’indexation et de l’interrogation. L’algorithme HNSW offre un compromis entre la vitesse de recherche et la précision.
Nom | Type | Description |
---|---|---|
hnswParameters |
Contient les paramètres spécifiques à l’algorithme HNSW. |
|
kind |
string:
hnsw |
Nom du type d’algorithme configuré pour une utilisation avec la recherche vectorielle. |
name |
string |
Nom à associer à cette configuration particulière. |
InputFieldMappingEntry
Mappage de champs d’entrée pour une compétence.
Nom | Type | Description |
---|---|---|
inputs |
Entrées récursives utilisées lors de la création d’un type complexe. |
|
name |
string |
Nom de l’entrée. |
source |
string |
Source de l’entrée. |
sourceContext |
string |
Contexte source utilisé pour sélectionner des entrées récursives. |
KeepTokenFilter
Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste spécifiée de mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
keepWords |
string[] |
Liste des mots à conserver. |
|
keepWordsCase |
boolean |
False |
Valeur indiquant s’il faut d’abord mettre en minuscules tous les mots. La valeur par défaut est false. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
KeywordMarkerTokenFilter
Marque les termes en tant que mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
ignoreCase |
boolean |
False |
Valeur indiquant s’il faut ignorer la casse. Si la valeur est true, tous les mots sont convertis en minuscules en premier. La valeur par défaut est false. |
keywords |
string[] |
Liste de mots à marquer comme mots clés. |
|
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
KeywordTokenizer
Émet l’entrée entière sous forme de jeton unique. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de tokenizer. |
|
bufferSize |
integer |
256 |
Taille de mémoire tampon de lecture en octets. La valeur par défaut est 256. |
name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
KeywordTokenizerV2
Émet l’entrée entière sous forme de jeton unique. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de tokenizer. |
|
maxTokenLength |
integer |
256 |
Longueur maximale du jeton. La valeur par défaut est 256. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. |
name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
LengthTokenFilter
Supprime les mots trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
max |
integer |
300 |
Longueur maximale en caractères. La valeur par défaut et la valeur maximale est 300. |
min |
integer |
0 |
Longueur minimale en caractères. La valeur par défaut est 0. La valeur maximale est de 300. Doit être inférieur à la valeur maximale. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
LexicalAnalyzerName
Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche.
Nom | Type | Description |
---|---|---|
ar.lucene |
string |
Analyseur Lucene pour l’arabe. |
ar.microsoft |
string |
Analyseur Microsoft pour l’arabe. |
bg.lucene |
string |
Analyseur Lucene pour bulgare. |
bg.microsoft |
string |
Analyseur Microsoft pour bulgare. |
bn.microsoft |
string |
Analyseur Microsoft pour Bangla. |
ca.lucene |
string |
Analyseur Lucene pour catalan. |
ca.microsoft |
string |
Analyseur Microsoft pour catalan. |
cs.lucene |
string |
Analyseur Lucene pour tchèque. |
cs.microsoft |
string |
Analyseur Microsoft pour tchèque. |
da.lucene |
string |
Analyseur Lucene pour danois. |
da.microsoft |
string |
Analyseur Microsoft pour danois. |
de.lucene |
string |
Analyseur Lucene pour allemand. |
de.microsoft |
string |
Analyseur Microsoft pour allemand. |
el.lucene |
string |
Analyseur Lucene pour grec. |
el.microsoft |
string |
Analyseur Microsoft pour grec. |
en.lucene |
string |
Analyseur Lucene pour l’anglais. |
en.microsoft |
string |
Analyseur Microsoft pour l’anglais. |
es.lucene |
string |
Analyseur Lucene pour l’espagnol. |
es.microsoft |
string |
Analyseur Microsoft pour l’espagnol. |
et.microsoft |
string |
Analyseur Microsoft pour estonien. |
eu.lucene |
string |
Analyseur Lucene pour basque. |
fa.lucene |
string |
Analyseur Lucene pour Persane. |
fi.lucene |
string |
Analyseur Lucene pour le finnois. |
fi.microsoft |
string |
Analyseur Microsoft pour finnois. |
fr.lucene |
string |
Analyseur Lucene pour français. |
fr.microsoft |
string |
Analyseur Microsoft pour français. |
ga.lucene |
string |
Analyseur Lucene pour irlandais. |
gl.lucene |
string |
Analyseur Lucene pour Galicien. |
gu.microsoft |
string |
Analyseur Microsoft pour Gujarati. |
he.microsoft |
string |
Analyseur Microsoft pour hébreu. |
hi.lucene |
string |
Analyseur Lucene pour hindi. |
hi.microsoft |
string |
Analyseur Microsoft pour hindi. |
hr.microsoft |
string |
Analyseur Microsoft pour croate. |
hu.lucene |
string |
Analyseur Lucene pour hongrois. |
hu.microsoft |
string |
Analyseur Microsoft pour hongrois. |
hy.lucene |
string |
Analyseur Lucene pour arménien. |
id.lucene |
string |
Analyseur Lucene pour l’Indonésien. |
id.microsoft |
string |
Analyseur Microsoft pour indonésien (Bahasa). |
is.microsoft |
string |
Analyseur Microsoft pour l’Islande. |
it.lucene |
string |
Analyseur Lucene pour italien. |
it.microsoft |
string |
Analyseur Microsoft pour italien. |
ja.lucene |
string |
Analyseur Lucene pour japonais. |
ja.microsoft |
string |
Analyseur Microsoft pour japonais. |
keyword |
string |
Traite l’intégralité du contenu d’un champ comme un seul jeton. Cela est utile pour les données telles que les codes postal, les ID et certains noms de produits. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html |
kn.microsoft |
string |
Analyseur Microsoft pour Kannada. |
ko.lucene |
string |
Analyseur Lucene pour coréen. |
ko.microsoft |
string |
Analyseur Microsoft pour coréen. |
lt.microsoft |
string |
Analyseur Microsoft pour lituanien. |
lv.lucene |
string |
Analyseur Lucene pour letton. |
lv.microsoft |
string |
Analyseur Microsoft pour letton. |
ml.microsoft |
string |
Analyseur Microsoft pour Malayalam. |
mr.microsoft |
string |
Analyseur Microsoft pour Marathi. |
ms.microsoft |
string |
Analyseur Microsoft pour Malay (latin). |
nb.microsoft |
string |
Analyseur Microsoft pour norvégien (Bokmål). |
nl.lucene |
string |
Analyseur Lucene pour néerlandais. |
nl.microsoft |
string |
Analyseur Microsoft pour néerlandais. |
no.lucene |
string |
Analyseur Lucene pour norvégien. |
pa.microsoft |
string |
Analyseur Microsoft pour Punjabi. |
pattern |
string |
Sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
pl.lucene |
string |
Analyseur Lucene pour polonais. |
pl.microsoft |
string |
Analyseur Microsoft pour polonais. |
pt-BR.lucene |
string |
Analyseur Lucene pour portugais (Brésil). |
pt-BR.microsoft |
string |
Analyseur Microsoft pour portugais (Brésil). |
pt-PT.lucene |
string |
Analyseur Lucene pour portugais (Portugal). |
pt-PT.microsoft |
string |
Analyseur Microsoft pour portugais (Portugal). |
ro.lucene |
string |
Analyseur Lucene pour roumain. |
ro.microsoft |
string |
Analyseur Microsoft pour roumain. |
ru.lucene |
string |
Analyseur Lucene pour russe. |
ru.microsoft |
string |
Analyseur Microsoft pour russe. |
simple |
string |
Divise le texte en lettres non lettres et les convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html |
sk.microsoft |
string |
Analyseur Microsoft pour slovaque. |
sl.microsoft |
string |
Analyseur Microsoft pour le Slovène. |
sr-cyrillic.microsoft |
string |
Analyseur Microsoft pour serbe (cyrillique). |
sr-latin.microsoft |
string |
Analyseur Microsoft pour serbe (latin). |
standard.lucene |
string |
Analyseur Lucene standard. |
standardasciifolding.lucene |
string |
Analyseur Lucene pliant ASCII standard. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers |
stop |
string |
Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
sv.lucene |
string |
Analyseur Lucene pour suédois. |
sv.microsoft |
string |
Analyseur Microsoft pour suédois. |
ta.microsoft |
string |
Analyseur Microsoft pour tamoul. |
te.microsoft |
string |
Analyseur Microsoft pour Telugu. |
th.lucene |
string |
Analyseur Lucene pour thaï. |
th.microsoft |
string |
Analyseur Microsoft pour thaï. |
tr.lucene |
string |
Analyseur Lucene pour turc. |
tr.microsoft |
string |
Analyseur Microsoft pour turc. |
uk.microsoft |
string |
Analyseur Microsoft pour ukrainien. |
ur.microsoft |
string |
Analyseur Microsoft pour Urdu. |
vi.microsoft |
string |
Analyseur Microsoft pour le Vietnamien. |
whitespace |
string |
Analyseur qui utilise le générateur de jetons d’espace blanc. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html |
zh-Hans.lucene |
string |
Analyseur Lucene pour chinois (simplifié). |
zh-Hans.microsoft |
string |
Analyseur Microsoft pour chinois (simplifié). |
zh-Hant.lucene |
string |
Analyseur Lucene pour chinois (traditionnel). |
zh-Hant.microsoft |
string |
Analyseur Microsoft pour chinois (traditionnel). |
LexicalTokenizerName
Définit les noms de tous les tokenizers pris en charge par le moteur de recherche.
Nom | Type | Description |
---|---|---|
classic |
string |
Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
edgeNGram |
string |
Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html |
keyword_v2 |
string |
Émet l’entrée entière sous forme de jeton unique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html |
letter |
string |
Divise le texte en lettres non lettres. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html |
lowercase |
string |
Divise le texte en lettres non lettres et les convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html |
microsoft_language_stemming_tokenizer |
string |
Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leurs formulaires de base. |
microsoft_language_tokenizer |
string |
Divise le texte à l’aide de règles spécifiques à la langue. |
nGram |
string |
Tokenise l’entrée en n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html |
path_hierarchy_v2 |
string |
Tokenizer pour les hiérarchies similaires au chemin d’accès. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html |
pattern |
string |
Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html |
standard_v2 |
string |
Analyseur Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html |
uax_url_email |
string |
Tokenise les URL et les e-mails sous la forme d’un seul jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html |
whitespace |
string |
Divise le texte à l’espace blanc. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html |
LimitTokenFilter
Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
consumeAllTokens |
boolean |
False |
Valeur indiquant si tous les jetons de l’entrée doivent être consommés même si maxTokenCount est atteint. La valeur par défaut est false. |
maxTokenCount |
integer |
1 |
Nombre maximal de jetons à produire. La valeur par défaut est 1. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
LuceneStandardAnalyzer
Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type d’analyseur. |
|
maxTokenLength |
integer |
255 |
Longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. |
name |
string |
Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
stopwords |
string[] |
Liste des mots vides. |
LuceneStandardTokenizer
Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de tokenizer. |
|
maxTokenLength |
integer |
255 |
Longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont fractionnés. |
name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
LuceneStandardTokenizerV2
Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de tokenizer. |
|
maxTokenLength |
integer |
255 |
Longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. |
name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
MagnitudeScoringFunction
Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique.
Nom | Type | Description |
---|---|---|
boost |
number |
Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0. |
fieldName |
string |
Nom du champ utilisé comme entrée de la fonction de scoring. |
interpolation |
Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ». |
|
magnitude |
Valeurs de paramètre pour la fonction de scoring de magnitude. |
|
type |
string:
magnitude |
Indique le type de fonction à utiliser. Les valeurs valides incluent la magnitude, l’actualisation, la distance et la balise. Le type de fonction doit être en minuscules. |
MagnitudeScoringParameters
Fournit des valeurs de paramètre à une fonction de scoring de magnitude.
Nom | Type | Description |
---|---|---|
boostingRangeEnd |
number |
Valeur de champ à laquelle l’amélioration se termine. |
boostingRangeStart |
number |
Valeur de champ à laquelle l’amélioration commence. |
constantBoostBeyondRange |
boolean |
Valeur indiquant s’il faut appliquer une augmentation constante pour les valeurs de champ au-delà de la valeur de fin de plage ; la valeur par défaut est false. |
MappingCharFilter
Filtre de caractères qui applique les mappages définis avec l’option mappages. La correspondance est gourmande (la correspondance la plus longue à un point donné gagne). Le remplacement est autorisé à être la chaîne vide. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de caractères. |
mappings |
string[] |
Liste des mappages du format suivant : « a =>b » (toutes les occurrences du caractère « a » seront remplacées par le caractère « b »). |
name |
string |
Nom du filtre char. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
MicrosoftLanguageStemmingTokenizer
Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leurs formulaires de base.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de tokenizer. |
|
isSearchTokenizer |
boolean |
False |
Valeur indiquant comment le tokenizer est utilisé. Définissez la valeur true si elle est utilisée comme générateur de jetons de recherche, définie sur false si elle est utilisée comme générateur de jetons d’indexation. La valeur par défaut est false. |
language |
Langue à utiliser. La valeur par défaut est l’anglais. |
||
maxTokenLength |
integer |
255 |
Longueur maximale du jeton. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. Les jetons de plus de 300 caractères sont d’abord divisés en jetons de longueur 300, puis chacun de ces jetons est divisé en fonction de la longueur maximale du jeton défini. La valeur par défaut est 255. |
name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
MicrosoftLanguageTokenizer
Divise le texte à l’aide de règles spécifiques à la langue.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de tokenizer. |
|
isSearchTokenizer |
boolean |
False |
Valeur indiquant comment le tokenizer est utilisé. Définissez la valeur true si elle est utilisée comme générateur de jetons de recherche, définie sur false si elle est utilisée comme générateur de jetons d’indexation. La valeur par défaut est false. |
language |
Langue à utiliser. La valeur par défaut est l’anglais. |
||
maxTokenLength |
integer |
255 |
Longueur maximale du jeton. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. Les jetons de plus de 300 caractères sont d’abord divisés en jetons de longueur 300, puis chacun de ces jetons est divisé en fonction de la longueur maximale du jeton défini. La valeur par défaut est 255. |
name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
MicrosoftStemmingTokenizerLanguage
Répertorie les langues prises en charge par le générateur de jetons de recherche de clé de recherche de la langue Microsoft.
Nom | Type | Description |
---|---|---|
arabic |
string |
Sélectionne le générateur de jetons de recherche microsoft pour l’arabe. |
bangla |
string |
Sélectionne le générateur de jetons de recherche microsoft pour Bangla. |
bulgarian |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour bulgare. |
catalan |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour catalan. |
croatian |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le croate. |
czech |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le tchèque. |
danish |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le danois. |
dutch |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le néerlandais. |
english |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’anglais. |
estonian |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’Estonien. |
finnish |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le finnois. |
french |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le français. |
german |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’allemand. |
greek |
string |
Sélectionne le générateur de jetons de recherche microsoft pour grec. |
gujarati |
string |
Sélectionne le générateur de jetons de recherche microsoft pour Gujarati. |
hebrew |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour hébreu. |
hindi |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’hindi. |
hungarian |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour hongrois. |
icelandic |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’Islande. |
indonesian |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’Indonésien. |
italian |
string |
Sélectionne le tokenizer de recherche de recherche microsoft pour l’italien. |
kannada |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour Kannada. |
latvian |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour letton. |
lithuanian |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour lituanien. |
malay |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour Malay. |
malayalam |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour Malayalam. |
marathi |
string |
Sélectionne le générateur de jetons de recherche microsoft pour Marathi. |
norwegianBokmaal |
string |
Sélectionne le tokenizer de recherche de recherche microsoft pour norvégien (Bokmål). |
polish |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le polonais. |
portuguese |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le portugais. |
portugueseBrazilian |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le portugais (Brésil). |
punjabi |
string |
Sélectionne le générateur de jetons de recherche microsoft pour Punjabi. |
romanian |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour roumain. |
russian |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour russe. |
serbianCyrillic |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le serbe (cyrillique). |
serbianLatin |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le serbe (latin). |
slovak |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le slovaque. |
slovenian |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour le slovène. |
spanish |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’espagnol. |
swedish |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour suédois. |
tamil |
string |
Sélectionne le générateur de jetons de recherche microsoft pour le Tamoul. |
telugu |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour Telugu. |
turkish |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour turc. |
ukrainian |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’Ukrainien. |
urdu |
string |
Sélectionne le générateur de jetons de recherche de recherche microsoft pour Urdu. |
MicrosoftTokenizerLanguage
Répertorie les langues prises en charge par le générateur de jetons de langue Microsoft.
Nom | Type | Description |
---|---|---|
bangla |
string |
Sélectionne le tokenizer Microsoft pour Bangla. |
bulgarian |
string |
Sélectionne le tokenizer Microsoft pour bulgare. |
catalan |
string |
Sélectionne le tokenizer Microsoft pour catalan. |
chineseSimplified |
string |
Sélectionne le tokenizer Microsoft pour chinois (simplifié). |
chineseTraditional |
string |
Sélectionne le tokenizer Microsoft pour chinois (traditionnel). |
croatian |
string |
Sélectionne le tokenizer Microsoft pour croate. |
czech |
string |
Sélectionne le tokenizer Microsoft pour tchèque. |
danish |
string |
Sélectionne le tokenizer Microsoft pour danois. |
dutch |
string |
Sélectionne le tokenizer Microsoft pour néerlandais. |
english |
string |
Sélectionne le tokenizer Microsoft pour l’anglais. |
french |
string |
Sélectionne le tokenizer Microsoft pour le français. |
german |
string |
Sélectionne le tokenizer Microsoft pour l’allemand. |
greek |
string |
Sélectionne le tokenizer Microsoft pour grec. |
gujarati |
string |
Sélectionne le tokenizer Microsoft pour Gujarati. |
hindi |
string |
Sélectionne le tokenizer Microsoft pour hindi. |
icelandic |
string |
Sélectionne le tokenizer Microsoft pour l’Islande. |
indonesian |
string |
Sélectionne le tokenizer Microsoft pour l’Indonésien. |
italian |
string |
Sélectionne le tokenizer Microsoft pour l’italien. |
japanese |
string |
Sélectionne le tokenizer Microsoft pour japonais. |
kannada |
string |
Sélectionne le tokenizer Microsoft pour Kannada. |
korean |
string |
Sélectionne le tokenizer Microsoft pour coréen. |
malay |
string |
Sélectionne le tokenizer Microsoft pour Malay. |
malayalam |
string |
Sélectionne le tokenizer Microsoft pour Malayalam. |
marathi |
string |
Sélectionne le tokenizer Microsoft pour Marathi. |
norwegianBokmaal |
string |
Sélectionne le tokenizer Microsoft pour norvégien (Bokmål). |
polish |
string |
Sélectionne le tokenizer Microsoft pour polonais. |
portuguese |
string |
Sélectionne le tokenizer Microsoft pour le portugais. |
portugueseBrazilian |
string |
Sélectionne le tokenizer Microsoft pour le Portugais (Brésil). |
punjabi |
string |
Sélectionne le tokenizer Microsoft pour Punjabi. |
romanian |
string |
Sélectionne le tokenizer Microsoft pour roumain. |
russian |
string |
Sélectionne le tokenizer Microsoft pour russe. |
serbianCyrillic |
string |
Sélectionne le tokenizer Microsoft pour serbe (cyrillique). |
serbianLatin |
string |
Sélectionne le tokenizer Microsoft pour serbe (latin). |
slovenian |
string |
Sélectionne le tokenizer Microsoft pour le Slovène. |
spanish |
string |
Sélectionne le tokenizer Microsoft pour l’espagnol. |
swedish |
string |
Sélectionne le tokenizer Microsoft pour suédois. |
tamil |
string |
Sélectionne le tokenizer Microsoft pour Tamoul. |
telugu |
string |
Sélectionne le tokenizer Microsoft pour Telugu. |
thai |
string |
Sélectionne le tokenizer Microsoft pour thaï. |
ukrainian |
string |
Sélectionne le tokenizer Microsoft pour l’Ukrainien. |
urdu |
string |
Sélectionne le tokenizer Microsoft pour Urdu. |
vietnamese |
string |
Sélectionne le générateur de jetons Microsoft pour le Vietnamien. |
NGramTokenFilter
Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
maxGram |
integer |
2 |
Longueur maximale de n-gramme. La valeur par défaut est 2. |
minGram |
integer |
1 |
Longueur minimale de n-gramme. La valeur par défaut est 1. Doit être inférieur à la valeur de maxGram. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
NGramTokenFilterV2
Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
maxGram |
integer |
2 |
Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300. |
minGram |
integer |
1 |
Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
NGramTokenizer
Tokenise l’entrée en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de tokenizer. |
|
maxGram |
integer |
2 |
Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300. |
minGram |
integer |
1 |
Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram. |
name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
tokenChars |
Classes de caractères à conserver dans les jetons. |
OutputFieldMappingEntry
Mappage de champs de sortie pour une compétence.
Nom | Type | Description |
---|---|---|
name |
string |
Nom de la sortie définie par la compétence. |
targetName |
string |
Nom cible de la sortie. Il est facultatif et le nom par défaut. |
PathHierarchyTokenizerV2
Tokenizer pour les hiérarchies similaires au chemin d’accès. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de tokenizer. |
|
delimiter |
string |
/ |
Caractère délimiteur à utiliser. La valeur par défaut est « / ». |
maxTokenLength |
integer |
300 |
Longueur maximale du jeton. La valeur par défaut et la valeur maximale est 300. |
name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
replacement |
string |
/ |
Valeur qui, si elle est définie, remplace le caractère délimiteur. La valeur par défaut est « / ». |
reverse |
boolean |
False |
Valeur indiquant s’il faut générer des jetons dans l’ordre inverse. La valeur par défaut est false. |
skip |
integer |
0 |
Nombre de jetons initiaux à ignorer. La valeur par défaut est 0. |
PatternAnalyzer
Sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type d’analyseur. |
|
flags |
Indicateurs d’expression régulière. |
||
lowercase |
boolean |
True |
Valeur indiquant si les termes doivent être inférieurs. La valeur par défaut est true. |
name |
string |
Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
pattern |
string |
\W+ |
Modèle d’expression régulière pour faire correspondre les séparateurs de jetons. La valeur par défaut est une expression qui correspond à un ou plusieurs caractères non word. |
stopwords |
string[] |
Liste des mots vides. |
PatternCaptureTokenFilter
Utilise des regex Java pour émettre plusieurs jetons : un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
patterns |
string[] |
Liste de modèles à mettre en correspondance avec chaque jeton. |
|
preserveOriginal |
boolean |
True |
Valeur indiquant s’il faut retourner le jeton d’origine même si l’un des modèles correspond. La valeur par défaut est true. |
PatternReplaceCharFilter
Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de caractères. |
name |
string |
Nom du filtre char. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
pattern |
string |
Modèle d’expression régulière. |
replacement |
string |
Texte de remplacement. |
PatternReplaceTokenFilter
Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
pattern |
string |
Modèle d’expression régulière. |
replacement |
string |
Texte de remplacement. |
PatternTokenizer
Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de tokenizer. |
|
flags |
Indicateurs d’expression régulière. |
||
group |
integer |
-1 |
Ordinal de base zéro du groupe correspondant dans le modèle d’expression régulière à extraire dans des jetons. Utilisez -1 si vous souhaitez utiliser l’ensemble du modèle pour fractionner l’entrée en jetons, indépendamment des groupes correspondants. La valeur par défaut est -1. |
name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
pattern |
string |
\W+ |
Modèle d’expression régulière pour faire correspondre les séparateurs de jetons. La valeur par défaut est une expression qui correspond à un ou plusieurs caractères non word. |
PhoneticEncoder
Identifie le type d’encodeur phonétique à utiliser avec un PhoneticTokenFilter.
Nom | Type | Description |
---|---|---|
beiderMorse |
string |
Encode un jeton dans une valeur Beider-Morse. |
caverphone1 |
string |
Encode un jeton dans une valeur Caverphone 1.0. |
caverphone2 |
string |
Encode un jeton dans une valeur Caverphone 2.0. |
cologne |
string |
Encode un jeton dans une valeur phonétique de Cologne. |
doubleMetaphone |
string |
Encode un jeton en une valeur de métaphone double. |
haasePhonetik |
string |
Encode un jeton à l’aide de l’affinement Haase de l’algorithme Kölner Phonetik. |
koelnerPhonetik |
string |
Encode un jeton à l’aide de l’algorithme Kölner Phonetik. |
metaphone |
string |
Encode un jeton dans une valeur metaphone. |
nysiis |
string |
Encode un jeton dans une valeur NYSIIS. |
refinedSoundex |
string |
Encode un jeton dans une valeur Soundex affinée. |
soundex |
string |
Encode un jeton dans une valeur Soundex. |
PhoneticTokenFilter
Créez des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
encoder | metaphone |
Encodeur phonétique à utiliser. La valeur par défaut est « metaphone ». |
|
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
replace |
boolean |
True |
Valeur indiquant si les jetons encodés doivent remplacer les jetons d’origine. Si la valeur est false, les jetons encodés sont ajoutés en tant que synonymes. La valeur par défaut est true. |
PrioritizedFields
Décrit les champs de titre, de contenu et de mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses.
Nom | Type | Description |
---|---|---|
prioritizedContentFields |
Définit les champs de contenu à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. Pour obtenir le meilleur résultat, les champs sélectionnés doivent contenir du texte sous forme de langage naturel. L’ordre des champs du tableau représente leur priorité. Les champs dont la priorité est inférieure peuvent être tronqués si le contenu est long. |
|
prioritizedKeywordsFields |
Définit les champs de mot clé à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. Pour obtenir le meilleur résultat, les champs sélectionnés doivent contenir une liste de mots clés. L’ordre des champs du tableau représente leur priorité. Les champs dont la priorité est inférieure peuvent être tronqués si le contenu est long. |
|
titleField |
Définit le champ de titre à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. Si vous n’avez pas de champ de titre dans votre index, laissez cette valeur vide. |
RegexFlags
Définit des indicateurs qui peuvent être combinés pour contrôler la façon dont les expressions régulières sont utilisées dans l’analyseur de modèle et le générateur de jetons de modèle.
Nom | Type | Description |
---|---|---|
CANON_EQ |
string |
Active l’équivalence canonique. |
CASE_INSENSITIVE |
string |
Active la correspondance sans respect de la casse. |
COMMENTS |
string |
Autorise les espaces blancs et les commentaires dans le modèle. |
DOTALL |
string |
Active le mode dotall. |
LITERAL |
string |
Active l’analyse littérale du modèle. |
MULTILINE |
string |
Active le mode multiligne. |
UNICODE_CASE |
string |
Active le pliage de cas prenant en charge Unicode. |
UNIX_LINES |
string |
Active le mode lignes Unix. |
ScalarQuantizationParameters
Contient les paramètres spécifiques à la quantisation scalaire.
Nom | Type | Description |
---|---|---|
quantizedDataType |
Type de données quantifié de valeurs vectorielles compressées. |
ScalarQuantizationVectorSearchCompressionConfiguration
Contient des options de configuration spécifiques à la méthode de compression de quantisation scalaire utilisée lors de l’indexation et de l’interrogation.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
defaultOversampling |
number |
Facteur de surachantillonnage par défaut. Le surachantage demande en interne davantage de documents (spécifiés par ce multiplicateur) dans la recherche initiale. Cela augmente l’ensemble des résultats qui seront reclassés à l’aide de scores de similarité reputés à partir de vecteurs de précision complète. La valeur minimale est 1, ce qui signifie qu’aucun suréchantillonnage (1x). Ce paramètre ne peut être défini que lorsque rerankWithOriginalVectors a la valeur true. Les valeurs plus élevées améliorent le rappel au détriment de la latence. |
|
kind |
string:
scalar |
Nom du type de méthode de compression configuré pour une utilisation avec la recherche vectorielle. |
|
name |
string |
Nom à associer à cette configuration particulière. |
|
rerankWithOriginalVectors |
boolean |
True |
Si la valeur est true, une fois que l’ensemble ordonné de résultats calculés à l’aide de vecteurs compressés est obtenu, ils seront reclassés en recalculant les scores de similarité de précision complète. Cela permettra d’améliorer le rappel au détriment de la latence. |
scalarQuantizationParameters |
Contient les paramètres spécifiques à la quantisation scalaire. |
ScoringFunctionAggregation
Définit la fonction d’agrégation utilisée pour combiner les résultats de toutes les fonctions de scoring dans un profil de scoring.
Nom | Type | Description |
---|---|---|
average |
string |
Augmentez les scores en fonction de la moyenne de tous les résultats de fonction de scoring. |
firstMatching |
string |
Augmentez les scores à l’aide de la première fonction de scoring applicable dans le profil de scoring. |
maximum |
string |
Augmentez les scores au maximum de tous les résultats de la fonction de scoring. |
minimum |
string |
Augmentez les scores par le minimum de tous les résultats de la fonction de scoring. |
sum |
string |
Augmentez les scores en fonction de la somme de tous les résultats de la fonction de scoring. |
ScoringFunctionInterpolation
Définit la fonction utilisée pour interpoler l’amélioration du score sur une plage de documents.
Nom | Type | Description |
---|---|---|
constant |
string |
Améliore les scores par un facteur constant. |
linear |
string |
Améliore les scores par une quantité décroissante linéairement. Il s’agit de l’interpolation par défaut pour les fonctions de scoring. |
logarithmic |
string |
Améliore les scores d’un montant qui diminue logarithmiquement. Les améliorations diminuent rapidement pour les scores plus élevés, et plus lentement à mesure que les scores diminuent. Cette option d’interpolation n’est pas autorisée dans les fonctions de scoring d’étiquettes. |
quadratic |
string |
Améliore les scores d’un montant qui diminue quadratiquement. Les améliorations diminuent lentement pour les scores plus élevés et plus rapidement à mesure que les scores diminuent. Cette option d’interpolation n’est pas autorisée dans les fonctions de scoring d’étiquettes. |
ScoringProfile
Définit des paramètres pour un index de recherche qui influencent le scoring dans les requêtes de recherche.
Nom | Type | Description |
---|---|---|
functionAggregation |
Valeur indiquant comment les résultats des fonctions de scoring individuelles doivent être combinés. La valeur par défaut est « Sum ». Ignoré s’il n’existe aucune fonction de scoring. |
|
functions | ScoringFunction[]: |
Collection de fonctions qui influencent le scoring des documents. |
name |
string |
Nom du profil de scoring. |
text |
Paramètres qui augmentent le scoring en fonction des correspondances de texte dans certains champs d’index. |
SearchField
Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.
Nom | Type | Description |
---|---|---|
analyzer |
Nom de l’analyseur à utiliser pour le champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche et ne peut pas être définie avec searchAnalyzer ou indexAnalyzer. Une fois l’analyseur choisi, il ne peut pas être modifié pour le champ. Doit être null pour les champs complexes. |
|
dimensions |
integer |
Dimensionnalité du champ vectoriel. |
facetable |
boolean |
Valeur indiquant s’il faut permettre au champ d’être référencé dans les requêtes de facettes. Généralement utilisé dans une présentation des résultats de recherche qui inclut le nombre d’accès par catégorie (par exemple, recherchez des caméras numériques et voyez les hits par marque, par millisecondes, par prix, etc.). Cette propriété doit être null pour les champs complexes. Les champs de type Edm.GeographyPoint ou Collection (Edm.GeographyPoint) ne peuvent pas être facetables. La valeur par défaut est true pour tous les autres champs simples. |
fields |
Liste des sous-champs s’il s’agit d’un champ de type Edm.ComplexType ou Collection(Edm.ComplexType). Doit être null ou vide pour les champs simples. |
|
filterable |
boolean |
Valeur indiquant si le champ doit être référencé dans $filter requêtes. filtrable diffère de l’élément pouvant faire l’objet d’une recherche dans la façon dont les chaînes sont gérées. Les champs de type Edm.String ou Collection(Edm.String) qui sont filtrables ne subissent pas de rupture de mot, de sorte que les comparaisons ne concernent que les correspondances exactes. Par exemple, si vous définissez un tel champ f sur « jour ensoleillé », $filter=f eq 'sunny' ne trouvera aucune correspondance, mais $filter=f eq 'sunny day' sera. Cette propriété doit être null pour les champs complexes. La valeur par défaut est true pour les champs simples et null pour les champs complexes. |
indexAnalyzer |
Nom de l’analyseur utilisé au moment de l’indexation pour le champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche. Elle doit être définie avec searchAnalyzer et elle ne peut pas être définie avec l’option analyseur. Cette propriété ne peut pas être définie sur le nom d’un analyseur de langage ; utilisez plutôt la propriété de l’analyseur si vous avez besoin d’un analyseur de langage. Une fois l’analyseur choisi, il ne peut pas être modifié pour le champ. Doit être null pour les champs complexes. |
|
key |
boolean |
Valeur indiquant si le champ identifie de manière unique les documents dans l’index. Un champ de niveau supérieur exactement dans chaque index doit être choisi comme champ de clé et doit être de type Edm.String. Les champs clés peuvent être utilisés pour rechercher des documents directement et mettre à jour ou supprimer des documents spécifiques. La valeur par défaut est false pour les champs simples et null pour les champs complexes. |
name |
string |
Nom du champ, qui doit être unique dans la collection de champs du champ index ou parent. |
retrievable |
boolean |
Valeur indiquant si le champ peut être retourné dans un résultat de recherche. Vous pouvez désactiver cette option si vous souhaitez utiliser un champ (par exemple, marge) comme mécanisme de filtrage, de tri ou de scoring, mais ne souhaitez pas que le champ soit visible pour l’utilisateur final. Cette propriété doit être true pour les champs clés, et elle doit avoir la valeur Null pour les champs complexes. Cette propriété peut être modifiée sur les champs existants. L’activation de cette propriété n’entraîne aucune augmentation des exigences de stockage d’index. La valeur par défaut est true pour les champs simples, false pour les champs vectoriels et Null pour les champs complexes. |
searchAnalyzer |
Nom de l’analyseur utilisé au moment de la recherche du champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche. Elle doit être définie avec indexAnalyzer et elle ne peut pas être définie avec l’option analyseur. Cette propriété ne peut pas être définie sur le nom d’un analyseur de langage ; utilisez plutôt la propriété de l’analyseur si vous avez besoin d’un analyseur de langage. Cet analyseur peut être mis à jour sur un champ existant. Doit être null pour les champs complexes. |
|
searchable |
boolean |
Valeur indiquant si le champ peut faire l’objet d’une recherche en texte intégral. Cela signifie qu’il subira une analyse telle que la rupture de mots lors de l’indexation. Si vous définissez un champ pouvant faire l’objet d’une recherche sur une valeur telle que « jour ensoleillé », il sera divisé en interne en jetons individuels « ensoleillé » et « jour ». Cela permet de rechercher en texte intégral ces termes. Les champs de type Edm.String ou Collection(Edm.String) peuvent faire l’objet d’une recherche par défaut. Cette propriété doit être false pour les champs simples d’autres types de données autres que des chaînes, et elle doit être null pour les champs complexes. Remarque : les champs pouvant faire l’objet d’une recherche consomment de l’espace supplémentaire dans votre index pour prendre en charge des versions tokenisées supplémentaires de la valeur de champ pour les recherches en texte intégral. Si vous souhaitez économiser de l’espace dans votre index et que vous n’avez pas besoin d’un champ à inclure dans les recherches, définissez la valeur false dans la recherche. |
sortable |
boolean |
Valeur indiquant si le champ doit être référencé dans $orderby expressions. Par défaut, le moteur de recherche trie les résultats par score, mais dans de nombreuses expériences, les utilisateurs souhaitent trier par champs dans les documents. Un champ simple peut être triable uniquement s’il est à valeur unique (il a une valeur unique dans l’étendue du document parent). Les champs de collection simples ne peuvent pas être triables, car ils sont à valeurs multiples. Les sous-champs simples des collections complexes sont également à valeurs multiples et ne peuvent donc pas être triables. C’est vrai, qu’il s’agisse d’un champ parent immédiat ou d’un champ ancêtre, c’est la collection complexe. Les champs complexes ne peuvent pas être triables et la propriété triable doit être null pour ces champs. La valeur par défaut de triable est true pour les champs simples à valeur unique, false pour les champs simples à valeurs multiples et Null pour les champs complexes. |
stored |
boolean |
Valeur immuable indiquant si le champ sera conservé séparément sur le disque à retourner dans un résultat de recherche. Vous pouvez désactiver cette option si vous ne prévoyez pas de renvoyer le contenu du champ dans une réponse de recherche pour économiser sur la surcharge de stockage. Cela ne peut être défini que lors de la création d’index et uniquement pour les champs vectoriels. Cette propriété ne peut pas être modifiée pour les champs existants ou définie comme false pour les nouveaux champs. Si cette propriété est définie comme false, la propriété « récupérable » doit également être définie sur false. Cette propriété doit être true ou non définie pour les champs clés, pour les nouveaux champs et pour les champs non vectoriels, et elle doit être null pour les champs complexes. La désactivation de cette propriété réduit les exigences de stockage d’index. La valeur par défaut est true pour les champs vectoriels. |
synonymMaps |
string[] |
Liste des noms des mappages de synonymes à associer à ce champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche. Actuellement, une seule carte de synonymes par champ est prise en charge. L’affectation d’un mappage de synonymes à un champ garantit que les termes de requête ciblant ce champ sont développés au moment de la requête à l’aide des règles de la carte de synonymes. Cet attribut peut être modifié sur les champs existants. Doit être null ou une collection vide pour les champs complexes. |
type |
Type de données du champ. |
|
vectorEncoding |
Format d’encodage pour interpréter le contenu du champ. |
|
vectorSearchProfile |
string |
Nom du profil de recherche vectorielle qui spécifie l’algorithme et le vectoriseur à utiliser lors de la recherche dans le champ vectoriel. |
SearchFieldDataType
Définit le type de données d’un champ dans un index de recherche.
Nom | Type | Description |
---|---|---|
Edm.Boolean |
string |
Indique qu’un champ contient une valeur booléenne (true ou false). |
Edm.Byte |
string |
Indique qu’un champ contient un entier non signé 8 bits. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Byte). |
Edm.ComplexType |
string |
Indique qu’un champ contient un ou plusieurs objets complexes qui, à son tour, ont des sous-champs d’autres types. |
Edm.DateTimeOffset |
string |
Indique qu’un champ contient une valeur de date/heure, y compris les informations de fuseau horaire. |
Edm.Double |
string |
Indique qu’un champ contient un nombre à virgule flottante double précision IEEE. |
Edm.GeographyPoint |
string |
Indique qu’un champ contient un emplacement géographique en termes de longitude et de latitude. |
Edm.Half |
string |
Indique qu’un champ contient un nombre à virgule flottante demi-précision. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Half). |
Edm.Int16 |
string |
Indique qu’un champ contient un entier signé 16 bits. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Int16). |
Edm.Int32 |
string |
Indique qu’un champ contient un entier signé 32 bits. |
Edm.Int64 |
string |
Indique qu’un champ contient un entier signé 64 bits. |
Edm.SByte |
string |
Indique qu’un champ contient un entier signé 8 bits. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.SByte). |
Edm.Single |
string |
Indique qu’un champ contient un nombre à virgule flottante simple précision. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Single). |
Edm.String |
string |
Indique qu’un champ contient une chaîne. |
SearchIndex
Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index.
Nom | Type | Description |
---|---|---|
@odata.etag |
string |
ETag de l’index. |
analyzers | LexicalAnalyzer[]: |
Analyseurs de l’index. |
charFilters | CharFilter[]: |
Filtres de caractères pour l’index. |
corsOptions |
Options permettant de contrôler le partage de ressources cross-origin (CORS) pour l’index. |
|
defaultScoringProfile |
string |
Nom du profil de scoring à utiliser si aucune n’est spécifiée dans la requête. Si cette propriété n’est pas définie et qu’aucun profil de scoring n’est spécifié dans la requête, le scoring par défaut (tf-idf) est utilisé. |
encryptionKey |
Description d’une clé de chiffrement que vous créez dans Azure Key Vault. Cette clé est utilisée pour fournir un niveau supplémentaire de chiffrement au repos pour vos données lorsque vous souhaitez une assurance totale que personne, même Microsoft, ne peut déchiffrer vos données. Une fois que vous avez chiffré vos données, elles restent toujours chiffrées. Le service de recherche ignore les tentatives de définition de cette propriété sur Null. Vous pouvez modifier cette propriété si nécessaire si vous souhaitez faire pivoter votre clé de chiffrement ; Vos données ne seront pas affectées. Le chiffrement avec des clés gérées par le client n’est pas disponible pour les services de recherche gratuits et n’est disponible que pour les services payants créés le 1er janvier 2019. |
|
fields |
Champs de l’index. |
|
name |
string |
Nom de l’index. |
scoringProfiles |
Profils de scoring pour l’index. |
|
semantic |
Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques. |
|
similarity | Similarity: |
Type d’algorithme de similarité à utiliser lors du scoring et du classement des documents correspondant à une requête de recherche. L’algorithme de similarité ne peut être défini qu’au moment de la création d’index et ne peut pas être modifié sur les index existants. Si la valeur est Null, l’algorithme ClassicSimilarity est utilisé. |
suggesters |
Suggesteurs pour l’index. |
|
tokenFilters |
TokenFilter[]:
|
Le jeton filtre l’index. |
tokenizers | LexicalTokenizer[]: |
Les tokenizers de l’index. |
vectorSearch |
Contient des options de configuration liées à la recherche vectorielle. |
SearchIndexerDataNoneIdentity
Efface la propriété d’identité d’une source de données.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type d’identité. |
SearchIndexerDataUserAssignedIdentity
Spécifie l’identité d’une source de données à utiliser.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type d’identité. |
userAssignedIdentity |
string |
Id de ressource Azure complet d’une identité managée affectée par l’utilisateur sous la forme « /subscriptions/12345678-1234-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId » qui doit avoir été affecté au service de recherche. |
SearchResourceEncryptionKey
Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos, telles que des index et des mappages de synonymes.
Nom | Type | Description |
---|---|---|
accessCredentials |
Informations d’identification Azure Active Directory facultatives utilisées pour accéder à votre coffre de clés Azure. Non obligatoire si vous utilisez plutôt une identité managée. |
|
keyVaultKeyName |
string |
Nom de votre clé Azure Key Vault à utiliser pour chiffrer vos données au repos. |
keyVaultKeyVersion |
string |
Version de votre clé Azure Key Vault à utiliser pour chiffrer vos données au repos. |
keyVaultUri |
string |
URI de votre coffre de clés Azure, également appelé nom DNS, qui contient la clé à utiliser pour chiffrer vos données au repos. Un exemple d’URI peut être |
SemanticConfiguration
Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques.
Nom | Type | Description |
---|---|---|
name |
string |
Nom de la configuration sémantique. |
prioritizedFields |
Décrit les champs de titre, de contenu et de mot clé à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. Au moins l’une des trois sous-propriétés (titleField, hiérarchiséKeywordsFields et hiérarchiséContentFields) doit être définie. |
SemanticField
Champ utilisé dans le cadre de la configuration sémantique.
Nom | Type | Description |
---|---|---|
fieldName |
string |
SemanticSettings
Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.
Nom | Type | Description |
---|---|---|
configurations |
Configurations sémantiques de l’index. |
|
defaultConfiguration |
string |
Vous permet de définir le nom d’une configuration sémantique par défaut dans votre index, ce qui le rend facultatif pour le transmettre en tant que paramètre de requête à chaque fois. |
ShingleTokenFilter
Crée des combinaisons de jetons en tant que jeton unique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
filterToken |
string |
_ |
Chaîne à insérer pour chaque position à laquelle il n’existe aucun jeton. La valeur par défaut est un trait de soulignement (« _ »). |
maxShingleSize |
integer |
2 |
Taille maximale du bardeau. La valeur par défaut et la valeur minimale est 2. |
minShingleSize |
integer |
2 |
Taille minimale du bardeau. La valeur par défaut et la valeur minimale est 2. Doit être inférieur à la valeur de maxShingleSize. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
outputUnigrams |
boolean |
True |
Valeur indiquant si le flux de sortie contiendra les jetons d’entrée (unigrammes) ainsi que les bardeaux. La valeur par défaut est true. |
outputUnigramsIfNoShingles |
boolean |
False |
Valeur indiquant s’il faut générer des unigrammes pour ces moments où aucun bardeau n’est disponible. Cette propriété est prioritaire lorsque outputUnigrams a la valeur false. La valeur par défaut est false. |
tokenSeparator |
string |
Chaîne à utiliser lors de la jointure de jetons adjacents pour former un bardeau. La valeur par défaut est un espace unique ( » « ). |
SnowballTokenFilter
Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
language |
Langue à utiliser. |
|
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
SnowballTokenFilterLanguage
Langue à utiliser pour un filtre de jeton Snowball.
Nom | Type | Description |
---|---|---|
armenian |
string |
Sélectionne le générateur de jetons lucene Snowball pour arménien. |
basque |
string |
Sélectionne le générateur de jetons lucene Snowball pour basque. |
catalan |
string |
Sélectionne le générateur de jetons lucene Snowball pour catalan. |
danish |
string |
Sélectionne le générateur de jetons lucene Snowball pour danois. |
dutch |
string |
Sélectionne le générateur de jetons lucene Snowball pour néerlandais. |
english |
string |
Sélectionne le générateur de jetons lucene Snowball pour l’anglais. |
finnish |
string |
Sélectionne le générateur de jetons lucene Snowball pour le finnois. |
french |
string |
Sélectionne le générateur de jetons lucene Snowball pour le français. |
german |
string |
Sélectionne le générateur de jetons lucene Snowball pour l’allemand. |
german2 |
string |
Sélectionne le générateur de jetons lucene Snowball qui utilise l’algorithme variant allemand. |
hungarian |
string |
Sélectionne le générateur de jetons lucene Snowball pour hongrois. |
italian |
string |
Sélectionne le générateur de jetons lucene Snowball pour l’italien. |
kp |
string |
Sélectionne le générateur de jetons de recherche lucene Snowball pour néerlandais qui utilise l’algorithme de recherche de Kraaij-Pohlmann. |
lovins |
string |
Sélectionne le générateur de jetons lucene Snowball pour l’anglais qui utilise l’algorithme de recherche de recherche lovins. |
norwegian |
string |
Sélectionne le générateur de jetons lucene Snowball pour norvégien. |
porter |
string |
Sélectionne le générateur de jetons lucene Snowball pour l’anglais qui utilise l’algorithme de recherche de recherche porter. |
portuguese |
string |
Sélectionne le générateur de jetons lucene Snowball pour le portugais. |
romanian |
string |
Sélectionne le générateur de jetons lucene Snowball pour roumain. |
russian |
string |
Sélectionne le générateur de jetons lucene Snowball pour le russe. |
spanish |
string |
Sélectionne le générateur de jetons lucene Snowball pour l’espagnol. |
swedish |
string |
Sélectionne le générateur de jetons lucene Snowball pour suédois. |
turkish |
string |
Sélectionne le générateur de jetons lucene Snowball pour turc. |
StemmerOverrideTokenFilter
Fournit la possibilité de remplacer d’autres filtres de recherche de recherche par recherche de données personnalisées basées sur des dictionnaires. Tous les termes liés aux dictionnaires seront marqués comme des mots clés afin qu’ils ne soient pas suivis de formes dérivées dans la chaîne. Doit être placé avant les filtres de recherche de recherche. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
rules |
string[] |
Liste des règles de recherche de base au format suivant : « word => stem », par exemple : « ran => run ». |
StemmerTokenFilter
Filtre de recherche de recherche spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
language |
Langue à utiliser. |
|
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
StemmerTokenFilterLanguage
Langage à utiliser pour un filtre de jeton de type stemmer.
Nom | Type | Description |
---|---|---|
arabic |
string |
Sélectionne le générateur de jetons de recherche lucène pour l’arabe. |
armenian |
string |
Sélectionne le générateur de jetons de recherche lucène pour arménien. |
basque |
string |
Sélectionne le générateur de jetons de recherche lucene pour le basque. |
brazilian |
string |
Sélectionne le générateur de jetons de recherche lucene pour le portugais (Brésil). |
bulgarian |
string |
Sélectionne le générateur de jetons de recherche lucene pour bulgare. |
catalan |
string |
Sélectionne le générateur de jetons de recherche lucene pour catalan. |
czech |
string |
Sélectionne le générateur de jetons de recherche lucene pour le tchèque. |
danish |
string |
Sélectionne le générateur de jetons de recherche lucene pour le danois. |
dutch |
string |
Sélectionne le générateur de jetons de recherche lucene pour le néerlandais. |
dutchKp |
string |
Sélectionne le tokenizer de recherche lucene pour néerlandais qui utilise l’algorithme de recherche de Kraaij-Pohlmann de recherche de données. |
english |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’anglais. |
finnish |
string |
Sélectionne le générateur de jetons de recherche lucene pour le finnois. |
french |
string |
Sélectionne le générateur de jetons de recherche lucene pour le français. |
galician |
string |
Sélectionne le générateur de jetons de recherche lucene pour Galicien. |
german |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’allemand. |
german2 |
string |
Sélectionne le générateur de jetons de recherche lucene qui utilise l’algorithme de variante allemand. |
greek |
string |
Sélectionne le générateur de jetons de recherche lucène pour le grec. |
hindi |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’hindi. |
hungarian |
string |
Sélectionne le générateur de jetons de recherche lucene pour hongrois. |
indonesian |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’Indonésien. |
irish |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’irlandais. |
italian |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’italien. |
latvian |
string |
Sélectionne le générateur de jetons de recherche lucene pour letton. |
lightEnglish |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’anglais qui effectue une recherche légère. |
lightFinnish |
string |
Sélectionne le tokenizer de recherche lucene pour le finnois qui effectue une recherche légère. |
lightFrench |
string |
Sélectionne le générateur de jetons de recherche lucene pour le français qui effectue une recherche légère. |
lightGerman |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’allemand qui effectue une recherche légère. |
lightHungarian |
string |
Sélectionne le générateur de jetons de recherche lucene pour hongrois qui effectue une recherche légère. |
lightItalian |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’italien qui effectue une recherche légère. |
lightNorwegian |
string |
Sélectionne le générateur de jetons de recherche lucene pour norvégien (Bokmål) qui effectue une recherche légère. |
lightNynorsk |
string |
Sélectionne le tokenizer de recherche lucene pour norvégien (Nynorsk) qui effectue une recherche légère. |
lightPortuguese |
string |
Sélectionne le générateur de jetons de recherche lucene pour le portugais qui effectue une recherche légère. |
lightRussian |
string |
Sélectionne le générateur de jetons de recherche lucène pour le russe qui effectue une recherche légère. |
lightSpanish |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’espagnol qui effectue une recherche légère. |
lightSwedish |
string |
Sélectionne le générateur de jetons de recherche lucene pour suédois qui effectue une recherche légère. |
lovins |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’anglais qui utilise l’algorithme de recherche de recherche de clés Lovins. |
minimalEnglish |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’anglais qui effectue un minimum de recherche de recherche. |
minimalFrench |
string |
Sélectionne le tokenizer de recherche lucene pour le français qui effectue un minimum de recherche. |
minimalGalician |
string |
Sélectionne le générateur de jetons de recherche lucène pour galicien qui effectue un minimum de recherche. |
minimalGerman |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’allemand qui effectue un minimum de recherche. |
minimalNorwegian |
string |
Sélectionne le tokenizer de recherche lucene pour le norvégien (Bokmål) qui effectue un minimum de recherche. |
minimalNynorsk |
string |
Sélectionne le tokenizer de recherche lucene pour le norvégien (Nynorsk) qui effectue un minimum de recherche. |
minimalPortuguese |
string |
Sélectionne le tokenizer de recherche lucene pour le portugais qui effectue un minimum de recherche. |
norwegian |
string |
Sélectionne le tokenizer de recherche lucene pour le norvégien (Bokmål). |
porter2 |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’anglais qui utilise l’algorithme de recherche de recherche de type Porter2. |
portuguese |
string |
Sélectionne le générateur de jetons de recherche lucene pour le portugais. |
portugueseRslp |
string |
Sélectionne le générateur de jetons de recherche lucene pour le portugais qui utilise l’algorithme de recherche de recherche de données RSLP. |
possessiveEnglish |
string |
Sélectionne le tokenizer de recherche lucene pour l’anglais qui supprime les possessions de fin des mots. |
romanian |
string |
Sélectionne le générateur de jetons de recherche lucene pour le roumain. |
russian |
string |
Sélectionne le générateur de jetons de recherche lucene pour le russe. |
sorani |
string |
Sélectionne le générateur de jetons de recherche lucene pour Sorani. |
spanish |
string |
Sélectionne le générateur de jetons de recherche lucene pour l’espagnol. |
swedish |
string |
Sélectionne le générateur de jetons de recherche lucene pour suédois. |
turkish |
string |
Sélectionne le générateur de jetons de recherche lucene pour le turc. |
StopAnalyzer
Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type d’analyseur. |
name |
string |
Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
stopwords |
string[] |
Liste des mots vides. |
StopwordsList
Identifie une liste prédéfinie de mots vides spécifiques à la langue.
Nom | Type | Description |
---|---|---|
arabic |
string |
Sélectionne la liste des mots vides pour l’arabe. |
armenian |
string |
Sélectionne la liste des mots vides pour arménien. |
basque |
string |
Sélectionne la liste des mots vides pour le basque. |
brazilian |
string |
Sélectionne la liste des mots vides pour le portugais (Brésil). |
bulgarian |
string |
Sélectionne la liste des mots vides pour bulgare. |
catalan |
string |
Sélectionne la liste des mots vides pour le catalan. |
czech |
string |
Sélectionne la liste des mots vides pour le tchèque. |
danish |
string |
Sélectionne la liste des mots vides pour le danois. |
dutch |
string |
Sélectionne la liste des mots vides pour le néerlandais. |
english |
string |
Sélectionne la liste des mots vides pour l’anglais. |
finnish |
string |
Sélectionne la liste des mots vides pour le finnois. |
french |
string |
Sélectionne la liste des mots vides pour le français. |
galician |
string |
Sélectionne la liste des mots vides pour Galicien. |
german |
string |
Sélectionne la liste des mots vides pour l’allemand. |
greek |
string |
Sélectionne la liste des mots vides pour le grec. |
hindi |
string |
Sélectionne la liste des mots vides pour l’hindi. |
hungarian |
string |
Sélectionne la liste des mots vides pour hongrois. |
indonesian |
string |
Sélectionne la liste des mots vides pour l’Indonésien. |
irish |
string |
Sélectionne la liste des mots vides pour l’irlandais. |
italian |
string |
Sélectionne la liste des mots vides pour l’italien. |
latvian |
string |
Sélectionne la liste des mots vides pour letton. |
norwegian |
string |
Sélectionne la liste des mots vides pour norvégien. |
persian |
string |
Sélectionne la liste des mots vides pour Persane. |
portuguese |
string |
Sélectionne la liste des mots vides pour le portugais. |
romanian |
string |
Sélectionne la liste des mots vides pour la Roumain. |
russian |
string |
Sélectionne la liste des mots vides pour le russe. |
sorani |
string |
Sélectionne la liste des mots vides pour Sorani. |
spanish |
string |
Sélectionne la liste des mots vides pour l’espagnol. |
swedish |
string |
Sélectionne la liste des mots vides pour suédois. |
thai |
string |
Sélectionne la liste des mots vides pour thaï. |
turkish |
string |
Sélectionne la liste des mots vides pour le turc. |
StopwordsTokenFilter
Supprime les mots d’arrêt d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
ignoreCase |
boolean |
False |
Valeur indiquant s’il faut ignorer la casse. Si la valeur est true, tous les mots sont convertis en minuscules en premier. La valeur par défaut est false. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
removeTrailing |
boolean |
True |
Valeur indiquant s’il faut ignorer le dernier terme de recherche s’il s’agit d’un mot vide. La valeur par défaut est true. |
stopwords |
string[] |
Liste des mots vides. Cette propriété et la propriété de liste des mots vides ne peuvent pas être définies. |
|
stopwordsList | english |
Liste prédéfinie des mots vides à utiliser. Cette propriété et la propriété stopwords ne peuvent pas être définies. La valeur par défaut est l’anglais. |
Suggester
Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index.
Nom | Type | Description |
---|---|---|
name |
string |
Nom de l’suggesteur. |
searchMode |
Valeur indiquant les fonctionnalités de l’suggesteur. |
|
sourceFields |
string[] |
Liste des noms de champs auxquels l’suggesteur s’applique. Chaque champ doit être pouvant faire l’objet d’une recherche. |
SuggesterSearchMode
Valeur indiquant les fonctionnalités de l’suggesteur.
Nom | Type | Description |
---|---|---|
analyzingInfixMatching |
string |
Correspond aux termes et préfixes entiers consécutifs d’un champ. Par exemple, pour le champ « Le renard brun le plus rapide », les requêtes « fast » et « le front le plus rapide » correspondent. |
SynonymTokenFilter
Correspond aux synonymes à mot unique ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
expand |
boolean |
True |
Valeur indiquant si tous les mots de la liste des synonymes (si => notation n’est pas utilisée) sont mappés les uns aux autres. Si la valeur est true, tous les mots de la liste des synonymes (if => notation ne sont pas utilisés) sont mappés les uns aux autres. La liste suivante : incroyable, incroyable, fabuleux, incroyable est équivalent à : incroyable, incroyable, fabuleux, incroyable => incroyable, incroyable, fabuleux, incroyable, incroyable. Si faux, la liste suivante : incroyable, incroyable, fabuleux, incroyable sera équivalent à : incroyable, incroyable, fabuleux, fabuleux => incroyable. La valeur par défaut est true. |
ignoreCase |
boolean |
False |
Valeur indiquant s’il faut entrer un pliage de casse pour la correspondance. La valeur par défaut est false. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
synonyms |
string[] |
Liste de synonymes dans l’un des deux formats suivants : 1. incroyable, incroyable, fabuleux => incroyable - tous les termes sur le côté gauche de => symbole sera remplacé par tous les termes de son côté droit ; 2. incroyable, incroyable, fabuleux, incroyable - liste séparée par des virgules de mots équivalents. Définissez l’option développer pour modifier la façon dont cette liste est interprétée. |
TagScoringFunction
Définit une fonction qui améliore les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises.
Nom | Type | Description |
---|---|---|
boost |
number |
Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0. |
fieldName |
string |
Nom du champ utilisé comme entrée de la fonction de scoring. |
interpolation |
Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ». |
|
tag |
Valeurs de paramètre pour la fonction de scoring d’étiquette. |
|
type |
string:
tag |
Indique le type de fonction à utiliser. Les valeurs valides incluent la magnitude, l’actualisation, la distance et la balise. Le type de fonction doit être en minuscules. |
TagScoringParameters
Fournit des valeurs de paramètre à une fonction de scoring d’étiquette.
Nom | Type | Description |
---|---|---|
tagsParameter |
string |
Nom du paramètre passé dans les requêtes de recherche pour spécifier la liste des balises à comparer au champ cible. |
TextWeights
Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche.
Nom | Type | Description |
---|---|---|
weights |
object |
Dictionnaire des pondérations par champ pour améliorer le scoring des documents. Les clés sont des noms de champ et les valeurs sont les pondérations pour chaque champ. |
TokenCharacterKind
Représente des classes de caractères sur lesquelles un filtre de jeton peut fonctionner.
Nom | Type | Description |
---|---|---|
digit |
string |
Conserve les chiffres dans les jetons. |
letter |
string |
Conserve les lettres dans les jetons. |
punctuation |
string |
Conserve la ponctuation dans les jetons. |
symbol |
string |
Conserve les symboles dans les jetons. |
whitespace |
string |
Conserve l’espace blanc dans les jetons. |
TokenFilterName
Définit les noms de tous les filtres de jetons pris en charge par le moteur de recherche.
TruncateTokenFilter
Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
length |
integer |
300 |
Longueur à laquelle les termes seront tronqués. La valeur par défaut et la valeur maximale est 300. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
UaxUrlEmailTokenizer
Tokenise les URL et les e-mails sous la forme d’un seul jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de tokenizer. |
|
maxTokenLength |
integer |
255 |
Longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. |
name |
string |
Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
UniqueTokenFilter
Filtre les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
onlyOnSamePosition |
boolean |
False |
Valeur indiquant s’il faut supprimer les doublons uniquement à la même position. La valeur par défaut est false. |
VectorEncodingFormat
Format d’encodage pour interpréter le contenu du champ vectoriel.
Nom | Type | Description |
---|---|---|
packedBit |
string |
Format d’encodage représentant les bits empaquetés dans un type de données plus large. |
VectorSearch
Contient des options de configuration liées à la recherche vectorielle.
Nom | Type | Description |
---|---|---|
algorithms | VectorSearchAlgorithmConfiguration[]: |
Contient des options de configuration spécifiques à l’algorithme utilisé lors de l’indexation ou de l’interrogation. |
compressions | VectorSearchCompressionConfiguration[]: |
Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation. |
profiles |
Définit des combinaisons de configurations à utiliser avec la recherche vectorielle. |
|
vectorizers | VectorSearchVectorizer[]: |
Contient des options de configuration sur la façon de vectoriser des requêtes vectorielles de texte. |
VectorSearchAlgorithmKind
Algorithme utilisé pour l’indexation et l’interrogation.
Nom | Type | Description |
---|---|---|
exhaustiveKnn |
string |
Algorithme KNN exhaustif qui effectuera une recherche par force brute. |
hnsw |
string |
HNSW (Hiérarchique Navigable Small World), un type d’algorithme voisin le plus proche approximatif. |
VectorSearchAlgorithmMetric
Métrique de similarité à utiliser pour les comparaisons de vecteurs. Il est recommandé de choisir la même métrique de similarité que le modèle d’incorporation a été entraîné.
Nom | Type | Description |
---|---|---|
cosine |
string |
Mesure l’angle entre les vecteurs pour quantifier leur similarité, sans tenir compte de l’ampleur. Plus l’angle est petit, plus la similarité est proche. |
dotProduct |
string |
Calcule la somme des produits à l’échelle des éléments pour évaluer l’alignement et la similarité de magnitude. Plus le plus grand et plus positif, plus la similarité est proche. |
euclidean |
string |
Calcule la distance droite entre les vecteurs dans un espace multidimensionnel. Plus la distance est réduite, plus la similarité est proche. |
hamming |
string |
Applicable uniquement aux types de données binaires compressés par bits. Détermine la dissimilité en comptant les positions différentes dans les vecteurs binaires. Plus les différences sont moindres, plus la similarité est proche. |
VectorSearchCompressionKind
Méthode de compression utilisée pour l’indexation et l’interrogation.
Nom | Type | Description |
---|---|---|
binaryQuantization |
string |
Quantization binaire, type de méthode de compression. Dans la quantisation binaire, les valeurs de vecteurs d’origine sont compressées dans le type binaire plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide de valeurs binaires, réduisant ainsi la taille globale des données. |
scalarQuantization |
string |
Quantization scalaire, type de méthode de compression. Dans la quantisation scalaire, les valeurs de vecteurs d’origine sont compressées dans un type plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide d’un ensemble réduit de valeurs quantifiées, réduisant ainsi la taille globale des données. |
VectorSearchCompressionTargetDataType
Type de données quantifié de valeurs vectorielles compressées.
Nom | Type | Description |
---|---|---|
int8 |
string |
VectorSearchProfile
Définit une combinaison de configurations à utiliser avec la recherche vectorielle.
Nom | Type | Description |
---|---|---|
algorithm |
string |
Nom de la configuration de l’algorithme de recherche vectorielle qui spécifie l’algorithme et les paramètres facultatifs. |
compression |
string |
Nom de la configuration de la méthode de compression qui spécifie la méthode de compression et les paramètres facultatifs. |
name |
string |
Nom à associer à ce profil de recherche vectorielle particulier. |
vectorizer |
string |
Nom de la vectorisation configurée pour une utilisation avec la recherche vectorielle. |
VectorSearchVectorizerKind
Méthode de vectorisation à utiliser pendant le temps de requête.
Nom | Type | Description |
---|---|---|
azureOpenAI |
string |
Générez des incorporations à l’aide d’une ressource Azure OpenAI au moment de la requête. |
customWebApi |
string |
Générez des incorporations à l’aide d’un point de terminaison web personnalisé au moment de la requête. |
WebApiParameters
Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur.
Nom | Type | Description |
---|---|---|
authIdentity | SearchIndexerDataIdentity: |
Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes. Si une authResourceId est fournie et qu’elle n’est pas spécifiée, l’identité managée affectée par le système est utilisée. Lors des mises à jour de l’indexeur, si l’identité n’est pas spécifiée, la valeur reste inchangée. Si la valeur est « none », la valeur de cette propriété est effacée. |
authResourceId |
string |
S’applique aux points de terminaison personnalisés qui se connectent au code externe dans une fonction Azure ou à une autre application qui fournit les transformations. Cette valeur doit être l’ID d’application créé pour la fonction ou l’application lorsqu’elle a été inscrite auprès d’Azure Active Directory. Quand elle est spécifiée, la vectorisation se connecte à la fonction ou à l’application à l’aide d’un ID managé (système ou affecté par l’utilisateur) du service de recherche et du jeton d’accès de la fonction ou de l’application, en utilisant cette valeur comme ID de ressource pour créer l’étendue du jeton d’accès. |
httpHeaders |
object |
En-têtes requis pour effectuer la requête HTTP. |
httpMethod |
string |
Méthode de la requête HTTP. |
timeout |
string |
Délai d’expiration souhaité pour la requête. La valeur par défaut est de 30 secondes. |
uri |
string |
URI de l’API web fournissant le vectoriseur. |
WebApiVectorizer
Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est obtenue à l’aide de l’interface d’API Web personnalisée d’un ensemble de compétences.
Nom | Type | Description |
---|---|---|
customWebApiParameters |
Spécifie les propriétés du vectoriseur défini par l’utilisateur. |
|
kind |
string:
custom |
Nom du type de méthode de vectorisation configuré pour une utilisation avec la recherche vectorielle. |
name |
string |
Nom à associer à cette méthode de vectorisation particulière. |
WordDelimiterTokenFilter
Fractionne les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Fragment d’URI spécifiant le type de filtre de jeton. |
|
catenateAll |
boolean |
False |
Valeur indiquant si toutes les parties de sous-mots seront catenées. Par exemple, si cette valeur est définie sur true, « Azure-Search-1 » devient « AzureSearch1 ». La valeur par défaut est false. |
catenateNumbers |
boolean |
False |
Valeur indiquant si le nombre maximal d’exécutions de parties sera catenté. Par exemple, si cette valeur est définie sur true, « 1-2 » devient « 12 ». La valeur par défaut est false. |
catenateWords |
boolean |
False |
Valeur indiquant si le nombre maximal d’exécutions de parties word sera catenté. Par exemple, si cette valeur est définie sur true, « Azure-Search » devient « AzureSearch ». La valeur par défaut est false. |
generateNumberParts |
boolean |
True |
Valeur indiquant s’il faut générer des sous-mots numériques. La valeur par défaut est true. |
generateWordParts |
boolean |
True |
Valeur indiquant s’il faut générer des mots de partie. Si cette valeur est définie, les parties des mots doivent être générées ; par exemple , « AzureSearch » devient « Azure » « Search ». La valeur par défaut est true. |
name |
string |
Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères. |
|
preserveOriginal |
boolean |
False |
Valeur indiquant si les mots d’origine seront conservés et ajoutés à la liste des sous-mots. La valeur par défaut est false. |
protectedWords |
string[] |
Liste des jetons à protéger contre la délimitation. |
|
splitOnCaseChange |
boolean |
True |
Valeur indiquant s’il faut fractionner des mots sur caseChange. Par exemple, si cette valeur est définie sur true, « AzureSearch » devient « Azure » « Search ». La valeur par défaut est true. |
splitOnNumerics |
boolean |
True |
Valeur indiquant s’il faut fractionner les nombres. Par exemple, si cette valeur est définie sur true, « Azure1Search » devient « Azure » « 1 » « Search ». La valeur par défaut est true. |
stemEnglishPossessive |
boolean |
True |
Valeur indiquant s’il faut supprimer les « s » de fin pour chaque sous-mot. La valeur par défaut est true. |