Partager via


Indexes - Create

Crée un index de recherche.

POST {endpoint}/indexes?api-version=2024-07-01

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint
path True

string

URL du point de terminaison du service de recherche.

api-version
query True

string

Version de l’API cliente.

En-tête de la demande

Nom Obligatoire Type Description
x-ms-client-request-id

string

uuid

ID de suivi envoyé avec la demande pour faciliter le débogage.

Corps de la demande

Nom Obligatoire Type Description
fields True

SearchField[]

Champs de l’index.

name True

string

Nom de l’index.

@odata.etag

string

ETag de l’index.

analyzers LexicalAnalyzer[]:

Analyseurs de l’index.

charFilters CharFilter[]:

Filtres de caractères pour l’index.

corsOptions

CorsOptions

Options permettant de contrôler le partage de ressources cross-origin (CORS) pour l’index.

defaultScoringProfile

string

Nom du profil de scoring à utiliser si aucune n’est spécifiée dans la requête. Si cette propriété n’est pas définie et qu’aucun profil de scoring n’est spécifié dans la requête, le scoring par défaut (tf-idf) est utilisé.

encryptionKey

SearchResourceEncryptionKey

Description d’une clé de chiffrement que vous créez dans Azure Key Vault. Cette clé est utilisée pour fournir un niveau supplémentaire de chiffrement au repos pour vos données lorsque vous souhaitez une assurance totale que personne, même Microsoft, ne peut déchiffrer vos données. Une fois que vous avez chiffré vos données, elles restent toujours chiffrées. Le service de recherche ignore les tentatives de définition de cette propriété sur Null. Vous pouvez modifier cette propriété si nécessaire si vous souhaitez faire pivoter votre clé de chiffrement ; Vos données ne seront pas affectées. Le chiffrement avec des clés gérées par le client n’est pas disponible pour les services de recherche gratuits et n’est disponible que pour les services payants créés le 1er janvier 2019.

scoringProfiles

ScoringProfile[]

Profils de scoring pour l’index.

semantic

SemanticSettings

Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.

similarity Similarity:

Type d’algorithme de similarité à utiliser lors du scoring et du classement des documents correspondant à une requête de recherche. L’algorithme de similarité ne peut être défini qu’au moment de la création d’index et ne peut pas être modifié sur les index existants. Si la valeur est Null, l’algorithme ClassicSimilarity est utilisé.

suggesters

Suggester[]

Suggesteurs pour l’index.

tokenFilters TokenFilter[]:

Le jeton filtre l’index.

tokenizers LexicalTokenizer[]:

Les tokenizers de l’index.

vectorSearch

VectorSearch

Contient des options de configuration liées à la recherche vectorielle.

Réponses

Nom Type Description
201 Created

SearchIndex

Other Status Codes

ErrorResponse

Réponse d’erreur.

Exemples

SearchServiceCreateIndex

Exemple de requête

POST https://myservice.search.windows.net/indexes?api-version=2024-07-01

{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "key": true,
      "searchable": false
    },
    {
      "name": "baseRate",
      "type": "Edm.Double"
    },
    {
      "name": "description",
      "type": "Edm.String",
      "filterable": false,
      "sortable": false,
      "facetable": false
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "synonymMaps": [],
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswSQProfile"
    },
    {
      "name": "descriptionEmbedding_notstored",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": false,
      "stored": false,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "synonymMaps": [],
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswSQProfile"
    },
    {
      "name": "descriptionEmbedding_forBQ",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "synonymMaps": [],
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswBQProfile"
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "filterable": false,
      "sortable": false,
      "facetable": false,
      "analyzer": "fr.lucene"
    },
    {
      "name": "hotelName",
      "type": "Edm.String"
    },
    {
      "name": "nameEmbedding",
      "type": "Collection(Edm.Half)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "synonymMaps": [],
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile"
    },
    {
      "name": "category",
      "type": "Edm.String"
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "analyzer": "tagsAnalyzer"
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean"
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean"
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset"
    },
    {
      "name": "rating",
      "type": "Edm.Int32"
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint"
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "type": "distance",
          "boost": 5,
          "fieldName": "location",
          "interpolation": "logarithmic",
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2"
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": {
      "applicationId": "00000000-0000-0000-0000-000000000000",
      "applicationSecret": "<applicationSecret>"
    }
  },
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "b": 0.5,
    "k1": 1.3
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw"
      },
      {
        "name": "myHnswSQProfile",
        "algorithm": "myHnsw",
        "compression": "mySQ8"
      },
      {
        "name": "myHnswBQProfile",
        "algorithm": "myHnsw",
        "compression": "myBQ"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myExhaustive"
      }
    ],
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "m": 4,
          "metric": "cosine"
        }
      },
      {
        "name": "myExhaustive",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rerankWithOriginalVectors": true,
        "defaultOversampling": 10
      },
      {
        "name": "myBQ",
        "kind": "binaryQuantization",
        "rerankWithOriginalVectors": true,
        "defaultOversampling": 10
      }
    ]
  }
}

Exemple de réponse

{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "baseRate",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswSQProfile",
      "synonymMaps": []
    },
    {
      "name": "descriptionEmbedding_notstored",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": false,
      "stored": false,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "synonymMaps": [],
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswSQProfile"
    },
    {
      "name": "descriptionEmbedding_forBQ",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswBQProfile",
      "synonymMaps": []
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "fr.lucene",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "hotelName",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "nameEmbedding",
      "type": "Collection(Edm.Half)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile",
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": false,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "tagsAnalyzer",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "rating",
      "type": "Edm.Int32",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "fieldName": "location",
          "interpolation": "logarithmic",
          "type": "distance",
          "boost": 5,
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenFilters": [],
      "tokenizer": "standard_v2"
    }
  ],
  "tokenizers": [],
  "tokenFilters": [],
  "charFilters": [],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": {
      "applicationId": "00000000-0000-0000-0000-000000000000",
      "applicationSecret": null
    }
  },
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "b": 0.5,
    "k1": 1.3
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "myExhaustive",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ],
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw"
      },
      {
        "name": "myHnswSQProfile",
        "algorithm": "myHnsw",
        "compression": "mySQ8"
      },
      {
        "name": "myHnswBQProfile",
        "algorithm": "myHnsw",
        "vectorizer": "myOpenAi",
        "compression": "myBQ"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myExhaustive"
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rerankWithOriginalVectors": true,
        "defaultOversampling": 10
      },
      {
        "name": "myBQ",
        "kind": "binaryQuantization",
        "rerankWithOriginalVectors": true,
        "defaultOversampling": 10
      }
    ]
  }
}

Définitions

Nom Description
AsciiFoldingTokenFilter

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

AzureActiveDirectoryApplicationCredentials

Informations d’identification d’une application inscrite créée pour votre service de recherche, utilisée pour l’accès authentifié aux clés de chiffrement stockées dans Azure Key Vault.

AzureOpenAIEmbeddingSkill

Vous permet de générer un incorporation vectorielle pour une entrée de texte donnée à l’aide de la ressource Azure OpenAI.

AzureOpenAIModelName

Nom du modèle Azure Open AI qui sera appelé.

AzureOpenAIParameters

Spécifie les paramètres de connexion à la ressource Azure OpenAI.

AzureOpenAIVectorizer

Spécifie la ressource Azure OpenAI utilisée pour vectoriser une chaîne de requête.

BinaryQuantizationVectorSearchCompressionConfiguration

Contient des options de configuration spécifiques à la méthode de compression de quantisation binaire utilisée lors de l’indexation et de l’interrogation.

BM25Similarity

Fonction de classement basée sur l’algorithme de similarité OKapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de longueur (contrôlée par le paramètre « b ») ainsi que la saturation de fréquence de terme (contrôlée par le paramètre « k1 »).

CharFilterName

Définit les noms de tous les filtres de caractères pris en charge par le moteur de recherche.

CjkBigramTokenFilter

Forme des bigrams de termes CJK générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

CjkBigramTokenFilterScripts

Scripts qui peuvent être ignorés par CjkBigramTokenFilter.

ClassicSimilarity

Algorithme de similarité hérité qui utilise l’implémentation lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation de longueur de document statique ainsi que les facteurs de coordination qui pénalisent les documents qui ne correspondent qu’en partie aux requêtes recherchées.

ClassicTokenizer

Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

CommonGramTokenFilter

Construisez des bigrams pour des termes fréquents lors de l’indexation. Les termes uniques sont toujours indexés, avec des bigrams superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

CorsOptions

Définit les options permettant de contrôler le partage de ressources cross-origin (CORS) pour un index.

CustomAnalyzer

Vous permet de contrôler le processus de conversion de texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul tokenizer prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres pour modifier les jetons émis par le tokenizer.

DictionaryDecompounderTokenFilter

Décompose les mots composés trouvés dans de nombreuses langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

DistanceScoringFunction

Définit une fonction qui améliore les scores en fonction de la distance d’un emplacement géographique.

DistanceScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de distance.

EdgeNGramTokenFilter

Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

EdgeNGramTokenFilterSide

Spécifie le côté de l’entrée à partir duquel un n-grammes doit être généré.

EdgeNGramTokenFilterV2

Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

EdgeNGramTokenizer

Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

ElisionTokenFilter

Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

ErrorAdditionalInfo

Informations supplémentaires sur l’erreur de gestion des ressources.

ErrorDetail

Détail de l’erreur.

ErrorResponse

Réponse d’erreur

ExhaustiveKnnParameters

Contient les paramètres spécifiques à l’algorithme KNN exhaustif.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche par force brute sur l’index vectoriel entier.

FreshnessScoringFunction

Définit une fonction qui améliore les scores en fonction de la valeur d’un champ date-heure.

FreshnessScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’actualisation.

HnswParameters

Contient les paramètres spécifiques à l’algorithme HNSW.

HnswVectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme HNSW le plus proche utilisé lors de l’indexation et de l’interrogation. L’algorithme HNSW offre un compromis entre la vitesse de recherche et la précision.

InputFieldMappingEntry

Mappage de champs d’entrée pour une compétence.

KeepTokenFilter

Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste spécifiée de mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

KeywordMarkerTokenFilter

Marque les termes en tant que mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

KeywordTokenizer

Émet l’entrée entière sous forme de jeton unique. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

KeywordTokenizerV2

Émet l’entrée entière sous forme de jeton unique. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

LengthTokenFilter

Supprime les mots trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

LexicalAnalyzerName

Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche.

LexicalTokenizerName

Définit les noms de tous les tokenizers pris en charge par le moteur de recherche.

LimitTokenFilter

Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

LuceneStandardAnalyzer

Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt.

LuceneStandardTokenizer

Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

LuceneStandardTokenizerV2

Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

MagnitudeScoringFunction

Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique.

MagnitudeScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de magnitude.

MappingCharFilter

Filtre de caractères qui applique les mappages définis avec l’option mappages. La correspondance est gourmande (la correspondance la plus longue à un point donné gagne). Le remplacement est autorisé à être la chaîne vide. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

MicrosoftLanguageStemmingTokenizer

Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leurs formulaires de base.

MicrosoftLanguageTokenizer

Divise le texte à l’aide de règles spécifiques à la langue.

MicrosoftStemmingTokenizerLanguage

Répertorie les langues prises en charge par le générateur de jetons de recherche de clé de recherche de la langue Microsoft.

MicrosoftTokenizerLanguage

Répertorie les langues prises en charge par le générateur de jetons de langue Microsoft.

NGramTokenFilter

Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

NGramTokenFilterV2

Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

NGramTokenizer

Tokenise l’entrée en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

OutputFieldMappingEntry

Mappage de champs de sortie pour une compétence.

PathHierarchyTokenizerV2

Tokenizer pour les hiérarchies similaires au chemin d’accès. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

PatternAnalyzer

Sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene.

PatternCaptureTokenFilter

Utilise des regex Java pour émettre plusieurs jetons : un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PatternReplaceCharFilter

Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

PatternReplaceTokenFilter

Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PatternTokenizer

Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

PhoneticEncoder

Identifie le type d’encodeur phonétique à utiliser avec un PhoneticTokenFilter.

PhoneticTokenFilter

Créez des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PrioritizedFields

Décrit les champs de titre, de contenu et de mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses.

RegexFlags

Définit des indicateurs qui peuvent être combinés pour contrôler la façon dont les expressions régulières sont utilisées dans l’analyseur de modèle et le générateur de jetons de modèle.

ScalarQuantizationParameters

Contient les paramètres spécifiques à la quantisation scalaire.

ScalarQuantizationVectorSearchCompressionConfiguration

Contient des options de configuration spécifiques à la méthode de compression de quantisation scalaire utilisée lors de l’indexation et de l’interrogation.

ScoringFunctionAggregation

Définit la fonction d’agrégation utilisée pour combiner les résultats de toutes les fonctions de scoring dans un profil de scoring.

ScoringFunctionInterpolation

Définit la fonction utilisée pour interpoler l’amélioration du score sur une plage de documents.

ScoringProfile

Définit des paramètres pour un index de recherche qui influencent le scoring dans les requêtes de recherche.

SearchField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

SearchFieldDataType

Définit le type de données d’un champ dans un index de recherche.

SearchIndex

Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index.

SearchIndexerDataNoneIdentity

Efface la propriété d’identité d’une source de données.

SearchIndexerDataUserAssignedIdentity

Spécifie l’identité d’une source de données à utiliser.

SearchResourceEncryptionKey

Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos, telles que des index et des mappages de synonymes.

SemanticConfiguration

Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques.

SemanticField

Champ utilisé dans le cadre de la configuration sémantique.

SemanticSettings

Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.

ShingleTokenFilter

Crée des combinaisons de jetons en tant que jeton unique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

SnowballTokenFilter

Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

SnowballTokenFilterLanguage

Langue à utiliser pour un filtre de jeton Snowball.

StemmerOverrideTokenFilter

Fournit la possibilité de remplacer d’autres filtres de recherche de recherche par recherche de données personnalisées basées sur des dictionnaires. Tous les termes liés aux dictionnaires seront marqués comme des mots clés afin qu’ils ne soient pas suivis de formes dérivées dans la chaîne. Doit être placé avant les filtres de recherche de recherche. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

StemmerTokenFilter

Filtre de recherche de recherche spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

StemmerTokenFilterLanguage

Langage à utiliser pour un filtre de jeton de type stemmer.

StopAnalyzer

Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene.

StopwordsList

Identifie une liste prédéfinie de mots vides spécifiques à la langue.

StopwordsTokenFilter

Supprime les mots d’arrêt d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Suggester

Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index.

SuggesterSearchMode

Valeur indiquant les fonctionnalités de l’suggesteur.

SynonymTokenFilter

Correspond aux synonymes à mot unique ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

TagScoringFunction

Définit une fonction qui améliore les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises.

TagScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’étiquette.

TextWeights

Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche.

TokenCharacterKind

Représente des classes de caractères sur lesquelles un filtre de jeton peut fonctionner.

TokenFilterName

Définit les noms de tous les filtres de jetons pris en charge par le moteur de recherche.

TruncateTokenFilter

Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

UaxUrlEmailTokenizer

Tokenise les URL et les e-mails sous la forme d’un seul jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

UniqueTokenFilter

Filtre les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

VectorEncodingFormat

Format d’encodage pour interpréter le contenu du champ vectoriel.

VectorSearch

Contient des options de configuration liées à la recherche vectorielle.

VectorSearchAlgorithmKind

Algorithme utilisé pour l’indexation et l’interrogation.

VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs. Il est recommandé de choisir la même métrique de similarité que le modèle d’incorporation a été entraîné.

VectorSearchCompressionKind

Méthode de compression utilisée pour l’indexation et l’interrogation.

VectorSearchCompressionTargetDataType

Type de données quantifié de valeurs vectorielles compressées.

VectorSearchProfile

Définit une combinaison de configurations à utiliser avec la recherche vectorielle.

VectorSearchVectorizerKind

Méthode de vectorisation à utiliser pendant le temps de requête.

WebApiParameters

Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur.

WebApiVectorizer

Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est obtenue à l’aide de l’interface d’API Web personnalisée d’un ensemble de compétences.

WordDelimiterTokenFilter

Fractionne les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

AsciiFoldingTokenFilter

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

preserveOriginal

boolean

False

Valeur indiquant si le jeton d’origine sera conservé. La valeur par défaut est false.

AzureActiveDirectoryApplicationCredentials

Informations d’identification d’une application inscrite créée pour votre service de recherche, utilisée pour l’accès authentifié aux clés de chiffrement stockées dans Azure Key Vault.

Nom Type Description
applicationId

string

ID d’application AAD qui a reçu les autorisations d’accès requises au coffre de clés Azure à utiliser lors du chiffrement de vos données au repos. L’ID d’application ne doit pas être confondu avec l’ID d’objet de votre application AAD.

applicationSecret

string

Clé d’authentification de l’application AAD spécifiée.

AzureOpenAIEmbeddingSkill

Vous permet de générer un incorporation vectorielle pour une entrée de texte donnée à l’aide de la ressource Azure OpenAI.

Nom Type Description
@odata.type string:

#Microsoft.Skills.Text.AzureOpenAIEmbeddingSkill

Fragment d’URI spécifiant le type de compétence.

apiKey

string

Clé API de la ressource Azure OpenAI désignée.

authIdentity SearchIndexerDataIdentity:

Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes.

context

string

Représente le niveau auquel les opérations se produisent, telles que la racine du document ou le contenu du document (par exemple, /document ou /document/content). La valeur par défaut est /document.

deploymentId

string

ID du déploiement du modèle Azure OpenAI sur la ressource désignée.

description

string

Description de la compétence qui décrit les entrées, sorties et utilisation de la compétence.

dimensions

integer

Nombre de dimensions dont les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans les modèles text-embedding-3 et ultérieur.

inputs

InputFieldMappingEntry[]

Les entrées des compétences peuvent être une colonne dans le jeu de données source ou la sortie d’une compétence en amont.

modelName

AzureOpenAIModelName

Nom du modèle d’incorporation déployé sur le chemin d’accès deploymentId fourni.

name

string

Nom de la compétence qui l’identifie de manière unique dans l’ensemble de compétences. Une compétence sans nom défini reçoit un nom par défaut de son index basé sur 1 dans le tableau de compétences, précédé du caractère « # ».

outputs

OutputFieldMappingEntry[]

La sortie d’une compétence est soit un champ dans un index de recherche, soit une valeur qui peut être consommée comme entrée par une autre compétence.

resourceUri

string

URI de ressource de la ressource Azure OpenAI.

AzureOpenAIModelName

Nom du modèle Azure Open AI qui sera appelé.

Nom Type Description
text-embedding-3-large

string

text-embedding-3-small

string

text-embedding-ada-002

string

AzureOpenAIParameters

Spécifie les paramètres de connexion à la ressource Azure OpenAI.

Nom Type Description
apiKey

string

Clé API de la ressource Azure OpenAI désignée.

authIdentity SearchIndexerDataIdentity:

Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes.

deploymentId

string

ID du déploiement du modèle Azure OpenAI sur la ressource désignée.

modelName

AzureOpenAIModelName

Nom du modèle d’incorporation déployé sur le chemin d’accès deploymentId fourni.

resourceUri

string

URI de ressource de la ressource Azure OpenAI.

AzureOpenAIVectorizer

Spécifie la ressource Azure OpenAI utilisée pour vectoriser une chaîne de requête.

Nom Type Description
azureOpenAIParameters AzureOpenAIParameters:

AzureOpenAIEmbeddingSkill

Contient les paramètres spécifiques à la vectorisation incorporée Azure OpenAI.

kind string:

azureOpenAI

Nom du type de méthode de vectorisation configuré pour une utilisation avec la recherche vectorielle.

name

string

Nom à associer à cette méthode de vectorisation particulière.

BinaryQuantizationVectorSearchCompressionConfiguration

Contient des options de configuration spécifiques à la méthode de compression de quantisation binaire utilisée lors de l’indexation et de l’interrogation.

Nom Type Valeur par défaut Description
defaultOversampling

number

Facteur de surachantillonnage par défaut. Le surachantage demande en interne davantage de documents (spécifiés par ce multiplicateur) dans la recherche initiale. Cela augmente l’ensemble des résultats qui seront reclassés à l’aide de scores de similarité reputés à partir de vecteurs de précision complète. La valeur minimale est 1, ce qui signifie qu’aucun suréchantillonnage (1x). Ce paramètre ne peut être défini que lorsque rerankWithOriginalVectors a la valeur true. Les valeurs plus élevées améliorent le rappel au détriment de la latence.

kind string:

binaryQuantization

Nom du type de méthode de compression configuré pour une utilisation avec la recherche vectorielle.

name

string

Nom à associer à cette configuration particulière.

rerankWithOriginalVectors

boolean

True

Si la valeur est true, une fois que l’ensemble ordonné de résultats calculés à l’aide de vecteurs compressés est obtenu, ils seront reclassés en recalculant les scores de similarité de précision complète. Cela permettra d’améliorer le rappel au détriment de la latence.

BM25Similarity

Fonction de classement basée sur l’algorithme de similarité OKapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de longueur (contrôlée par le paramètre « b ») ainsi que la saturation de fréquence de terme (contrôlée par le paramètre « k1 »).

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

b

number

Cette propriété contrôle la façon dont la longueur d’un document affecte le score de pertinence. Par défaut, une valeur de 0,75 est utilisée. La valeur 0,0 signifie qu’aucune normalisation de longueur n’est appliquée, tandis qu’une valeur de 1,0 signifie que le score est entièrement normalisé par la longueur du document.

k1

number

Cette propriété contrôle la fonction de mise à l’échelle entre la fréquence de terme de chaque terme correspondant et le score de pertinence final d’une paire document-requête. Par défaut, une valeur de 1.2 est utilisée. La valeur 0,0 signifie que le score n’est pas mis à l’échelle avec une augmentation de la fréquence de terme.

CharFilterName

Définit les noms de tous les filtres de caractères pris en charge par le moteur de recherche.

Nom Type Description
html_strip

string

Filtre de caractères qui tente de supprimer les constructions HTML. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilter

Forme des bigrams de termes CJK générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

ignoreScripts

CjkBigramTokenFilterScripts[]

Scripts à ignorer.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

outputUnigrams

boolean

False

Valeur indiquant s’il faut générer à la fois des unigrammes et des bigrams (si true) ou simplement des bigrams (si false). La valeur par défaut est false.

CjkBigramTokenFilterScripts

Scripts qui peuvent être ignorés par CjkBigramTokenFilter.

Nom Type Description
han

string

Ignorez le script Han lors de la formation de bigrams de termes CJK.

hangul

string

Ignorez le script Hangul lors de la formation de bigrams de termes CJK.

hiragana

string

Ignorez le script Hiragana lors de la formation de bigrams de termes CJK.

katakana

string

Ignorez le script Katakana lors de la formation de bigrams de termes CJK.

ClassicSimilarity

Algorithme de similarité hérité qui utilise l’implémentation lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit la normalisation de longueur de document statique ainsi que les facteurs de coordination qui pénalisent les documents qui ne correspondent qu’en partie aux requêtes recherchées.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

ClassicTokenizer

Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

Fragment d’URI spécifiant le type de tokenizer.

maxTokenLength

integer

255

Longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

CommonGramTokenFilter

Construisez des bigrams pour des termes fréquents lors de l’indexation. Les termes uniques sont toujours indexés, avec des bigrams superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

commonWords

string[]

Ensemble de mots communs.

ignoreCase

boolean

False

Valeur indiquant si les mots communs correspondants ne respectent pas la casse. La valeur par défaut est false.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

queryMode

boolean

False

Valeur qui indique si le filtre de jeton est en mode requête. En mode requête, le filtre de jeton génère des bigrams, puis supprime les mots courants et les termes uniques suivis d’un mot commun. La valeur par défaut est false.

CorsOptions

Définit les options permettant de contrôler le partage de ressources cross-origin (CORS) pour un index.

Nom Type Description
allowedOrigins

string[]

Liste des origines à partir de laquelle le code JavaScript sera autorisé à accéder à votre index. Peut contenir une liste d’hôtes du formulaire {protocol} ://{nom-domaine-complet}[ :{port#}], ou un seul '*' pour autoriser toutes les origines (non recommandées).

maxAgeInSeconds

integer

Durée pendant laquelle les navigateurs doivent mettre en cache les réponses préliminaires CORS. La valeur par défaut est de 5 minutes.

CustomAnalyzer

Vous permet de contrôler le processus de conversion de texte en jetons indexables/pouvant faire l’objet d’une recherche. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul tokenizer prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres pour modifier les jetons émis par le tokenizer.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

Fragment d’URI spécifiant le type d’analyseur.

charFilters

CharFilterName[]

Liste des filtres de caractères utilisés pour préparer le texte d’entrée avant qu’il ne soit traité par le tokenizer. Par exemple, ils peuvent remplacer certains caractères ou symboles. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés.

name

string

Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

tokenFilters

TokenFilterName[]

Liste des filtres de jetons utilisés pour filtrer ou modifier les jetons générés par un tokenizer. Par exemple, vous pouvez spécifier un filtre en minuscules qui convertit tous les caractères en minuscules. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés.

tokenizer

LexicalTokenizerName

Nom du générateur de jetons à utiliser pour diviser le texte continu en une séquence de jetons, par exemple en cassant une phrase en mots.

DictionaryDecompounderTokenFilter

Décompose les mots composés trouvés dans de nombreuses langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

maxSubwordSize

integer

15

Taille maximale des sous-mots. Seuls les sous-mots plus courts que celui-ci sont générés. La valeur par défaut est 15. La valeur maximale est de 300.

minSubwordSize

integer

2

Taille minimale du sous-mot. Seuls les sous-mots plus longs que ceux-ci sont générés. La valeur par défaut est 2. La valeur maximale est de 300.

minWordSize

integer

5

Taille minimale du mot. Seuls les mots plus longs que celui-ci sont traités. La valeur par défaut est 5. La valeur maximale est de 300.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

onlyLongestMatch

boolean

False

Valeur indiquant s’il faut ajouter uniquement le sous-mot correspondant le plus long à la sortie. La valeur par défaut est false.

wordList

string[]

Liste des mots à mettre en correspondance.

DistanceScoringFunction

Définit une fonction qui améliore les scores en fonction de la distance d’un emplacement géographique.

Nom Type Description
boost

number

Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0.

distance

DistanceScoringParameters

Valeurs de paramètre pour la fonction de scoring de distance.

fieldName

string

Nom du champ utilisé comme entrée de la fonction de scoring.

interpolation

ScoringFunctionInterpolation

Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ».

type string:

distance

Indique le type de fonction à utiliser. Les valeurs valides incluent la magnitude, l’actualisation, la distance et la balise. Le type de fonction doit être en minuscules.

DistanceScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de distance.

Nom Type Description
boostingDistance

number

Distance en kilomètres de l’emplacement de référence où se termine la plage de boosting.

referencePointParameter

string

Nom du paramètre passé dans les requêtes de recherche pour spécifier l’emplacement de référence.

EdgeNGramTokenFilter

Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

maxGram

integer

2

Longueur maximale de n-gramme. La valeur par défaut est 2.

minGram

integer

1

Longueur minimale de n-gramme. La valeur par défaut est 1. Doit être inférieur à la valeur de maxGram.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

side

EdgeNGramTokenFilterSide

front

Spécifie le côté de l’entrée à partir duquel le n-grammes doit être généré. La valeur par défaut est « front ».

EdgeNGramTokenFilterSide

Spécifie le côté de l’entrée à partir duquel un n-grammes doit être généré.

Nom Type Description
back

string

Spécifie que le n-grammes doit être généré à partir de l’arrière de l’entrée.

front

string

Spécifie que le n-grammes doit être généré à partir de l’avant de l’entrée.

EdgeNGramTokenFilterV2

Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

Fragment d’URI spécifiant le type de filtre de jeton.

maxGram

integer

2

Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300.

minGram

integer

1

Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

side

EdgeNGramTokenFilterSide

front

Spécifie le côté de l’entrée à partir duquel le n-grammes doit être généré. La valeur par défaut est « front ».

EdgeNGramTokenizer

Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

Fragment d’URI spécifiant le type de tokenizer.

maxGram

integer

2

Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300.

minGram

integer

1

Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

tokenChars

TokenCharacterKind[]

Classes de caractères à conserver dans les jetons.

ElisionTokenFilter

Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

articles

string[]

Ensemble d’articles à supprimer.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

ErrorAdditionalInfo

Informations supplémentaires sur l’erreur de gestion des ressources.

Nom Type Description
info

object

Informations supplémentaires.

type

string

Type d’informations supplémentaire.

ErrorDetail

Détail de l’erreur.

Nom Type Description
additionalInfo

ErrorAdditionalInfo[]

Informations supplémentaires sur l’erreur.

code

string

Code d’erreur.

details

ErrorDetail[]

Détails de l’erreur.

message

string

Message d’erreur.

target

string

Cible d’erreur.

ErrorResponse

Réponse d’erreur

Nom Type Description
error

ErrorDetail

Objet d’erreur.

ExhaustiveKnnParameters

Contient les paramètres spécifiques à l’algorithme KNN exhaustif.

Nom Type Description
metric

VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectue une recherche par force brute sur l’index vectoriel entier.

Nom Type Description
exhaustiveKnnParameters

ExhaustiveKnnParameters

Contient les paramètres spécifiques à l’algorithme KNN exhaustif.

kind string:

exhaustiveKnn

Nom du type d’algorithme configuré pour une utilisation avec la recherche vectorielle.

name

string

Nom à associer à cette configuration particulière.

FreshnessScoringFunction

Définit une fonction qui améliore les scores en fonction de la valeur d’un champ date-heure.

Nom Type Description
boost

number

Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0.

fieldName

string

Nom du champ utilisé comme entrée de la fonction de scoring.

freshness

FreshnessScoringParameters

Valeurs de paramètre pour la fonction de scoring de l’actualisation.

interpolation

ScoringFunctionInterpolation

Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ».

type string:

freshness

Indique le type de fonction à utiliser. Les valeurs valides incluent la magnitude, l’actualisation, la distance et la balise. Le type de fonction doit être en minuscules.

FreshnessScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’actualisation.

Nom Type Description
boostingDuration

string

Période d’expiration après laquelle l’amélioration s’arrêtera pour un document particulier.

HnswParameters

Contient les paramètres spécifiques à l’algorithme HNSW.

Nom Type Valeur par défaut Description
efConstruction

integer

400

Taille de la liste dynamique contenant les voisins les plus proches, qui est utilisée pendant l’heure d’index. L’augmentation de ce paramètre peut améliorer la qualité de l’index, au détriment de l’augmentation du temps d’indexation. À un certain moment, l’augmentation de ce paramètre entraîne une diminution des retours.

efSearch

integer

500

Taille de la liste dynamique contenant les voisins les plus proches, qui est utilisée pendant le temps de recherche. L’augmentation de ce paramètre peut améliorer les résultats de la recherche, au détriment de la recherche plus lente. À un certain moment, l’augmentation de ce paramètre entraîne une diminution des retours.

m

integer

4

Nombre de liens bidirectionnels créés pour chaque nouvel élément pendant la construction. L’augmentation de cette valeur de paramètre peut améliorer le rappel et réduire les temps de récupération des jeux de données avec une dimensionnalité intrinsèque élevée au détriment de la consommation de mémoire accrue et du temps d’indexation plus long.

metric

VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs.

HnswVectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme HNSW le plus proche utilisé lors de l’indexation et de l’interrogation. L’algorithme HNSW offre un compromis entre la vitesse de recherche et la précision.

Nom Type Description
hnswParameters

HnswParameters

Contient les paramètres spécifiques à l’algorithme HNSW.

kind string:

hnsw

Nom du type d’algorithme configuré pour une utilisation avec la recherche vectorielle.

name

string

Nom à associer à cette configuration particulière.

InputFieldMappingEntry

Mappage de champs d’entrée pour une compétence.

Nom Type Description
inputs

InputFieldMappingEntry[]

Entrées récursives utilisées lors de la création d’un type complexe.

name

string

Nom de l’entrée.

source

string

Source de l’entrée.

sourceContext

string

Contexte source utilisé pour sélectionner des entrées récursives.

KeepTokenFilter

Filtre de jeton qui conserve uniquement les jetons avec du texte contenu dans une liste spécifiée de mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

keepWords

string[]

Liste des mots à conserver.

keepWordsCase

boolean

False

Valeur indiquant s’il faut d’abord mettre en minuscules tous les mots. La valeur par défaut est false.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

KeywordMarkerTokenFilter

Marque les termes en tant que mots clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

ignoreCase

boolean

False

Valeur indiquant s’il faut ignorer la casse. Si la valeur est true, tous les mots sont convertis en minuscules en premier. La valeur par défaut est false.

keywords

string[]

Liste de mots à marquer comme mots clés.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

KeywordTokenizer

Émet l’entrée entière sous forme de jeton unique. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

Fragment d’URI spécifiant le type de tokenizer.

bufferSize

integer

256

Taille de mémoire tampon de lecture en octets. La valeur par défaut est 256.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

KeywordTokenizerV2

Émet l’entrée entière sous forme de jeton unique. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

Fragment d’URI spécifiant le type de tokenizer.

maxTokenLength

integer

256

Longueur maximale du jeton. La valeur par défaut est 256. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

LengthTokenFilter

Supprime les mots trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

max

integer

300

Longueur maximale en caractères. La valeur par défaut et la valeur maximale est 300.

min

integer

0

Longueur minimale en caractères. La valeur par défaut est 0. La valeur maximale est de 300. Doit être inférieur à la valeur maximale.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

LexicalAnalyzerName

Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche.

Nom Type Description
ar.lucene

string

Analyseur Lucene pour l’arabe.

ar.microsoft

string

Analyseur Microsoft pour l’arabe.

bg.lucene

string

Analyseur Lucene pour bulgare.

bg.microsoft

string

Analyseur Microsoft pour bulgare.

bn.microsoft

string

Analyseur Microsoft pour Bangla.

ca.lucene

string

Analyseur Lucene pour catalan.

ca.microsoft

string

Analyseur Microsoft pour catalan.

cs.lucene

string

Analyseur Lucene pour tchèque.

cs.microsoft

string

Analyseur Microsoft pour tchèque.

da.lucene

string

Analyseur Lucene pour danois.

da.microsoft

string

Analyseur Microsoft pour danois.

de.lucene

string

Analyseur Lucene pour allemand.

de.microsoft

string

Analyseur Microsoft pour allemand.

el.lucene

string

Analyseur Lucene pour grec.

el.microsoft

string

Analyseur Microsoft pour grec.

en.lucene

string

Analyseur Lucene pour l’anglais.

en.microsoft

string

Analyseur Microsoft pour l’anglais.

es.lucene

string

Analyseur Lucene pour l’espagnol.

es.microsoft

string

Analyseur Microsoft pour l’espagnol.

et.microsoft

string

Analyseur Microsoft pour estonien.

eu.lucene

string

Analyseur Lucene pour basque.

fa.lucene

string

Analyseur Lucene pour Persane.

fi.lucene

string

Analyseur Lucene pour le finnois.

fi.microsoft

string

Analyseur Microsoft pour finnois.

fr.lucene

string

Analyseur Lucene pour français.

fr.microsoft

string

Analyseur Microsoft pour français.

ga.lucene

string

Analyseur Lucene pour irlandais.

gl.lucene

string

Analyseur Lucene pour Galicien.

gu.microsoft

string

Analyseur Microsoft pour Gujarati.

he.microsoft

string

Analyseur Microsoft pour hébreu.

hi.lucene

string

Analyseur Lucene pour hindi.

hi.microsoft

string

Analyseur Microsoft pour hindi.

hr.microsoft

string

Analyseur Microsoft pour croate.

hu.lucene

string

Analyseur Lucene pour hongrois.

hu.microsoft

string

Analyseur Microsoft pour hongrois.

hy.lucene

string

Analyseur Lucene pour arménien.

id.lucene

string

Analyseur Lucene pour l’Indonésien.

id.microsoft

string

Analyseur Microsoft pour indonésien (Bahasa).

is.microsoft

string

Analyseur Microsoft pour l’Islande.

it.lucene

string

Analyseur Lucene pour italien.

it.microsoft

string

Analyseur Microsoft pour italien.

ja.lucene

string

Analyseur Lucene pour japonais.

ja.microsoft

string

Analyseur Microsoft pour japonais.

keyword

string

Traite l’intégralité du contenu d’un champ comme un seul jeton. Cela est utile pour les données telles que les codes postal, les ID et certains noms de produits. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html

kn.microsoft

string

Analyseur Microsoft pour Kannada.

ko.lucene

string

Analyseur Lucene pour coréen.

ko.microsoft

string

Analyseur Microsoft pour coréen.

lt.microsoft

string

Analyseur Microsoft pour lituanien.

lv.lucene

string

Analyseur Lucene pour letton.

lv.microsoft

string

Analyseur Microsoft pour letton.

ml.microsoft

string

Analyseur Microsoft pour Malayalam.

mr.microsoft

string

Analyseur Microsoft pour Marathi.

ms.microsoft

string

Analyseur Microsoft pour Malay (latin).

nb.microsoft

string

Analyseur Microsoft pour norvégien (Bokmål).

nl.lucene

string

Analyseur Lucene pour néerlandais.

nl.microsoft

string

Analyseur Microsoft pour néerlandais.

no.lucene

string

Analyseur Lucene pour norvégien.

pa.microsoft

string

Analyseur Microsoft pour Punjabi.

pattern

string

Sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

pl.lucene

string

Analyseur Lucene pour polonais.

pl.microsoft

string

Analyseur Microsoft pour polonais.

pt-BR.lucene

string

Analyseur Lucene pour portugais (Brésil).

pt-BR.microsoft

string

Analyseur Microsoft pour portugais (Brésil).

pt-PT.lucene

string

Analyseur Lucene pour portugais (Portugal).

pt-PT.microsoft

string

Analyseur Microsoft pour portugais (Portugal).

ro.lucene

string

Analyseur Lucene pour roumain.

ro.microsoft

string

Analyseur Microsoft pour roumain.

ru.lucene

string

Analyseur Lucene pour russe.

ru.microsoft

string

Analyseur Microsoft pour russe.

simple

string

Divise le texte en lettres non lettres et les convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html

sk.microsoft

string

Analyseur Microsoft pour slovaque.

sl.microsoft

string

Analyseur Microsoft pour le Slovène.

sr-cyrillic.microsoft

string

Analyseur Microsoft pour serbe (cyrillique).

sr-latin.microsoft

string

Analyseur Microsoft pour serbe (latin).

standard.lucene

string

Analyseur Lucene standard.

standardasciifolding.lucene

string

Analyseur Lucene pliant ASCII standard. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers

stop

string

Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

sv.lucene

string

Analyseur Lucene pour suédois.

sv.microsoft

string

Analyseur Microsoft pour suédois.

ta.microsoft

string

Analyseur Microsoft pour tamoul.

te.microsoft

string

Analyseur Microsoft pour Telugu.

th.lucene

string

Analyseur Lucene pour thaï.

th.microsoft

string

Analyseur Microsoft pour thaï.

tr.lucene

string

Analyseur Lucene pour turc.

tr.microsoft

string

Analyseur Microsoft pour turc.

uk.microsoft

string

Analyseur Microsoft pour ukrainien.

ur.microsoft

string

Analyseur Microsoft pour Urdu.

vi.microsoft

string

Analyseur Microsoft pour le Vietnamien.

whitespace

string

Analyseur qui utilise le générateur de jetons d’espace blanc. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

zh-Hans.lucene

string

Analyseur Lucene pour chinois (simplifié).

zh-Hans.microsoft

string

Analyseur Microsoft pour chinois (simplifié).

zh-Hant.lucene

string

Analyseur Lucene pour chinois (traditionnel).

zh-Hant.microsoft

string

Analyseur Microsoft pour chinois (traditionnel).

LexicalTokenizerName

Définit les noms de tous les tokenizers pris en charge par le moteur de recherche.

Nom Type Description
classic

string

Tokenizer basé sur la grammaire qui convient pour le traitement de la plupart des documents en langue européenne. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

edgeNGram

string

Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

keyword_v2

string

Émet l’entrée entière sous forme de jeton unique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

letter

string

Divise le texte en lettres non lettres. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

lowercase

string

Divise le texte en lettres non lettres et les convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

microsoft_language_stemming_tokenizer

string

Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leurs formulaires de base.

microsoft_language_tokenizer

string

Divise le texte à l’aide de règles spécifiques à la langue.

nGram

string

Tokenise l’entrée en n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

path_hierarchy_v2

string

Tokenizer pour les hiérarchies similaires au chemin d’accès. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

pattern

string

Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

standard_v2

string

Analyseur Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

uax_url_email

string

Tokenise les URL et les e-mails sous la forme d’un seul jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

whitespace

string

Divise le texte à l’espace blanc. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

LimitTokenFilter

Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

consumeAllTokens

boolean

False

Valeur indiquant si tous les jetons de l’entrée doivent être consommés même si maxTokenCount est atteint. La valeur par défaut est false.

maxTokenCount

integer

1

Nombre maximal de jetons à produire. La valeur par défaut est 1.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

LuceneStandardAnalyzer

Analyseur Apache Lucene standard ; Composé du générateur de jetons standard, du filtre minuscule et du filtre d’arrêt.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

Fragment d’URI spécifiant le type d’analyseur.

maxTokenLength

integer

255

Longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères.

name

string

Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

stopwords

string[]

Liste des mots vides.

LuceneStandardTokenizer

Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

Fragment d’URI spécifiant le type de tokenizer.

maxTokenLength

integer

255

Longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont fractionnés.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

LuceneStandardTokenizerV2

Interrompt le texte suivant les règles de segmentation de texte Unicode. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

Fragment d’URI spécifiant le type de tokenizer.

maxTokenLength

integer

255

Longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

MagnitudeScoringFunction

Définit une fonction qui améliore les scores en fonction de l’ampleur d’un champ numérique.

Nom Type Description
boost

number

Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0.

fieldName

string

Nom du champ utilisé comme entrée de la fonction de scoring.

interpolation

ScoringFunctionInterpolation

Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ».

magnitude

MagnitudeScoringParameters

Valeurs de paramètre pour la fonction de scoring de magnitude.

type string:

magnitude

Indique le type de fonction à utiliser. Les valeurs valides incluent la magnitude, l’actualisation, la distance et la balise. Le type de fonction doit être en minuscules.

MagnitudeScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de magnitude.

Nom Type Description
boostingRangeEnd

number

Valeur de champ à laquelle l’amélioration se termine.

boostingRangeStart

number

Valeur de champ à laquelle l’amélioration commence.

constantBoostBeyondRange

boolean

Valeur indiquant s’il faut appliquer une augmentation constante pour les valeurs de champ au-delà de la valeur de fin de plage ; la valeur par défaut est false.

MappingCharFilter

Filtre de caractères qui applique les mappages définis avec l’option mappages. La correspondance est gourmande (la correspondance la plus longue à un point donné gagne). Le remplacement est autorisé à être la chaîne vide. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

Fragment d’URI spécifiant le type de filtre de caractères.

mappings

string[]

Liste des mappages du format suivant : « a =>b » (toutes les occurrences du caractère « a » seront remplacées par le caractère « b »).

name

string

Nom du filtre char. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

MicrosoftLanguageStemmingTokenizer

Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leurs formulaires de base.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

Fragment d’URI spécifiant le type de tokenizer.

isSearchTokenizer

boolean

False

Valeur indiquant comment le tokenizer est utilisé. Définissez la valeur true si elle est utilisée comme générateur de jetons de recherche, définie sur false si elle est utilisée comme générateur de jetons d’indexation. La valeur par défaut est false.

language

MicrosoftStemmingTokenizerLanguage

Langue à utiliser. La valeur par défaut est l’anglais.

maxTokenLength

integer

255

Longueur maximale du jeton. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. Les jetons de plus de 300 caractères sont d’abord divisés en jetons de longueur 300, puis chacun de ces jetons est divisé en fonction de la longueur maximale du jeton défini. La valeur par défaut est 255.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

MicrosoftLanguageTokenizer

Divise le texte à l’aide de règles spécifiques à la langue.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

Fragment d’URI spécifiant le type de tokenizer.

isSearchTokenizer

boolean

False

Valeur indiquant comment le tokenizer est utilisé. Définissez la valeur true si elle est utilisée comme générateur de jetons de recherche, définie sur false si elle est utilisée comme générateur de jetons d’indexation. La valeur par défaut est false.

language

MicrosoftTokenizerLanguage

Langue à utiliser. La valeur par défaut est l’anglais.

maxTokenLength

integer

255

Longueur maximale du jeton. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères. Les jetons de plus de 300 caractères sont d’abord divisés en jetons de longueur 300, puis chacun de ces jetons est divisé en fonction de la longueur maximale du jeton défini. La valeur par défaut est 255.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

MicrosoftStemmingTokenizerLanguage

Répertorie les langues prises en charge par le générateur de jetons de recherche de clé de recherche de la langue Microsoft.

Nom Type Description
arabic

string

Sélectionne le générateur de jetons de recherche microsoft pour l’arabe.

bangla

string

Sélectionne le générateur de jetons de recherche microsoft pour Bangla.

bulgarian

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour bulgare.

catalan

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour catalan.

croatian

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le croate.

czech

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le tchèque.

danish

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le danois.

dutch

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le néerlandais.

english

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’anglais.

estonian

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’Estonien.

finnish

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le finnois.

french

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le français.

german

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’allemand.

greek

string

Sélectionne le générateur de jetons de recherche microsoft pour grec.

gujarati

string

Sélectionne le générateur de jetons de recherche microsoft pour Gujarati.

hebrew

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour hébreu.

hindi

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’hindi.

hungarian

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour hongrois.

icelandic

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’Islande.

indonesian

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’Indonésien.

italian

string

Sélectionne le tokenizer de recherche de recherche microsoft pour l’italien.

kannada

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour Kannada.

latvian

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour letton.

lithuanian

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour lituanien.

malay

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour Malay.

malayalam

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour Malayalam.

marathi

string

Sélectionne le générateur de jetons de recherche microsoft pour Marathi.

norwegianBokmaal

string

Sélectionne le tokenizer de recherche de recherche microsoft pour norvégien (Bokmål).

polish

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le polonais.

portuguese

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le portugais.

portugueseBrazilian

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le portugais (Brésil).

punjabi

string

Sélectionne le générateur de jetons de recherche microsoft pour Punjabi.

romanian

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour roumain.

russian

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour russe.

serbianCyrillic

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le serbe (cyrillique).

serbianLatin

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le serbe (latin).

slovak

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le slovaque.

slovenian

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour le slovène.

spanish

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’espagnol.

swedish

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour suédois.

tamil

string

Sélectionne le générateur de jetons de recherche microsoft pour le Tamoul.

telugu

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour Telugu.

turkish

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour turc.

ukrainian

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour l’Ukrainien.

urdu

string

Sélectionne le générateur de jetons de recherche de recherche microsoft pour Urdu.

MicrosoftTokenizerLanguage

Répertorie les langues prises en charge par le générateur de jetons de langue Microsoft.

Nom Type Description
bangla

string

Sélectionne le tokenizer Microsoft pour Bangla.

bulgarian

string

Sélectionne le tokenizer Microsoft pour bulgare.

catalan

string

Sélectionne le tokenizer Microsoft pour catalan.

chineseSimplified

string

Sélectionne le tokenizer Microsoft pour chinois (simplifié).

chineseTraditional

string

Sélectionne le tokenizer Microsoft pour chinois (traditionnel).

croatian

string

Sélectionne le tokenizer Microsoft pour croate.

czech

string

Sélectionne le tokenizer Microsoft pour tchèque.

danish

string

Sélectionne le tokenizer Microsoft pour danois.

dutch

string

Sélectionne le tokenizer Microsoft pour néerlandais.

english

string

Sélectionne le tokenizer Microsoft pour l’anglais.

french

string

Sélectionne le tokenizer Microsoft pour le français.

german

string

Sélectionne le tokenizer Microsoft pour l’allemand.

greek

string

Sélectionne le tokenizer Microsoft pour grec.

gujarati

string

Sélectionne le tokenizer Microsoft pour Gujarati.

hindi

string

Sélectionne le tokenizer Microsoft pour hindi.

icelandic

string

Sélectionne le tokenizer Microsoft pour l’Islande.

indonesian

string

Sélectionne le tokenizer Microsoft pour l’Indonésien.

italian

string

Sélectionne le tokenizer Microsoft pour l’italien.

japanese

string

Sélectionne le tokenizer Microsoft pour japonais.

kannada

string

Sélectionne le tokenizer Microsoft pour Kannada.

korean

string

Sélectionne le tokenizer Microsoft pour coréen.

malay

string

Sélectionne le tokenizer Microsoft pour Malay.

malayalam

string

Sélectionne le tokenizer Microsoft pour Malayalam.

marathi

string

Sélectionne le tokenizer Microsoft pour Marathi.

norwegianBokmaal

string

Sélectionne le tokenizer Microsoft pour norvégien (Bokmål).

polish

string

Sélectionne le tokenizer Microsoft pour polonais.

portuguese

string

Sélectionne le tokenizer Microsoft pour le portugais.

portugueseBrazilian

string

Sélectionne le tokenizer Microsoft pour le Portugais (Brésil).

punjabi

string

Sélectionne le tokenizer Microsoft pour Punjabi.

romanian

string

Sélectionne le tokenizer Microsoft pour roumain.

russian

string

Sélectionne le tokenizer Microsoft pour russe.

serbianCyrillic

string

Sélectionne le tokenizer Microsoft pour serbe (cyrillique).

serbianLatin

string

Sélectionne le tokenizer Microsoft pour serbe (latin).

slovenian

string

Sélectionne le tokenizer Microsoft pour le Slovène.

spanish

string

Sélectionne le tokenizer Microsoft pour l’espagnol.

swedish

string

Sélectionne le tokenizer Microsoft pour suédois.

tamil

string

Sélectionne le tokenizer Microsoft pour Tamoul.

telugu

string

Sélectionne le tokenizer Microsoft pour Telugu.

thai

string

Sélectionne le tokenizer Microsoft pour thaï.

ukrainian

string

Sélectionne le tokenizer Microsoft pour l’Ukrainien.

urdu

string

Sélectionne le tokenizer Microsoft pour Urdu.

vietnamese

string

Sélectionne le générateur de jetons Microsoft pour le Vietnamien.

NGramTokenFilter

Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

maxGram

integer

2

Longueur maximale de n-gramme. La valeur par défaut est 2.

minGram

integer

1

Longueur minimale de n-gramme. La valeur par défaut est 1. Doit être inférieur à la valeur de maxGram.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

NGramTokenFilterV2

Génère des n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

Fragment d’URI spécifiant le type de filtre de jeton.

maxGram

integer

2

Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300.

minGram

integer

1

Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

NGramTokenizer

Tokenise l’entrée en n-grammes de la ou des tailles données. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

Fragment d’URI spécifiant le type de tokenizer.

maxGram

integer

2

Longueur maximale de n-gramme. La valeur par défaut est 2. La valeur maximale est de 300.

minGram

integer

1

Longueur minimale de n-gramme. La valeur par défaut est 1. La valeur maximale est de 300. Doit être inférieur à la valeur de maxGram.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

tokenChars

TokenCharacterKind[]

Classes de caractères à conserver dans les jetons.

OutputFieldMappingEntry

Mappage de champs de sortie pour une compétence.

Nom Type Description
name

string

Nom de la sortie définie par la compétence.

targetName

string

Nom cible de la sortie. Il est facultatif et le nom par défaut.

PathHierarchyTokenizerV2

Tokenizer pour les hiérarchies similaires au chemin d’accès. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

Fragment d’URI spécifiant le type de tokenizer.

delimiter

string

/

Caractère délimiteur à utiliser. La valeur par défaut est « / ».

maxTokenLength

integer

300

Longueur maximale du jeton. La valeur par défaut et la valeur maximale est 300.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

replacement

string

/

Valeur qui, si elle est définie, remplace le caractère délimiteur. La valeur par défaut est « / ».

reverse

boolean

False

Valeur indiquant s’il faut générer des jetons dans l’ordre inverse. La valeur par défaut est false.

skip

integer

0

Nombre de jetons initiaux à ignorer. La valeur par défaut est 0.

PatternAnalyzer

Sépare de manière flexible le texte en termes par le biais d’un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

Fragment d’URI spécifiant le type d’analyseur.

flags

RegexFlags

Indicateurs d’expression régulière.

lowercase

boolean

True

Valeur indiquant si les termes doivent être inférieurs. La valeur par défaut est true.

name

string

Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

pattern

string

\W+

Modèle d’expression régulière pour faire correspondre les séparateurs de jetons. La valeur par défaut est une expression qui correspond à un ou plusieurs caractères non word.

stopwords

string[]

Liste des mots vides.

PatternCaptureTokenFilter

Utilise des regex Java pour émettre plusieurs jetons : un pour chaque groupe de capture dans un ou plusieurs modèles. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

patterns

string[]

Liste de modèles à mettre en correspondance avec chaque jeton.

preserveOriginal

boolean

True

Valeur indiquant s’il faut retourner le jeton d’origine même si l’un des modèles correspond. La valeur par défaut est true.

PatternReplaceCharFilter

Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

Fragment d’URI spécifiant le type de filtre de caractères.

name

string

Nom du filtre char. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

pattern

string

Modèle d’expression régulière.

replacement

string

Texte de remplacement.

PatternReplaceTokenFilter

Filtre de caractères qui remplace les caractères dans la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères afin de conserver et de remplacer un modèle pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le modèle « (aa)\s+(bb) » et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

pattern

string

Modèle d’expression régulière.

replacement

string

Texte de remplacement.

PatternTokenizer

Tokenizer qui utilise le modèle regex correspondant pour construire des jetons distincts. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

Fragment d’URI spécifiant le type de tokenizer.

flags

RegexFlags

Indicateurs d’expression régulière.

group

integer

-1

Ordinal de base zéro du groupe correspondant dans le modèle d’expression régulière à extraire dans des jetons. Utilisez -1 si vous souhaitez utiliser l’ensemble du modèle pour fractionner l’entrée en jetons, indépendamment des groupes correspondants. La valeur par défaut est -1.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

pattern

string

\W+

Modèle d’expression régulière pour faire correspondre les séparateurs de jetons. La valeur par défaut est une expression qui correspond à un ou plusieurs caractères non word.

PhoneticEncoder

Identifie le type d’encodeur phonétique à utiliser avec un PhoneticTokenFilter.

Nom Type Description
beiderMorse

string

Encode un jeton dans une valeur Beider-Morse.

caverphone1

string

Encode un jeton dans une valeur Caverphone 1.0.

caverphone2

string

Encode un jeton dans une valeur Caverphone 2.0.

cologne

string

Encode un jeton dans une valeur phonétique de Cologne.

doubleMetaphone

string

Encode un jeton en une valeur de métaphone double.

haasePhonetik

string

Encode un jeton à l’aide de l’affinement Haase de l’algorithme Kölner Phonetik.

koelnerPhonetik

string

Encode un jeton à l’aide de l’algorithme Kölner Phonetik.

metaphone

string

Encode un jeton dans une valeur metaphone.

nysiis

string

Encode un jeton dans une valeur NYSIIS.

refinedSoundex

string

Encode un jeton dans une valeur Soundex affinée.

soundex

string

Encode un jeton dans une valeur Soundex.

PhoneticTokenFilter

Créez des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

encoder

PhoneticEncoder

metaphone

Encodeur phonétique à utiliser. La valeur par défaut est « metaphone ».

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

replace

boolean

True

Valeur indiquant si les jetons encodés doivent remplacer les jetons d’origine. Si la valeur est false, les jetons encodés sont ajoutés en tant que synonymes. La valeur par défaut est true.

PrioritizedFields

Décrit les champs de titre, de contenu et de mots clés à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses.

Nom Type Description
prioritizedContentFields

SemanticField[]

Définit les champs de contenu à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. Pour obtenir le meilleur résultat, les champs sélectionnés doivent contenir du texte sous forme de langage naturel. L’ordre des champs du tableau représente leur priorité. Les champs dont la priorité est inférieure peuvent être tronqués si le contenu est long.

prioritizedKeywordsFields

SemanticField[]

Définit les champs de mot clé à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. Pour obtenir le meilleur résultat, les champs sélectionnés doivent contenir une liste de mots clés. L’ordre des champs du tableau représente leur priorité. Les champs dont la priorité est inférieure peuvent être tronqués si le contenu est long.

titleField

SemanticField

Définit le champ de titre à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. Si vous n’avez pas de champ de titre dans votre index, laissez cette valeur vide.

RegexFlags

Définit des indicateurs qui peuvent être combinés pour contrôler la façon dont les expressions régulières sont utilisées dans l’analyseur de modèle et le générateur de jetons de modèle.

Nom Type Description
CANON_EQ

string

Active l’équivalence canonique.

CASE_INSENSITIVE

string

Active la correspondance sans respect de la casse.

COMMENTS

string

Autorise les espaces blancs et les commentaires dans le modèle.

DOTALL

string

Active le mode dotall.

LITERAL

string

Active l’analyse littérale du modèle.

MULTILINE

string

Active le mode multiligne.

UNICODE_CASE

string

Active le pliage de cas prenant en charge Unicode.

UNIX_LINES

string

Active le mode lignes Unix.

ScalarQuantizationParameters

Contient les paramètres spécifiques à la quantisation scalaire.

Nom Type Description
quantizedDataType

VectorSearchCompressionTargetDataType

Type de données quantifié de valeurs vectorielles compressées.

ScalarQuantizationVectorSearchCompressionConfiguration

Contient des options de configuration spécifiques à la méthode de compression de quantisation scalaire utilisée lors de l’indexation et de l’interrogation.

Nom Type Valeur par défaut Description
defaultOversampling

number

Facteur de surachantillonnage par défaut. Le surachantage demande en interne davantage de documents (spécifiés par ce multiplicateur) dans la recherche initiale. Cela augmente l’ensemble des résultats qui seront reclassés à l’aide de scores de similarité reputés à partir de vecteurs de précision complète. La valeur minimale est 1, ce qui signifie qu’aucun suréchantillonnage (1x). Ce paramètre ne peut être défini que lorsque rerankWithOriginalVectors a la valeur true. Les valeurs plus élevées améliorent le rappel au détriment de la latence.

kind string:

scalarQuantization

Nom du type de méthode de compression configuré pour une utilisation avec la recherche vectorielle.

name

string

Nom à associer à cette configuration particulière.

rerankWithOriginalVectors

boolean

True

Si la valeur est true, une fois que l’ensemble ordonné de résultats calculés à l’aide de vecteurs compressés est obtenu, ils seront reclassés en recalculant les scores de similarité de précision complète. Cela permettra d’améliorer le rappel au détriment de la latence.

scalarQuantizationParameters

ScalarQuantizationParameters

Contient les paramètres spécifiques à la quantisation scalaire.

ScoringFunctionAggregation

Définit la fonction d’agrégation utilisée pour combiner les résultats de toutes les fonctions de scoring dans un profil de scoring.

Nom Type Description
average

string

Augmentez les scores en fonction de la moyenne de tous les résultats de fonction de scoring.

firstMatching

string

Augmentez les scores à l’aide de la première fonction de scoring applicable dans le profil de scoring.

maximum

string

Augmentez les scores au maximum de tous les résultats de la fonction de scoring.

minimum

string

Augmentez les scores par le minimum de tous les résultats de la fonction de scoring.

sum

string

Augmentez les scores en fonction de la somme de tous les résultats de la fonction de scoring.

ScoringFunctionInterpolation

Définit la fonction utilisée pour interpoler l’amélioration du score sur une plage de documents.

Nom Type Description
constant

string

Améliore les scores par un facteur constant.

linear

string

Améliore les scores par une quantité décroissante linéairement. Il s’agit de l’interpolation par défaut pour les fonctions de scoring.

logarithmic

string

Améliore les scores d’un montant qui diminue logarithmiquement. Les améliorations diminuent rapidement pour les scores plus élevés, et plus lentement à mesure que les scores diminuent. Cette option d’interpolation n’est pas autorisée dans les fonctions de scoring d’étiquettes.

quadratic

string

Améliore les scores d’un montant qui diminue quadratiquement. Les améliorations diminuent lentement pour les scores plus élevés et plus rapidement à mesure que les scores diminuent. Cette option d’interpolation n’est pas autorisée dans les fonctions de scoring d’étiquettes.

ScoringProfile

Définit des paramètres pour un index de recherche qui influencent le scoring dans les requêtes de recherche.

Nom Type Description
functionAggregation

ScoringFunctionAggregation

Valeur indiquant comment les résultats des fonctions de scoring individuelles doivent être combinés. La valeur par défaut est « Sum ». Ignoré s’il n’existe aucune fonction de scoring.

functions ScoringFunction[]:

Collection de fonctions qui influencent le scoring des documents.

name

string

Nom du profil de scoring.

text

TextWeights

Paramètres qui augmentent le scoring en fonction des correspondances de texte dans certains champs d’index.

SearchField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

Nom Type Description
analyzer

LexicalAnalyzerName

Nom de l’analyseur à utiliser pour le champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche et ne peut pas être définie avec searchAnalyzer ou indexAnalyzer. Une fois l’analyseur choisi, il ne peut pas être modifié pour le champ. Doit être null pour les champs complexes.

dimensions

integer

Dimensionnalité du champ vectoriel.

facetable

boolean

Valeur indiquant s’il faut permettre au champ d’être référencé dans les requêtes de facettes. Généralement utilisé dans une présentation des résultats de recherche qui inclut le nombre d’accès par catégorie (par exemple, recherchez des caméras numériques et voyez les hits par marque, par millisecondes, par prix, etc.). Cette propriété doit être null pour les champs complexes. Les champs de type Edm.GeographyPoint ou Collection (Edm.GeographyPoint) ne peuvent pas être facetables. La valeur par défaut est true pour tous les autres champs simples.

fields

SearchField[]

Liste des sous-champs s’il s’agit d’un champ de type Edm.ComplexType ou Collection(Edm.ComplexType). Doit être null ou vide pour les champs simples.

filterable

boolean

Valeur indiquant si le champ doit être référencé dans $filter requêtes. filtrable diffère de l’élément pouvant faire l’objet d’une recherche dans la façon dont les chaînes sont gérées. Les champs de type Edm.String ou Collection(Edm.String) qui sont filtrables ne subissent pas de rupture de mot, de sorte que les comparaisons ne concernent que les correspondances exactes. Par exemple, si vous définissez un tel champ f sur « jour ensoleillé », $filter=f eq 'sunny' ne trouvera aucune correspondance, mais $filter=f eq 'sunny day' sera. Cette propriété doit être null pour les champs complexes. La valeur par défaut est true pour les champs simples et null pour les champs complexes.

indexAnalyzer

LexicalAnalyzerName

Nom de l’analyseur utilisé au moment de l’indexation pour le champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche. Elle doit être définie avec searchAnalyzer et elle ne peut pas être définie avec l’option analyseur. Cette propriété ne peut pas être définie sur le nom d’un analyseur de langage ; utilisez plutôt la propriété de l’analyseur si vous avez besoin d’un analyseur de langage. Une fois l’analyseur choisi, il ne peut pas être modifié pour le champ. Doit être null pour les champs complexes.

key

boolean

Valeur indiquant si le champ identifie de manière unique les documents dans l’index. Un champ de niveau supérieur exactement dans chaque index doit être choisi comme champ de clé et doit être de type Edm.String. Les champs clés peuvent être utilisés pour rechercher des documents directement et mettre à jour ou supprimer des documents spécifiques. La valeur par défaut est false pour les champs simples et null pour les champs complexes.

name

string

Nom du champ, qui doit être unique dans la collection de champs du champ index ou parent.

retrievable

boolean

Valeur indiquant si le champ peut être retourné dans un résultat de recherche. Vous pouvez désactiver cette option si vous souhaitez utiliser un champ (par exemple, marge) comme mécanisme de filtrage, de tri ou de scoring, mais ne souhaitez pas que le champ soit visible pour l’utilisateur final. Cette propriété doit être true pour les champs clés, et elle doit avoir la valeur Null pour les champs complexes. Cette propriété peut être modifiée sur les champs existants. L’activation de cette propriété n’entraîne aucune augmentation des exigences de stockage d’index. La valeur par défaut est true pour les champs simples, false pour les champs vectoriels et Null pour les champs complexes.

searchAnalyzer

LexicalAnalyzerName

Nom de l’analyseur utilisé au moment de la recherche du champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche. Elle doit être définie avec indexAnalyzer et elle ne peut pas être définie avec l’option analyseur. Cette propriété ne peut pas être définie sur le nom d’un analyseur de langage ; utilisez plutôt la propriété de l’analyseur si vous avez besoin d’un analyseur de langage. Cet analyseur peut être mis à jour sur un champ existant. Doit être null pour les champs complexes.

searchable

boolean

Valeur indiquant si le champ peut faire l’objet d’une recherche en texte intégral. Cela signifie qu’il subira une analyse telle que la rupture de mots lors de l’indexation. Si vous définissez un champ pouvant faire l’objet d’une recherche sur une valeur telle que « jour ensoleillé », il sera divisé en interne en jetons individuels « ensoleillé » et « jour ». Cela permet de rechercher en texte intégral ces termes. Les champs de type Edm.String ou Collection(Edm.String) peuvent faire l’objet d’une recherche par défaut. Cette propriété doit être false pour les champs simples d’autres types de données autres que des chaînes, et elle doit être null pour les champs complexes. Remarque : les champs pouvant faire l’objet d’une recherche consomment de l’espace supplémentaire dans votre index pour prendre en charge des versions tokenisées supplémentaires de la valeur de champ pour les recherches en texte intégral. Si vous souhaitez économiser de l’espace dans votre index et que vous n’avez pas besoin d’un champ à inclure dans les recherches, définissez la valeur false dans la recherche.

sortable

boolean

Valeur indiquant si le champ doit être référencé dans $orderby expressions. Par défaut, le moteur de recherche trie les résultats par score, mais dans de nombreuses expériences, les utilisateurs souhaitent trier par champs dans les documents. Un champ simple peut être triable uniquement s’il est à valeur unique (il a une valeur unique dans l’étendue du document parent). Les champs de collection simples ne peuvent pas être triables, car ils sont à valeurs multiples. Les sous-champs simples des collections complexes sont également à valeurs multiples et ne peuvent donc pas être triables. C’est vrai, qu’il s’agisse d’un champ parent immédiat ou d’un champ ancêtre, c’est la collection complexe. Les champs complexes ne peuvent pas être triables et la propriété triable doit être null pour ces champs. La valeur par défaut de triable est true pour les champs simples à valeur unique, false pour les champs simples à valeurs multiples et Null pour les champs complexes.

stored

boolean

Valeur immuable indiquant si le champ sera conservé séparément sur le disque à retourner dans un résultat de recherche. Vous pouvez désactiver cette option si vous ne prévoyez pas de renvoyer le contenu du champ dans une réponse de recherche pour économiser sur la surcharge de stockage. Cela ne peut être défini que lors de la création d’index et uniquement pour les champs vectoriels. Cette propriété ne peut pas être modifiée pour les champs existants ou définie comme false pour les nouveaux champs. Si cette propriété est définie comme false, la propriété « récupérable » doit également être définie sur false. Cette propriété doit être true ou non définie pour les champs clés, pour les nouveaux champs et pour les champs non vectoriels, et elle doit être null pour les champs complexes. La désactivation de cette propriété réduit les exigences de stockage d’index. La valeur par défaut est true pour les champs vectoriels.

synonymMaps

string[]

Liste des noms des mappages de synonymes à associer à ce champ. Cette option peut être utilisée uniquement avec des champs pouvant faire l’objet d’une recherche. Actuellement, une seule carte de synonymes par champ est prise en charge. L’affectation d’un mappage de synonymes à un champ garantit que les termes de requête ciblant ce champ sont développés au moment de la requête à l’aide des règles de la carte de synonymes. Cet attribut peut être modifié sur les champs existants. Doit être null ou une collection vide pour les champs complexes.

type

SearchFieldDataType

Type de données du champ.

vectorEncoding

VectorEncodingFormat

Format d’encodage pour interpréter le contenu du champ.

vectorSearchProfile

string

Nom du profil de recherche vectorielle qui spécifie l’algorithme et le vectoriseur à utiliser lors de la recherche dans le champ vectoriel.

SearchFieldDataType

Définit le type de données d’un champ dans un index de recherche.

Nom Type Description
Edm.Boolean

string

Indique qu’un champ contient une valeur booléenne (true ou false).

Edm.Byte

string

Indique qu’un champ contient un entier non signé 8 bits. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Byte).

Edm.ComplexType

string

Indique qu’un champ contient un ou plusieurs objets complexes qui, à son tour, ont des sous-champs d’autres types.

Edm.DateTimeOffset

string

Indique qu’un champ contient une valeur de date/heure, y compris les informations de fuseau horaire.

Edm.Double

string

Indique qu’un champ contient un nombre à virgule flottante double précision IEEE.

Edm.GeographyPoint

string

Indique qu’un champ contient un emplacement géographique en termes de longitude et de latitude.

Edm.Half

string

Indique qu’un champ contient un nombre à virgule flottante demi-précision. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Half).

Edm.Int16

string

Indique qu’un champ contient un entier signé 16 bits. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Int16).

Edm.Int32

string

Indique qu’un champ contient un entier signé 32 bits.

Edm.Int64

string

Indique qu’un champ contient un entier signé 64 bits.

Edm.SByte

string

Indique qu’un champ contient un entier signé 8 bits. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.SByte).

Edm.Single

string

Indique qu’un champ contient un nombre à virgule flottante simple précision. Cela n’est valide que lorsqu’il est utilisé avec Collection(Edm.Single).

Edm.String

string

Indique qu’un champ contient une chaîne.

SearchIndex

Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index.

Nom Type Description
@odata.etag

string

ETag de l’index.

analyzers LexicalAnalyzer[]:

Analyseurs de l’index.

charFilters CharFilter[]:

Filtres de caractères pour l’index.

corsOptions

CorsOptions

Options permettant de contrôler le partage de ressources cross-origin (CORS) pour l’index.

defaultScoringProfile

string

Nom du profil de scoring à utiliser si aucune n’est spécifiée dans la requête. Si cette propriété n’est pas définie et qu’aucun profil de scoring n’est spécifié dans la requête, le scoring par défaut (tf-idf) est utilisé.

encryptionKey

SearchResourceEncryptionKey

Description d’une clé de chiffrement que vous créez dans Azure Key Vault. Cette clé est utilisée pour fournir un niveau supplémentaire de chiffrement au repos pour vos données lorsque vous souhaitez une assurance totale que personne, même Microsoft, ne peut déchiffrer vos données. Une fois que vous avez chiffré vos données, elles restent toujours chiffrées. Le service de recherche ignore les tentatives de définition de cette propriété sur Null. Vous pouvez modifier cette propriété si nécessaire si vous souhaitez faire pivoter votre clé de chiffrement ; Vos données ne seront pas affectées. Le chiffrement avec des clés gérées par le client n’est pas disponible pour les services de recherche gratuits et n’est disponible que pour les services payants créés le 1er janvier 2019.

fields

SearchField[]

Champs de l’index.

name

string

Nom de l’index.

scoringProfiles

ScoringProfile[]

Profils de scoring pour l’index.

semantic

SemanticSettings

Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.

similarity Similarity:

Type d’algorithme de similarité à utiliser lors du scoring et du classement des documents correspondant à une requête de recherche. L’algorithme de similarité ne peut être défini qu’au moment de la création d’index et ne peut pas être modifié sur les index existants. Si la valeur est Null, l’algorithme ClassicSimilarity est utilisé.

suggesters

Suggester[]

Suggesteurs pour l’index.

tokenFilters TokenFilter[]:

Le jeton filtre l’index.

tokenizers LexicalTokenizer[]:

Les tokenizers de l’index.

vectorSearch

VectorSearch

Contient des options de configuration liées à la recherche vectorielle.

SearchIndexerDataNoneIdentity

Efface la propriété d’identité d’une source de données.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.DataNoneIdentity

Fragment d’URI spécifiant le type d’identité.

SearchIndexerDataUserAssignedIdentity

Spécifie l’identité d’une source de données à utiliser.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.DataUserAssignedIdentity

Fragment d’URI spécifiant le type d’identité.

userAssignedIdentity

string

Id de ressource Azure complet d’une identité managée affectée par l’utilisateur sous la forme « /subscriptions/12345678-1234-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId » qui doit avoir été affecté au service de recherche.

SearchResourceEncryptionKey

Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos, telles que des index et des mappages de synonymes.

Nom Type Description
accessCredentials

AzureActiveDirectoryApplicationCredentials

Informations d’identification Azure Active Directory facultatives utilisées pour accéder à votre coffre de clés Azure. Non obligatoire si vous utilisez plutôt une identité managée.

keyVaultKeyName

string

Nom de votre clé Azure Key Vault à utiliser pour chiffrer vos données au repos.

keyVaultKeyVersion

string

Version de votre clé Azure Key Vault à utiliser pour chiffrer vos données au repos.

keyVaultUri

string

URI de votre coffre de clés Azure, également appelé nom DNS, qui contient la clé à utiliser pour chiffrer vos données au repos. Un exemple d’URI peut être https://my-keyvault-name.vault.azure.net.

SemanticConfiguration

Définit une configuration spécifique à utiliser dans le contexte des fonctionnalités sémantiques.

Nom Type Description
name

string

Nom de la configuration sémantique.

prioritizedFields

PrioritizedFields

Décrit les champs de titre, de contenu et de mot clé à utiliser pour le classement sémantique, les légendes, les mises en surbrillance et les réponses. Au moins l’une des trois sous-propriétés (titleField, hiérarchiséKeywordsFields et hiérarchiséContentFields) doit être définie.

SemanticField

Champ utilisé dans le cadre de la configuration sémantique.

Nom Type Description
fieldName

string

SemanticSettings

Définit les paramètres d’un index de recherche qui influencent les fonctionnalités sémantiques.

Nom Type Description
configurations

SemanticConfiguration[]

Configurations sémantiques de l’index.

defaultConfiguration

string

Vous permet de définir le nom d’une configuration sémantique par défaut dans votre index, ce qui le rend facultatif pour le transmettre en tant que paramètre de requête à chaque fois.

ShingleTokenFilter

Crée des combinaisons de jetons en tant que jeton unique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

filterToken

string

_

Chaîne à insérer pour chaque position à laquelle il n’existe aucun jeton. La valeur par défaut est un trait de soulignement (« _ »).

maxShingleSize

integer

2

Taille maximale du bardeau. La valeur par défaut et la valeur minimale est 2.

minShingleSize

integer

2

Taille minimale du bardeau. La valeur par défaut et la valeur minimale est 2. Doit être inférieur à la valeur de maxShingleSize.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

outputUnigrams

boolean

True

Valeur indiquant si le flux de sortie contiendra les jetons d’entrée (unigrammes) ainsi que les bardeaux. La valeur par défaut est true.

outputUnigramsIfNoShingles

boolean

False

Valeur indiquant s’il faut générer des unigrammes pour ces moments où aucun bardeau n’est disponible. Cette propriété est prioritaire lorsque outputUnigrams a la valeur false. La valeur par défaut est false.

tokenSeparator

string

Chaîne à utiliser lors de la jointure de jetons adjacents pour former un bardeau. La valeur par défaut est un espace unique ( » « ).

SnowballTokenFilter

Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

language

SnowballTokenFilterLanguage

Langue à utiliser.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

SnowballTokenFilterLanguage

Langue à utiliser pour un filtre de jeton Snowball.

Nom Type Description
armenian

string

Sélectionne le générateur de jetons lucene Snowball pour arménien.

basque

string

Sélectionne le générateur de jetons lucene Snowball pour basque.

catalan

string

Sélectionne le générateur de jetons lucene Snowball pour catalan.

danish

string

Sélectionne le générateur de jetons lucene Snowball pour danois.

dutch

string

Sélectionne le générateur de jetons lucene Snowball pour néerlandais.

english

string

Sélectionne le générateur de jetons lucene Snowball pour l’anglais.

finnish

string

Sélectionne le générateur de jetons lucene Snowball pour le finnois.

french

string

Sélectionne le générateur de jetons lucene Snowball pour le français.

german

string

Sélectionne le générateur de jetons lucene Snowball pour l’allemand.

german2

string

Sélectionne le générateur de jetons lucene Snowball qui utilise l’algorithme variant allemand.

hungarian

string

Sélectionne le générateur de jetons lucene Snowball pour hongrois.

italian

string

Sélectionne le générateur de jetons lucene Snowball pour l’italien.

kp

string

Sélectionne le générateur de jetons de recherche lucene Snowball pour néerlandais qui utilise l’algorithme de recherche de Kraaij-Pohlmann.

lovins

string

Sélectionne le générateur de jetons lucene Snowball pour l’anglais qui utilise l’algorithme de recherche de recherche lovins.

norwegian

string

Sélectionne le générateur de jetons lucene Snowball pour norvégien.

porter

string

Sélectionne le générateur de jetons lucene Snowball pour l’anglais qui utilise l’algorithme de recherche de recherche porter.

portuguese

string

Sélectionne le générateur de jetons lucene Snowball pour le portugais.

romanian

string

Sélectionne le générateur de jetons lucene Snowball pour roumain.

russian

string

Sélectionne le générateur de jetons lucene Snowball pour le russe.

spanish

string

Sélectionne le générateur de jetons lucene Snowball pour l’espagnol.

swedish

string

Sélectionne le générateur de jetons lucene Snowball pour suédois.

turkish

string

Sélectionne le générateur de jetons lucene Snowball pour turc.

StemmerOverrideTokenFilter

Fournit la possibilité de remplacer d’autres filtres de recherche de recherche par recherche de données personnalisées basées sur des dictionnaires. Tous les termes liés aux dictionnaires seront marqués comme des mots clés afin qu’ils ne soient pas suivis de formes dérivées dans la chaîne. Doit être placé avant les filtres de recherche de recherche. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

rules

string[]

Liste des règles de recherche de base au format suivant : « word => stem », par exemple : « ran => run ».

StemmerTokenFilter

Filtre de recherche de recherche spécifique au langage. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

language

StemmerTokenFilterLanguage

Langue à utiliser.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

StemmerTokenFilterLanguage

Langage à utiliser pour un filtre de jeton de type stemmer.

Nom Type Description
arabic

string

Sélectionne le générateur de jetons de recherche lucène pour l’arabe.

armenian

string

Sélectionne le générateur de jetons de recherche lucène pour arménien.

basque

string

Sélectionne le générateur de jetons de recherche lucene pour le basque.

brazilian

string

Sélectionne le générateur de jetons de recherche lucene pour le portugais (Brésil).

bulgarian

string

Sélectionne le générateur de jetons de recherche lucene pour bulgare.

catalan

string

Sélectionne le générateur de jetons de recherche lucene pour catalan.

czech

string

Sélectionne le générateur de jetons de recherche lucene pour le tchèque.

danish

string

Sélectionne le générateur de jetons de recherche lucene pour le danois.

dutch

string

Sélectionne le générateur de jetons de recherche lucene pour le néerlandais.

dutchKp

string

Sélectionne le tokenizer de recherche lucene pour néerlandais qui utilise l’algorithme de recherche de Kraaij-Pohlmann de recherche de données.

english

string

Sélectionne le générateur de jetons de recherche lucene pour l’anglais.

finnish

string

Sélectionne le générateur de jetons de recherche lucene pour le finnois.

french

string

Sélectionne le générateur de jetons de recherche lucene pour le français.

galician

string

Sélectionne le générateur de jetons de recherche lucene pour Galicien.

german

string

Sélectionne le générateur de jetons de recherche lucene pour l’allemand.

german2

string

Sélectionne le générateur de jetons de recherche lucene qui utilise l’algorithme de variante allemand.

greek

string

Sélectionne le générateur de jetons de recherche lucène pour le grec.

hindi

string

Sélectionne le générateur de jetons de recherche lucene pour l’hindi.

hungarian

string

Sélectionne le générateur de jetons de recherche lucene pour hongrois.

indonesian

string

Sélectionne le générateur de jetons de recherche lucene pour l’Indonésien.

irish

string

Sélectionne le générateur de jetons de recherche lucene pour l’irlandais.

italian

string

Sélectionne le générateur de jetons de recherche lucene pour l’italien.

latvian

string

Sélectionne le générateur de jetons de recherche lucene pour letton.

lightEnglish

string

Sélectionne le générateur de jetons de recherche lucene pour l’anglais qui effectue une recherche légère.

lightFinnish

string

Sélectionne le tokenizer de recherche lucene pour le finnois qui effectue une recherche légère.

lightFrench

string

Sélectionne le générateur de jetons de recherche lucene pour le français qui effectue une recherche légère.

lightGerman

string

Sélectionne le générateur de jetons de recherche lucene pour l’allemand qui effectue une recherche légère.

lightHungarian

string

Sélectionne le générateur de jetons de recherche lucene pour hongrois qui effectue une recherche légère.

lightItalian

string

Sélectionne le générateur de jetons de recherche lucene pour l’italien qui effectue une recherche légère.

lightNorwegian

string

Sélectionne le générateur de jetons de recherche lucene pour norvégien (Bokmål) qui effectue une recherche légère.

lightNynorsk

string

Sélectionne le tokenizer de recherche lucene pour norvégien (Nynorsk) qui effectue une recherche légère.

lightPortuguese

string

Sélectionne le générateur de jetons de recherche lucene pour le portugais qui effectue une recherche légère.

lightRussian

string

Sélectionne le générateur de jetons de recherche lucène pour le russe qui effectue une recherche légère.

lightSpanish

string

Sélectionne le générateur de jetons de recherche lucene pour l’espagnol qui effectue une recherche légère.

lightSwedish

string

Sélectionne le générateur de jetons de recherche lucene pour suédois qui effectue une recherche légère.

lovins

string

Sélectionne le générateur de jetons de recherche lucene pour l’anglais qui utilise l’algorithme de recherche de recherche de clés Lovins.

minimalEnglish

string

Sélectionne le générateur de jetons de recherche lucene pour l’anglais qui effectue un minimum de recherche de recherche.

minimalFrench

string

Sélectionne le tokenizer de recherche lucene pour le français qui effectue un minimum de recherche.

minimalGalician

string

Sélectionne le générateur de jetons de recherche lucène pour galicien qui effectue un minimum de recherche.

minimalGerman

string

Sélectionne le générateur de jetons de recherche lucene pour l’allemand qui effectue un minimum de recherche.

minimalNorwegian

string

Sélectionne le tokenizer de recherche lucene pour le norvégien (Bokmål) qui effectue un minimum de recherche.

minimalNynorsk

string

Sélectionne le tokenizer de recherche lucene pour le norvégien (Nynorsk) qui effectue un minimum de recherche.

minimalPortuguese

string

Sélectionne le tokenizer de recherche lucene pour le portugais qui effectue un minimum de recherche.

norwegian

string

Sélectionne le tokenizer de recherche lucene pour le norvégien (Bokmål).

porter2

string

Sélectionne le générateur de jetons de recherche lucene pour l’anglais qui utilise l’algorithme de recherche de recherche de type Porter2.

portuguese

string

Sélectionne le générateur de jetons de recherche lucene pour le portugais.

portugueseRslp

string

Sélectionne le générateur de jetons de recherche lucene pour le portugais qui utilise l’algorithme de recherche de recherche de données RSLP.

possessiveEnglish

string

Sélectionne le tokenizer de recherche lucene pour l’anglais qui supprime les possessions de fin des mots.

romanian

string

Sélectionne le générateur de jetons de recherche lucene pour le roumain.

russian

string

Sélectionne le générateur de jetons de recherche lucene pour le russe.

sorani

string

Sélectionne le générateur de jetons de recherche lucene pour Sorani.

spanish

string

Sélectionne le générateur de jetons de recherche lucene pour l’espagnol.

swedish

string

Sélectionne le générateur de jetons de recherche lucene pour suédois.

turkish

string

Sélectionne le générateur de jetons de recherche lucene pour le turc.

StopAnalyzer

Divise le texte en lettres non lettres ; Applique les filtres de jetons minuscules et de mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

Fragment d’URI spécifiant le type d’analyseur.

name

string

Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

stopwords

string[]

Liste des mots vides.

StopwordsList

Identifie une liste prédéfinie de mots vides spécifiques à la langue.

Nom Type Description
arabic

string

Sélectionne la liste des mots vides pour l’arabe.

armenian

string

Sélectionne la liste des mots vides pour arménien.

basque

string

Sélectionne la liste des mots vides pour le basque.

brazilian

string

Sélectionne la liste des mots vides pour le portugais (Brésil).

bulgarian

string

Sélectionne la liste des mots vides pour bulgare.

catalan

string

Sélectionne la liste des mots vides pour le catalan.

czech

string

Sélectionne la liste des mots vides pour le tchèque.

danish

string

Sélectionne la liste des mots vides pour le danois.

dutch

string

Sélectionne la liste des mots vides pour le néerlandais.

english

string

Sélectionne la liste des mots vides pour l’anglais.

finnish

string

Sélectionne la liste des mots vides pour le finnois.

french

string

Sélectionne la liste des mots vides pour le français.

galician

string

Sélectionne la liste des mots vides pour Galicien.

german

string

Sélectionne la liste des mots vides pour l’allemand.

greek

string

Sélectionne la liste des mots vides pour le grec.

hindi

string

Sélectionne la liste des mots vides pour l’hindi.

hungarian

string

Sélectionne la liste des mots vides pour hongrois.

indonesian

string

Sélectionne la liste des mots vides pour l’Indonésien.

irish

string

Sélectionne la liste des mots vides pour l’irlandais.

italian

string

Sélectionne la liste des mots vides pour l’italien.

latvian

string

Sélectionne la liste des mots vides pour letton.

norwegian

string

Sélectionne la liste des mots vides pour norvégien.

persian

string

Sélectionne la liste des mots vides pour Persane.

portuguese

string

Sélectionne la liste des mots vides pour le portugais.

romanian

string

Sélectionne la liste des mots vides pour la Roumain.

russian

string

Sélectionne la liste des mots vides pour le russe.

sorani

string

Sélectionne la liste des mots vides pour Sorani.

spanish

string

Sélectionne la liste des mots vides pour l’espagnol.

swedish

string

Sélectionne la liste des mots vides pour suédois.

thai

string

Sélectionne la liste des mots vides pour thaï.

turkish

string

Sélectionne la liste des mots vides pour le turc.

StopwordsTokenFilter

Supprime les mots d’arrêt d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

ignoreCase

boolean

False

Valeur indiquant s’il faut ignorer la casse. Si la valeur est true, tous les mots sont convertis en minuscules en premier. La valeur par défaut est false.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

removeTrailing

boolean

True

Valeur indiquant s’il faut ignorer le dernier terme de recherche s’il s’agit d’un mot vide. La valeur par défaut est true.

stopwords

string[]

Liste des mots vides. Cette propriété et la propriété de liste des mots vides ne peuvent pas être définies.

stopwordsList

StopwordsList

english

Liste prédéfinie des mots vides à utiliser. Cette propriété et la propriété stopwords ne peuvent pas être définies. La valeur par défaut est l’anglais.

Suggester

Définit la façon dont l’API Suggest doit s’appliquer à un groupe de champs dans l’index.

Nom Type Description
name

string

Nom de l’suggesteur.

searchMode

SuggesterSearchMode

Valeur indiquant les fonctionnalités de l’suggesteur.

sourceFields

string[]

Liste des noms de champs auxquels l’suggesteur s’applique. Chaque champ doit être pouvant faire l’objet d’une recherche.

SuggesterSearchMode

Valeur indiquant les fonctionnalités de l’suggesteur.

Nom Type Description
analyzingInfixMatching

string

Correspond aux termes et préfixes entiers consécutifs d’un champ. Par exemple, pour le champ « Le renard brun le plus rapide », les requêtes « fast » et « le front le plus rapide » correspondent.

SynonymTokenFilter

Correspond aux synonymes à mot unique ou à plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

expand

boolean

True

Valeur indiquant si tous les mots de la liste des synonymes (si => notation n’est pas utilisée) sont mappés les uns aux autres. Si la valeur est true, tous les mots de la liste des synonymes (if => notation ne sont pas utilisés) sont mappés les uns aux autres. La liste suivante : incroyable, incroyable, fabuleux, incroyable est équivalent à : incroyable, incroyable, fabuleux, incroyable => incroyable, incroyable, fabuleux, incroyable, incroyable. Si faux, la liste suivante : incroyable, incroyable, fabuleux, incroyable sera équivalent à : incroyable, incroyable, fabuleux, fabuleux => incroyable. La valeur par défaut est true.

ignoreCase

boolean

False

Valeur indiquant s’il faut entrer un pliage de casse pour la correspondance. La valeur par défaut est false.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

synonyms

string[]

Liste de synonymes dans l’un des deux formats suivants : 1. incroyable, incroyable, fabuleux => incroyable - tous les termes sur le côté gauche de => symbole sera remplacé par tous les termes de son côté droit ; 2. incroyable, incroyable, fabuleux, incroyable - liste séparée par des virgules de mots équivalents. Définissez l’option développer pour modifier la façon dont cette liste est interprétée.

TagScoringFunction

Définit une fonction qui améliore les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises.

Nom Type Description
boost

number

Multiplicateur du score brut. Doit être un nombre positif non égal à 1,0.

fieldName

string

Nom du champ utilisé comme entrée de la fonction de scoring.

interpolation

ScoringFunctionInterpolation

Valeur indiquant comment l’amélioration sera interpolée entre les scores de document ; est défini par défaut sur « Linéaire ».

tag

TagScoringParameters

Valeurs de paramètre pour la fonction de scoring d’étiquette.

type string:

tag

Indique le type de fonction à utiliser. Les valeurs valides incluent la magnitude, l’actualisation, la distance et la balise. Le type de fonction doit être en minuscules.

TagScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring d’étiquette.

Nom Type Description
tagsParameter

string

Nom du paramètre passé dans les requêtes de recherche pour spécifier la liste des balises à comparer au champ cible.

TextWeights

Définit des pondérations sur les champs d’index pour lesquels les correspondances doivent améliorer le scoring dans les requêtes de recherche.

Nom Type Description
weights

object

Dictionnaire des pondérations par champ pour améliorer le scoring des documents. Les clés sont des noms de champ et les valeurs sont les pondérations pour chaque champ.

TokenCharacterKind

Représente des classes de caractères sur lesquelles un filtre de jeton peut fonctionner.

Nom Type Description
digit

string

Conserve les chiffres dans les jetons.

letter

string

Conserve les lettres dans les jetons.

punctuation

string

Conserve la ponctuation dans les jetons.

symbol

string

Conserve les symboles dans les jetons.

whitespace

string

Conserve l’espace blanc dans les jetons.

TokenFilterName

Définit les noms de tous les filtres de jetons pris en charge par le moteur de recherche.

Nom Type Description
apostrophe

string

Supprime tous les caractères après une apostrophe (y compris l’apostrophe elle-même). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html

arabic_normalization

string

Filtre de jeton qui applique le normaliseur arabe pour normaliser l’orthographie. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html

asciifolding

string

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, s’il existe de tels équivalents. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

cjk_bigram

string

Forme des bigrams de termes CJK générés à partir du tokenizer standard. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

cjk_width

string

Normalise les différences de largeur CJK. Plie les variantes ASCII pleine chasse en latin de base équivalent, et les variantes Katakana de demi-largeur dans l’équivalent Kana. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html

classic

string

Supprime les possessifs anglais et les points des acronymes. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html

common_grams

string

Construisez des bigrams pour des termes fréquents lors de l’indexation. Les termes uniques sont toujours indexés, avec des bigrams superposés. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

edgeNGram_v2

string

Génère des n-grammes de la ou des tailles données à partir de l’avant ou de l’arrière d’un jeton d’entrée. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

elision

string

Supprime les élisions. Par exemple, « l’avion » (l’avion) est converti en « avion » (avion). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

german_normalization

string

Normalise les caractères allemands en fonction des heuristiques de l’algorithme de boule de neige allemand2. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html

hindi_normalization

string

Normalise le texte en hindi pour supprimer certaines différences dans les variantes orthographiques. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html

indic_normalization

string

Normalise la représentation Unicode du texte dans les langues indiennes. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html

keyword_repeat

string

Émet chaque jeton entrant deux fois, une fois en tant que mot clé et une fois en tant que non-mot clé. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html

kstem

string

Filtre kstem hautes performances pour l’anglais. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html

length

string

Supprime les mots trop longs ou trop courts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

limit

string

Limite le nombre de jetons lors de l’indexation. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

lowercase

string

Normalise le texte du jeton en minuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

nGram_v2

string

Génère des n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

persian_normalization

string

Applique la normalisation pour persane. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html

phonetic

string

Créez des jetons pour les correspondances phonétiques. Voir https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

porter_stem

string

Utilise l’algorithme de recherche de type Porter pour transformer le flux de jetons. Voir http://tartarus.org/~martin/PorterStemmer

reverse

string

Inverse la chaîne de jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

scandinavian_folding

string

Plie les caractères scandinaves åÅäæÄÆ->a et öÖøØ->o. Il discrimine également contre l’utilisation de voyelles doubles aa, ae, ao, oe et oo, laissant juste la première. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html

scandinavian_normalization

string

Normalise l’utilisation des caractères scandinaves interchangeables. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html

shingle

string

Crée des combinaisons de jetons en tant que jeton unique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

snowball

string

Filtre qui génère des mots à l’aide d’un générateur de tiges généré par Snowball. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

sorani_normalization

string

Normalise la représentation Unicode du texte Sorani. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html

stemmer

string

Filtre de recherche de recherche spécifique au langage. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

stopwords

string

Supprime les mots d’arrêt d’un flux de jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

trim

string

Supprime les espaces blancs de début et de fin des jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html

truncate

string

Tronque les termes à une longueur spécifique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

unique

string

Filtre les jetons avec le même texte que le jeton précédent. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

uppercase

string

Normalise le texte du jeton en majuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

word_delimiter

string

Fractionne les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots.

TruncateTokenFilter

Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

length

integer

300

Longueur à laquelle les termes seront tronqués. La valeur par défaut et la valeur maximale est 300.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

UaxUrlEmailTokenizer

Tokenise les URL et les e-mails sous la forme d’un seul jeton. Ce tokenizer est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

Fragment d’URI spécifiant le type de tokenizer.

maxTokenLength

integer

255

Longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont fractionnés. La longueur maximale du jeton qui peut être utilisée est de 300 caractères.

name

string

Nom du tokenizer. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

UniqueTokenFilter

Filtre les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

onlyOnSamePosition

boolean

False

Valeur indiquant s’il faut supprimer les doublons uniquement à la même position. La valeur par défaut est false.

VectorEncodingFormat

Format d’encodage pour interpréter le contenu du champ vectoriel.

Nom Type Description
packedBit

string

Format d’encodage représentant les bits empaquetés dans un type de données plus large.

VectorSearch

Contient des options de configuration liées à la recherche vectorielle.

Nom Type Description
algorithms VectorSearchAlgorithmConfiguration[]:

Contient des options de configuration spécifiques à l’algorithme utilisé lors de l’indexation ou de l’interrogation.

compressions VectorSearchCompressionConfiguration[]:

Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation.

profiles

VectorSearchProfile[]

Définit des combinaisons de configurations à utiliser avec la recherche vectorielle.

vectorizers VectorSearchVectorizer[]:

Contient des options de configuration sur la façon de vectoriser des requêtes vectorielles de texte.

VectorSearchAlgorithmKind

Algorithme utilisé pour l’indexation et l’interrogation.

Nom Type Description
exhaustiveKnn

string

Algorithme KNN exhaustif qui effectuera une recherche par force brute.

hnsw

string

HNSW (Hiérarchique Navigable Small World), un type d’algorithme voisin le plus proche approximatif.

VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs. Il est recommandé de choisir la même métrique de similarité que le modèle d’incorporation a été entraîné.

Nom Type Description
cosine

string

Mesure l’angle entre les vecteurs pour quantifier leur similarité, sans tenir compte de l’ampleur. Plus l’angle est petit, plus la similarité est proche.

dotProduct

string

Calcule la somme des produits à l’échelle des éléments pour évaluer l’alignement et la similarité de magnitude. Plus le plus grand et plus positif, plus la similarité est proche.

euclidean

string

Calcule la distance droite entre les vecteurs dans un espace multidimensionnel. Plus la distance est réduite, plus la similarité est proche.

hamming

string

Applicable uniquement aux types de données binaires compressés par bits. Détermine la dissimilité en comptant les positions différentes dans les vecteurs binaires. Plus les différences sont moindres, plus la similarité est proche.

VectorSearchCompressionKind

Méthode de compression utilisée pour l’indexation et l’interrogation.

Nom Type Description
binaryQuantization

string

Quantization binaire, type de méthode de compression. Dans la quantisation binaire, les valeurs de vecteurs d’origine sont compressées dans le type binaire plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide de valeurs binaires, réduisant ainsi la taille globale des données.

scalarQuantization

string

Quantization scalaire, type de méthode de compression. Dans la quantisation scalaire, les valeurs de vecteurs d’origine sont compressées dans un type plus étroit en discrétisant et en représentant chaque composant d’un vecteur à l’aide d’un ensemble réduit de valeurs quantifiées, réduisant ainsi la taille globale des données.

VectorSearchCompressionTargetDataType

Type de données quantifié de valeurs vectorielles compressées.

Nom Type Description
int8

string

VectorSearchProfile

Définit une combinaison de configurations à utiliser avec la recherche vectorielle.

Nom Type Description
algorithm

string

Nom de la configuration de l’algorithme de recherche vectorielle qui spécifie l’algorithme et les paramètres facultatifs.

compression

string

Nom de la configuration de la méthode de compression qui spécifie la méthode de compression et les paramètres facultatifs.

name

string

Nom à associer à ce profil de recherche vectorielle particulier.

vectorizer

string

Nom de la vectorisation configurée pour une utilisation avec la recherche vectorielle.

VectorSearchVectorizerKind

Méthode de vectorisation à utiliser pendant le temps de requête.

Nom Type Description
azureOpenAI

string

Générez des incorporations à l’aide d’une ressource Azure OpenAI au moment de la requête.

customWebApi

string

Générez des incorporations à l’aide d’un point de terminaison web personnalisé au moment de la requête.

WebApiParameters

Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur.

Nom Type Description
authIdentity SearchIndexerDataIdentity:

Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes. Si une authResourceId est fournie et qu’elle n’est pas spécifiée, l’identité managée affectée par le système est utilisée. Lors des mises à jour de l’indexeur, si l’identité n’est pas spécifiée, la valeur reste inchangée. Si la valeur est « none », la valeur de cette propriété est effacée.

authResourceId

string

S’applique aux points de terminaison personnalisés qui se connectent au code externe dans une fonction Azure ou à une autre application qui fournit les transformations. Cette valeur doit être l’ID d’application créé pour la fonction ou l’application lorsqu’elle a été inscrite auprès d’Azure Active Directory. Quand elle est spécifiée, la vectorisation se connecte à la fonction ou à l’application à l’aide d’un ID managé (système ou affecté par l’utilisateur) du service de recherche et du jeton d’accès de la fonction ou de l’application, en utilisant cette valeur comme ID de ressource pour créer l’étendue du jeton d’accès.

httpHeaders

object

En-têtes requis pour effectuer la requête HTTP.

httpMethod

string

Méthode de la requête HTTP.

timeout

string

Délai d’expiration souhaité pour la requête. La valeur par défaut est de 30 secondes.

uri

string

URI de l’API web fournissant le vectoriseur.

WebApiVectorizer

Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est obtenue à l’aide de l’interface d’API Web personnalisée d’un ensemble de compétences.

Nom Type Description
customWebApiParameters

WebApiParameters

Spécifie les propriétés du vectoriseur défini par l’utilisateur.

kind string:

customWebApi

Nom du type de méthode de vectorisation configuré pour une utilisation avec la recherche vectorielle.

name

string

Nom à associer à cette méthode de vectorisation particulière.

WordDelimiterTokenFilter

Fractionne les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

catenateAll

boolean

False

Valeur indiquant si toutes les parties de sous-mots seront catenées. Par exemple, si cette valeur est définie sur true, « Azure-Search-1 » devient « AzureSearch1 ». La valeur par défaut est false.

catenateNumbers

boolean

False

Valeur indiquant si le nombre maximal d’exécutions de parties sera catenté. Par exemple, si cette valeur est définie sur true, « 1-2 » devient « 12 ». La valeur par défaut est false.

catenateWords

boolean

False

Valeur indiquant si le nombre maximal d’exécutions de parties word sera catenté. Par exemple, si cette valeur est définie sur true, « Azure-Search » devient « AzureSearch ». La valeur par défaut est false.

generateNumberParts

boolean

True

Valeur indiquant s’il faut générer des sous-mots numériques. La valeur par défaut est true.

generateWordParts

boolean

True

Valeur indiquant s’il faut générer des mots de partie. Si cette valeur est définie, les parties des mots doivent être générées ; par exemple , « AzureSearch » devient « Azure » « Search ». La valeur par défaut est true.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer que par des caractères alphanumériques et est limité à 128 caractères.

preserveOriginal

boolean

False

Valeur indiquant si les mots d’origine seront conservés et ajoutés à la liste des sous-mots. La valeur par défaut est false.

protectedWords

string[]

Liste des jetons à protéger contre la délimitation.

splitOnCaseChange

boolean

True

Valeur indiquant s’il faut fractionner des mots sur caseChange. Par exemple, si cette valeur est définie sur true, « AzureSearch » devient « Azure » « Search ». La valeur par défaut est true.

splitOnNumerics

boolean

True

Valeur indiquant s’il faut fractionner les nombres. Par exemple, si cette valeur est définie sur true, « Azure1Search » devient « Azure » « 1 » « Search ». La valeur par défaut est true.

stemEnglishPossessive

boolean

True

Valeur indiquant s’il faut supprimer les « s » de fin pour chaque sous-mot. La valeur par défaut est true.