Indexes - Create
Cria um novo índice de pesquisa.
POST {endpoint}/indexes?api-version=2024-05-01-preview
Parâmetros de URI
Nome | Em | Obrigatório | Tipo | Description |
---|---|---|---|---|
endpoint
|
path | True |
string |
A URL do ponto de extremidade do serviço de pesquisa. |
api-version
|
query | True |
string |
Versão da API do cliente. |
Cabeçalho da solicitação
Nome | Obrigatório | Tipo | Description |
---|---|---|---|
x-ms-client-request-id |
string uuid |
A ID de rastreamento enviada com a solicitação para ajudar na depuração. |
Corpo da solicitação
Nome | Obrigatório | Tipo | Description |
---|---|---|---|
fields | True |
Os campos do índice. |
|
name | True |
string |
O nome do índice. |
@odata.etag |
string |
A ETag do índice. |
|
analyzers | LexicalAnalyzer[]: |
Os analisadores do índice. |
|
charFilters | CharFilter[]: |
O caractere filtra para o índice. |
|
corsOptions |
Opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para o índice. |
||
defaultScoringProfile |
string |
O nome do perfil de pontuação a ser usado se nenhum for especificado na consulta. Se essa propriedade não estiver definida e nenhum perfil de pontuação for especificado na consulta, a pontuação padrão (tf-idf) será usada. |
|
encryptionKey |
Uma descrição de uma chave de criptografia criada no Azure Key Vault. Essa chave é usada para fornecer um nível adicional de criptografia em repouso para seus dados quando você quiser ter total garantia de que ninguém, nem mesmo a Microsoft, pode descriptografar seus dados. Depois de criptografar seus dados, eles sempre permanecerão criptografados. O serviço de pesquisa ignorará as tentativas de definir essa propriedade como nula. Você pode alterar essa propriedade conforme necessário se quiser girar sua chave de criptografia; Seus dados não serão afetados. A criptografia com chaves gerenciadas pelo cliente não está disponível para serviços de pesquisa gratuitos e só está disponível para serviços pagos criados em ou após 1º de janeiro de 2019. |
||
normalizers | LexicalNormalizer[]: |
Os normalizadores para o índice. |
|
scoringProfiles |
Os perfis de pontuação para o índice. |
||
semantic |
Define parâmetros para um índice de pesquisa que influenciam as funcionalidades semânticas. |
||
similarity | Similarity: |
O tipo de algoritmo de similaridade a ser usado ao pontuar e classificar os documentos correspondentes a uma consulta de pesquisa. O algoritmo de similaridade só pode ser definido no momento da criação do índice e não pode ser modificado em índices existentes. Se for nulo, o algoritmo ClassicSimilarity será usado. |
|
suggesters |
Os sugestores para o índice. |
||
tokenFilters |
TokenFilter[]:
|
O token filtra para o índice. |
|
tokenizers | LexicalTokenizer[]: |
Os tokenizers para o índice. |
|
vectorSearch |
Contém opções de configuração relacionadas à pesquisa de vetor. |
Respostas
Nome | Tipo | Description |
---|---|---|
201 Created | ||
Other Status Codes |
Resposta de erro. |
Exemplos
SearchServiceCreateIndex
Solicitação de exemplo
POST https://myservice.search.windows.net/indexes?api-version=2024-05-01-preview
{
"name": "hotels",
"fields": [
{
"name": "hotelId",
"type": "Edm.String",
"key": true,
"searchable": false
},
{
"name": "baseRate",
"type": "Edm.Double"
},
{
"name": "description",
"type": "Edm.String",
"filterable": false,
"sortable": false,
"facetable": false
},
{
"name": "descriptionEmbedding",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": [],
"dimensions": 1536,
"vectorSearchProfile": "myCompressedHnswProfile"
},
{
"name": "descriptionEmbedding_notstored",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": false,
"stored": false,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": [],
"dimensions": 1536,
"vectorSearchProfile": "myCompressedHnswProfile"
},
{
"name": "description_fr",
"type": "Edm.String",
"filterable": false,
"sortable": false,
"facetable": false,
"analyzer": "fr.lucene"
},
{
"name": "hotelName",
"type": "Edm.String"
},
{
"name": "nameEmbedding",
"type": "Collection(Edm.Half)",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": [],
"dimensions": 1536,
"vectorSearchProfile": "myHnswProfile"
},
{
"name": "category",
"type": "Edm.String"
},
{
"name": "tags",
"type": "Collection(Edm.String)",
"analyzer": "tagsAnalyzer"
},
{
"name": "parkingIncluded",
"type": "Edm.Boolean"
},
{
"name": "smokingAllowed",
"type": "Edm.Boolean"
},
{
"name": "lastRenovationDate",
"type": "Edm.DateTimeOffset"
},
{
"name": "rating",
"type": "Edm.Int32"
},
{
"name": "location",
"type": "Edm.GeographyPoint"
}
],
"scoringProfiles": [
{
"name": "geo",
"text": {
"weights": {
"hotelName": 5
}
},
"functions": [
{
"type": "distance",
"boost": 5,
"fieldName": "location",
"interpolation": "logarithmic",
"distance": {
"referencePointParameter": "currentLocation",
"boostingDistance": 10
}
}
]
}
],
"defaultScoringProfile": "geo",
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"hotelName"
]
}
],
"analyzers": [
{
"name": "tagsAnalyzer",
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"charFilters": [
"html_strip"
],
"tokenizer": "standard_v2"
}
],
"corsOptions": {
"allowedOrigins": [
"tempuri.org"
],
"maxAgeInSeconds": 60
},
"encryptionKey": {
"keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
"keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
"keyVaultUri": "https://myKeyVault.vault.azure.net",
"accessCredentials": {
"applicationId": "00000000-0000-0000-0000-000000000000",
"applicationSecret": "<applicationSecret>"
}
},
"similarity": {
"@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
"b": 0.5,
"k1": 1.3
},
"semantic": {
"configurations": [
{
"name": "semanticHotels",
"prioritizedFields": {
"titleField": {
"fieldName": "hotelName"
},
"prioritizedContentFields": [
{
"fieldName": "description"
},
{
"fieldName": "description_fr"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "tags"
},
{
"fieldName": "category"
}
]
}
}
]
},
"vectorSearch": {
"profiles": [
{
"name": "myHnswProfile",
"algorithm": "myHnsw",
"vectorizer": "myOpenAi"
},
{
"name": "myCompressedHnswProfile",
"algorithm": "myHnsw",
"vectorizer": "myOpenAi",
"compression": "mySQ8"
},
{
"name": "myAlgorithm",
"algorithm": "myHnsw"
}
],
"algorithms": [
{
"name": "myHnsw",
"kind": "hnsw",
"hnswParameters": {
"m": 4,
"metric": "cosine",
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "myExhaustiveKnn",
"kind": "exhaustiveKnn",
"exhaustiveKnnParameters": {
"metric": "cosine"
}
}
],
"compressions": [
{
"name": "mySQ8",
"kind": "scalarQuantization",
"scalarQuantizationParameters": {
"quantizedDataType": "int8"
},
"rerankWithOriginalVectors": true,
"defaultOversampling": 10
}
],
"vectorizers": [
{
"name": "myOpenAi",
"kind": "azureOpenAI",
"azureOpenAIParameters": {
"resourceUri": "https://url.openai.azure.com",
"deploymentId": "text-embedding-ada-002",
"apiKey": "topsecretkey"
}
}
]
}
}
Resposta de exemplo
{
"name": "hotels",
"fields": [
{
"name": "hotelId",
"type": "Edm.String",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": true,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"normalizer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "baseRate",
"type": "Edm.Double",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"normalizer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "description",
"type": "Edm.String",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"normalizer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "descriptionEmbedding",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"normalizer": null,
"dimensions": 1536,
"vectorSearchProfile": "myCompressedHnswProfile",
"synonymMaps": []
},
{
"name": "descriptionEmbedding_notstored",
"type": "Collection(Edm.Single)",
"searchable": true,
"filterable": false,
"retrievable": false,
"stored": false,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"synonymMaps": [],
"dimensions": 1536,
"vectorSearchProfile": "myCompressedHnswProfile"
},
{
"name": "description_fr",
"type": "Edm.String",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": "fr.lucene",
"normalizer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "hotelName",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"normalizer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "nameEmbedding",
"type": "Collection(Edm.Half)",
"searchable": true,
"filterable": false,
"retrievable": true,
"sortable": false,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"normalizer": null,
"dimensions": 1536,
"vectorSearchProfile": "myHnswProfile",
"synonymMaps": []
},
{
"name": "category",
"type": "Edm.String",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"normalizer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "tags",
"type": "Collection(Edm.String)",
"searchable": true,
"filterable": true,
"retrievable": true,
"sortable": false,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": "tagsAnalyzer",
"normalizer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "parkingIncluded",
"type": "Edm.Boolean",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"normalizer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "smokingAllowed",
"type": "Edm.Boolean",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"normalizer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "lastRenovationDate",
"type": "Edm.DateTimeOffset",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"normalizer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "rating",
"type": "Edm.Int32",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": true,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"normalizer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
},
{
"name": "location",
"type": "Edm.GeographyPoint",
"searchable": false,
"filterable": true,
"retrievable": true,
"sortable": true,
"facetable": false,
"key": false,
"indexAnalyzer": null,
"searchAnalyzer": null,
"analyzer": null,
"normalizer": null,
"dimensions": null,
"vectorSearchProfile": null,
"synonymMaps": []
}
],
"scoringProfiles": [
{
"name": "geo",
"functionAggregation": "sum",
"text": {
"weights": {
"hotelName": 5
}
},
"functions": [
{
"fieldName": "location",
"interpolation": "logarithmic",
"type": "distance",
"boost": 5,
"distance": {
"referencePointParameter": "currentLocation",
"boostingDistance": 10
}
}
]
}
],
"defaultScoringProfile": "geo",
"suggesters": [
{
"name": "sg",
"searchMode": "analyzingInfixMatching",
"sourceFields": [
"hotelName"
]
}
],
"analyzers": [
{
"name": "tagsAnalyzer",
"@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
"charFilters": [
"html_strip"
],
"tokenizer": "standard_v2",
"tokenFilters": []
}
],
"tokenizers": [],
"normalizers": [],
"tokenFilters": [],
"charFilters": [],
"corsOptions": {
"allowedOrigins": [
"tempuri.org"
],
"maxAgeInSeconds": 60
},
"encryptionKey": {
"keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
"keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
"keyVaultUri": "https://myKeyVault.vault.azure.net",
"accessCredentials": {
"applicationId": "00000000-0000-0000-0000-000000000000",
"applicationSecret": null
}
},
"similarity": {
"@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
"b": 0.5,
"k1": 1.3
},
"semantic": {
"defaultConfiguration": null,
"configurations": [
{
"name": "semanticHotels",
"prioritizedFields": {
"titleField": {
"fieldName": "hotelName"
},
"prioritizedContentFields": [
{
"fieldName": "description"
},
{
"fieldName": "description_fr"
}
],
"prioritizedKeywordsFields": [
{
"fieldName": "tags"
},
{
"fieldName": "category"
}
]
}
}
]
},
"vectorSearch": {
"algorithms": [
{
"name": "myHnsw",
"kind": "hnsw",
"hnswParameters": {
"metric": "cosine",
"m": 4,
"efConstruction": 400,
"efSearch": 500
}
},
{
"name": "myExhaustiveKnn",
"kind": "exhaustiveKnn",
"exhaustiveKnnParameters": {
"metric": "cosine"
}
}
],
"profiles": [
{
"name": "myHnswProfile",
"algorithm": "myHnsw",
"vectorizer": "myOpenAi"
},
{
"name": "myCompressedHnswProfile",
"algorithm": "myHnsw",
"vectorizer": "myOpenAi",
"compression": "mySQ8"
},
{
"name": "myAlgorithm",
"algorithm": "myHnsw"
}
],
"compressions": [
{
"name": "mySQ8",
"kind": "scalarQuantization",
"scalarQuantizationParameters": {
"quantizedDataType": "int8"
},
"rerankWithOriginalVectors": true,
"defaultOversampling": 10
}
],
"vectorizers": [
{
"name": "myOpenAi",
"kind": "azureOpenAI",
"azureOpenAIParameters": {
"resourceUri": "https://url.openai.azure.com",
"deploymentId": "text-embedding-ada-002",
"apiKey": "topsecretkey",
"authIdentity": null
}
}
]
}
}
Definições
Nome | Description |
---|---|
AIServices |
Especifica os parâmetros da Visão dos Serviços de IA para vetorizar uma imagem ou texto de consulta. |
AIServices |
Especifica os parâmetros da Visão dos Serviços de IA para vetorizar uma imagem ou texto de consulta. |
AIStudio |
O nome do modelo de inserção do catálogo de Estúdio de IA do Azure que será chamado. |
AMLParameters |
Especifica as propriedades para se conectar a um vetorizador AML. |
AMLVectorizer |
Especifica um ponto de extremidade do Azure Machine Learning implantado por meio do Catálogo de Modelos Estúdio de IA do Azure para gerar a inserção de vetor de uma cadeia de caracteres de consulta. |
Ascii |
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico" em seus equivalentes ASCII, se esses equivalentes existirem. Esse filtro de token é implementado usando o Apache Lucene. |
Azure |
Credenciais de um aplicativo registrado criado para seu serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Azure Key Vault. |
Azure |
Permite gerar uma inserção de vetor para uma determinada entrada de texto usando o recurso OpenAI do Azure. |
Azure |
O nome do modelo de IA aberta do Azure que será chamado. |
Azure |
Especifica os parâmetros para se conectar ao recurso OpenAI do Azure. |
Azure |
Especifica o recurso OpenAI do Azure usado para vetorizar uma cadeia de caracteres de consulta. |
BM25Similarity |
Função de classificação com base no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1'). |
Char |
Define os nomes de todos os filtros de caracteres compatíveis com o mecanismo de pesquisa. |
Cjk |
Forms bigrams de termos CJK gerados do criador de token padrão. Esse filtro de token é implementado usando o Apache Lucene. |
Cjk |
Scripts que podem ser ignorados por CjkBigramTokenFilter. |
Classic |
Algoritmo de similaridade herdado que usa a implementação lucene TFIDFSimilarity do TF-IDF. Essa variação do TF-IDF introduz a normalização de comprimento de documento estático, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas. |
Classic |
Tokenizer baseado em gramática que é adequado para processar a maioria dos documentos de idioma europeu. Esse tokenizer é implementado usando o Apache Lucene. |
Common |
Construa bigramas para termos que ocorrem com frequência durante a indexação. Termos únicos ainda são indexados também, com bigramas sobrepostos. Esse filtro de token é implementado usando o Apache Lucene. |
Cors |
Define opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para um índice. |
Custom |
Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizer predefinido e um ou mais filtros. O criador de token é responsável por dividir o texto em tokens e os filtros para modificar tokens emitidos pelo criador de tokens. |
Custom |
Permite configurar a normalização para campos filtráveis, classificáveis e facetáveis, que, por padrão, operam com correspondência estrita. Essa é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado. |
Custom |
Especifica um vetorizador definido pelo usuário para gerar a inserção de vetor de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface da API Web personalizada de um conjunto de habilidades. |
Custom |
Especifica as propriedades para se conectar a um vetorizador definido pelo usuário. |
Dictionary |
Decompõe palavras compostas encontradas em muitos idiomas germânicos. Esse filtro de token é implementado usando o Apache Lucene. |
Distance |
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica. |
Distance |
Fornece valores de parâmetro para uma função de pontuação de distância. |
Edge |
Gera n-gramas dos tamanhos fornecidos a partir da frente ou da parte traseira de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene. |
Edge |
Especifica de qual lado da entrada um n-gram deve ser gerado. |
Edge |
Gera n-gramas dos tamanhos fornecidos a partir da frente ou da parte traseira de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene. |
Edge |
Tokeniza a entrada de uma borda em n-gramas dos tamanhos fornecidos. Esse tokenizer é implementado usando o Apache Lucene. |
Elision |
Remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Esse filtro de token é implementado usando o Apache Lucene. |
Error |
As informações adicionais do erro de gerenciamento de recursos. |
Error |
Os detalhes do erro. |
Error |
Resposta de erro |
Exhaustive |
Contém os parâmetros específicos para o algoritmo KNN exaustivo. |
Exhaustive |
Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetor. |
Freshness |
Define uma função que aumenta as pontuações com base no valor de um campo de data e hora. |
Freshness |
Fornece valores de parâmetro para uma função de pontuação de atualização. |
Hnsw |
Contém os parâmetros específicos do algoritmo HNSW. |
Hnsw |
Contém opções de configuração específicas para o algoritmo de vizinhos mais próximos aproximado do HNSW usado durante a indexação e a consulta. O algoritmo HNSW oferece uma compensação ajustável entre a velocidade e a precisão da pesquisa. |
Input |
Mapeamento de campo de entrada para uma habilidade. |
Keep |
Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Esse filtro de token é implementado usando o Apache Lucene. |
Keyword |
Marca termos como palavras-chave. Esse filtro de token é implementado usando o Apache Lucene. |
Keyword |
Emite a entrada inteira como um único token. Esse tokenizer é implementado usando o Apache Lucene. |
Keyword |
Emite a entrada inteira como um único token. Esse tokenizer é implementado usando o Apache Lucene. |
Length |
Remove palavras muito longas ou muito curtas. Esse filtro de token é implementado usando o Apache Lucene. |
Lexical |
Define os nomes de todos os analisadores de texto compatíveis com o mecanismo de pesquisa. |
Lexical |
Define os nomes de todos os normalizadores de texto compatíveis com o mecanismo de pesquisa. |
Lexical |
Define os nomes de todos os tokenizers compatíveis com o mecanismo de pesquisa. |
Limit |
Limita o número de tokens durante a indexação. Esse filtro de token é implementado usando o Apache Lucene. |
Lucene |
Analisador Standard do Apache Lucene; Composto pelo tokenizador padrão, filtro minúsculo e filtro de parada. |
Lucene |
Quebra o texto seguindo as regras de Segmentação de Texto Unicode. Esse criador de tokens é implementado usando o Apache Lucene. |
Lucene |
Quebra o texto seguindo as regras de Segmentação de Texto Unicode. Esse criador de tokens é implementado usando o Apache Lucene. |
Magnitude |
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico. |
Magnitude |
Fornece valores de parâmetro para uma função de pontuação de magnitude. |
Mapping |
Um filtro de caracteres que aplica mapeamentos definidos com a opção de mapeamentos. A correspondência é gananciosa (a correspondência de padrões mais longa em um determinado ponto vence). A substituição é permitida como a cadeia de caracteres vazia. Esse filtro de caractere é implementado usando o Apache Lucene. |
Microsoft |
Divide o texto usando regras específicas de idioma e reduz palavras para seus formulários base. |
Microsoft |
Divide o texto usando regras específicas de idioma. |
Microsoft |
Listas os idiomas compatíveis com o criador de tokens de lematização de idioma da Microsoft. |
Microsoft |
Listas os idiomas compatíveis com o criador de token de idioma da Microsoft. |
NGram |
Gera n-gramas de determinados tamanhos. Esse filtro de token é implementado usando o Apache Lucene. |
NGram |
Gera n-gramas de determinados tamanhos. Esse filtro de token é implementado usando o Apache Lucene. |
NGram |
Cria tokens de entrada em n-gramas de determinados tamanhos. Esse tokenizer é implementado usando o Apache Lucene. |
Output |
Mapeamento de campo de saída para uma habilidade. |
Path |
Criador de token para hierarquias de caminho. Esse criador de tokens é implementado usando o Apache Lucene. |
Pattern |
Separa texto em termos de forma flexível por meio de um padrão de expressão regular. Esse analisador é implementado usando o Apache Lucene. |
Pattern |
Usa regexes Java para emitir vários tokens – um para cada grupo de captura em um ou mais padrões. Esse filtro de token é implementado usando o Apache Lucene. |
Pattern |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres para substituir. Por exemplo, considerando o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de caractere é implementado usando o Apache Lucene. |
Pattern |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres para substituir. Por exemplo, considerando o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de token é implementado usando o Apache Lucene. |
Pattern |
Criador de token que usa a correspondência de padrões regex para construir tokens distintos. Esse criador de tokens é implementado usando o Apache Lucene. |
Phonetic |
Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter. |
Phonetic |
Crie tokens para correspondências fonéticas. Esse filtro de token é implementado usando o Apache Lucene. |
Prioritized |
Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, realces e respostas. |
Regex |
Define sinalizadores que podem ser combinados para controlar como as expressões regulares são usadas no analisador de padrões e no criador de tokens de padrão. |
Scalar |
Contém os parâmetros específicos da Quantização Escalar. |
Scalar |
Contém opções de configuração específicas para o método de compactação de quantização escalar usado durante a indexação e a consulta. |
Scoring |
Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação. |
Scoring |
Define a função usada para interpolar o aumento de pontuação em um intervalo de documentos. |
Scoring |
Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa. |
Search |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
Search |
Define o tipo de dados de um campo em um índice de pesquisa. |
Search |
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice. |
Search |
Limpa a propriedade de identidade de uma fonte de dados. |
Search |
Especifica a identidade de uma fonte de dados a ser usada. |
Search |
Uma chave de criptografia gerenciada pelo cliente no Azure Key Vault. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso, como índices e mapas de sinônimos. |
Semantic |
Define uma configuração específica a ser usada no contexto de funcionalidades semânticas. |
Semantic |
Um campo usado como parte da configuração semântica. |
Semantic |
Define parâmetros para um índice de pesquisa que influenciam as funcionalidades semânticas. |
Shingle |
Cria combinações de tokens como um único token. Esse filtro de token é implementado usando o Apache Lucene. |
Snowball |
Um filtro que deriva palavras usando um lematizador gerado por Bola de Neve. Esse filtro de token é implementado usando o Apache Lucene. |
Snowball |
O idioma a ser usado para um filtro de token bola de neve. |
Stemmer |
Fornece a capacidade de substituir outros filtros de lematização com lematização personalizada baseada em dicionário. Quaisquer termos com lematização de dicionário serão marcados como palavras-chave para que não sejam decorrentes de lematizadores na cadeia. Deve ser colocado antes de qualquer filtro de lematização. Esse filtro de token é implementado usando o Apache Lucene. |
Stemmer |
Filtro de lematização específico da linguagem. Esse filtro de token é implementado usando o Apache Lucene. |
Stemmer |
O idioma a ser usado para um filtro de token de lematizador. |
Stop |
Divide o texto em não letras; Aplica os filtros de token de letras minúsculas e palavras irrelevantes. Esse analisador é implementado usando o Apache Lucene. |
Stopwords |
Identifica uma lista predefinida de palavras irrelevantes específicas do idioma. |
Stopwords |
Remove palavras irrelevantes de um fluxo de tokens. Esse filtro de token é implementado usando o Apache Lucene. |
Suggester |
Define como a API de Sugestão deve se aplicar a um grupo de campos no índice. |
Suggester |
Um valor que indica os recursos do sugestor. |
Synonym |
Corresponde a sinônimos de palavra única ou múltipla em um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene. |
Tag |
Define uma função que aumenta as pontuações de documentos com valores de cadeia de caracteres que correspondem a uma determinada lista de marcas. |
Tag |
Fornece valores de parâmetro para uma função de pontuação de marca. |
Text |
Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa. |
Token |
Representa classes de caracteres nas quais um filtro de token pode operar. |
Token |
Define os nomes de todos os filtros de token compatíveis com o mecanismo de pesquisa. |
Truncate |
Trunca os termos para um comprimento específico. Esse filtro de token é implementado usando o Apache Lucene. |
Uax |
Cria tokens de urls e emails como um único token. Esse criador de tokens é implementado usando o Apache Lucene. |
Unique |
Filtra os tokens com o mesmo texto como o token anterior. Esse filtro de token é implementado usando o Apache Lucene. |
Vector |
O formato de codificação para interpretar o conteúdo do campo de vetor. |
Vector |
Contém opções de configuração relacionadas à pesquisa de vetor. |
Vector |
O algoritmo usado para indexação e consulta. |
Vector |
A métrica de similaridade a ser usada para comparações de vetor. É recomendável escolher a mesma métrica de similaridade em que o modelo de inserção foi treinado. |
Vector |
O método de compactação usado para indexação e consulta. |
Vector |
O tipo de dados quantizado de valores de vetor compactados. |
Vector |
Define uma combinação de configurações a serem usadas com a pesquisa de vetor. |
Vector |
O método de vetorização a ser usado durante o tempo de consulta. |
Word |
Divide as palavras em subpalavras e realiza transformações opcionais em grupos de subpalavras. Esse filtro de token é implementado usando o Apache Lucene. |
AIServicesVisionParameters
Especifica os parâmetros da Visão dos Serviços de IA para vetorizar uma imagem ou texto de consulta.
Nome | Tipo | Description |
---|---|---|
apiKey |
string |
Chave de API do recurso designado dos Serviços de IA. |
authIdentity | SearchIndexerDataIdentity: |
A identidade gerenciada atribuída pelo usuário usada para conexões de saída. Se um authResourceId for fornecido e não for especificado, a identidade gerenciada atribuída pelo sistema será usada. Em atualizações para o índice, se a identidade não for especificada, o valor permanecerá inalterado. Se definido como "nenhum", o valor dessa propriedade será limpo. |
modelVersion |
string |
A versão do modelo a ser usada ao chamar o serviço de Visão dos Serviços de IA. O padrão será o mais recente disponível quando não for especificado. |
resourceUri |
string |
O URI do recurso dos Serviços de IA. |
AIServicesVisionVectorizer
Especifica os parâmetros da Visão dos Serviços de IA para vetorizar uma imagem ou texto de consulta.
Nome | Tipo | Description |
---|---|---|
aiServicesVisionParameters |
Contém os parâmetros específicos para a vetorização de inserção da Visão dos Serviços de IA. |
|
kind |
string:
ai |
O nome do tipo de método de vetorização que está sendo configurado para uso com a pesquisa de vetor. |
name |
string |
O nome a ser associado a esse método de vetorização específico. |
AIStudioModelCatalogName
O nome do modelo de inserção do catálogo de Estúdio de IA do Azure que será chamado.
Nome | Tipo | Description |
---|---|---|
Cohere-embed-v3-english |
string |
|
Cohere-embed-v3-multilingual |
string |
|
Facebook-DinoV2-Image-Embeddings-ViT-Base |
string |
|
Facebook-DinoV2-Image-Embeddings-ViT-Giant |
string |
|
OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336 |
string |
|
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
string |
AMLParameters
Especifica as propriedades para se conectar a um vetorizador AML.
Nome | Tipo | Description |
---|---|---|
key |
string |
(Necessário para autenticação de chave) A chave para o serviço AML. |
modelName |
O nome do modelo de inserção do catálogo de Estúdio de IA do Azure implantado no ponto de extremidade fornecido. |
|
region |
string |
(Opcional para autenticação de token). A região em que o serviço AML é implantado. |
resourceId |
string |
(Necessário para autenticação de token). A ID de recurso Azure Resource Manager do serviço AML. Ele deve estar no formato assinaturas/{GUID}/resourceGroups/{nome-do-grupo-de-recursos}/Microsoft. MachineLearningServices/Workspaces/{Workspace-Name}/Services/{service_name}. |
timeout |
string |
(Opcional) Quando especificado, indica o tempo limite para o cliente http que fez a chamada à API. |
uri |
string |
(Necessário para sem autenticação ou autenticação de chave) O URI de pontuação do serviço AML para o qual o payload JSON será enviado. Somente o esquema do URI https é permitido. |
AMLVectorizer
Especifica um ponto de extremidade do Azure Machine Learning implantado por meio do Catálogo de Modelos Estúdio de IA do Azure para gerar a inserção de vetor de uma cadeia de caracteres de consulta.
Nome | Tipo | Description |
---|---|---|
amlParameters |
Especifica as propriedades do vetorizador AML. |
|
kind |
string:
aml |
O nome do tipo de método de vetorização que está sendo configurado para uso com a pesquisa de vetor. |
name |
string |
O nome a ser associado a esse método de vetorização específico. |
AsciiFoldingTokenFilter
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico" em seus equivalentes ASCII, se esses equivalentes existirem. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
preserveOriginal |
boolean |
False |
Um valor que indica se o token original será mantido. O padrão é false. |
AzureActiveDirectoryApplicationCredentials
Credenciais de um aplicativo registrado criado para seu serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Azure Key Vault.
Nome | Tipo | Description |
---|---|---|
applicationId |
string |
Uma ID de Aplicativo do AAD que recebeu as permissões de acesso necessárias para o Azure Key Vault que deve ser usada ao criptografar seus dados inativos. A ID do Aplicativo não deve ser confundida com a ID de Objeto do aplicativo do AAD. |
applicationSecret |
string |
A chave de autenticação do aplicativo AAD especificado. |
AzureOpenAIEmbeddingSkill
Permite gerar uma inserção de vetor para uma determinada entrada de texto usando o recurso OpenAI do Azure.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de habilidade. |
apiKey |
string |
Chave de API do recurso Azure OpenAI designado. |
authIdentity | SearchIndexerDataIdentity: |
A identidade gerenciada atribuída pelo usuário usada para conexões de saída. |
context |
string |
Representa o nível em que as operações ocorrem, como a raiz do documento ou o conteúdo do documento (por exemplo, /document ou /document/content). O padrão é /document. |
deploymentId |
string |
ID da implantação do modelo OpenAI do Azure no recurso designado. |
description |
string |
A descrição da habilidade que descreve as entradas, as saídas e o uso da habilidade. |
dimensions |
integer |
O número de dimensões que as inserções de saída resultantes devem ter. Só há suporte em modelos text-embedding-3 e posteriores. |
inputs |
As entradas das habilidades podem ser uma coluna no conjunto de dados de origem ou a saída de uma habilidade upstream. |
|
modelName |
O nome do modelo de inserção implantado no caminho deploymentId fornecido. |
|
name |
string |
O nome da habilidade que a identifica exclusivamente dentro do conjunto de habilidades. Uma habilidade sem nome definido receberá um nome padrão de seu índice baseado em 1 na matriz de habilidades, prefixado com o caractere '#'. |
outputs |
A saída de uma habilidade é um campo em um índice de pesquisa ou um valor que pode ser consumido como uma entrada por outra habilidade. |
|
resourceUri |
string |
O URI de recurso do recurso OpenAI do Azure. |
AzureOpenAIModelName
O nome do modelo de IA aberta do Azure que será chamado.
Nome | Tipo | Description |
---|---|---|
experimental |
string |
|
text-embedding-3-large |
string |
|
text-embedding-3-small |
string |
|
text-embedding-ada-002 |
string |
AzureOpenAIParameters
Especifica os parâmetros para se conectar ao recurso OpenAI do Azure.
Nome | Tipo | Description |
---|---|---|
apiKey |
string |
Chave de API do recurso Azure OpenAI designado. |
authIdentity | SearchIndexerDataIdentity: |
A identidade gerenciada atribuída pelo usuário usada para conexões de saída. |
deploymentId |
string |
ID da implantação do modelo OpenAI do Azure no recurso designado. |
modelName |
O nome do modelo de inserção implantado no caminho deploymentId fornecido. |
|
resourceUri |
string |
O URI de recurso do recurso OpenAI do Azure. |
AzureOpenAIVectorizer
Especifica o recurso OpenAI do Azure usado para vetorizar uma cadeia de caracteres de consulta.
Nome | Tipo | Description |
---|---|---|
azureOpenAIParameters | AzureOpenAIParameters: |
Contém os parâmetros específicos para a vetorização de inserção do Azure OpenAI. |
kind |
string:
azure |
O nome do tipo de método de vetorização que está sendo configurado para uso com a pesquisa de vetor. |
name |
string |
O nome a ser associado a esse método de vetorização específico. |
BM25Similarity
Função de classificação com base no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1').
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
|
b |
number |
Essa propriedade controla como o comprimento de um documento afeta a pontuação de relevância. Por padrão, um valor de 0,75 é usado. Um valor de 0,0 significa que nenhuma normalização de comprimento é aplicada, enquanto um valor de 1,0 significa que a pontuação é totalmente normalizada pelo comprimento do documento. |
k1 |
number |
Essa propriedade controla a função de dimensionamento entre a frequência de termos de cada termos correspondentes e a pontuação de relevância final de um par de consultas de documento. Por padrão, um valor de 1,2 é usado. Um valor de 0,0 significa que a pontuação não é dimensionada com um aumento na frequência do termo. |
CharFilterName
Define os nomes de todos os filtros de caracteres compatíveis com o mecanismo de pesquisa.
Nome | Tipo | Description |
---|---|---|
html_strip |
string |
Um filtro de caracteres que tenta remover constructos HTML. Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilter
Forms bigrams de termos CJK gerados do criador de token padrão. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
ignoreScripts |
Os scripts a serem ignorados. |
||
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
outputUnigrams |
boolean |
False |
Um valor que indica se é necessário gerar unigramas e bigrams (se verdadeiro) ou apenas bigrams (se for falso). O padrão é false. |
CjkBigramTokenFilterScripts
Scripts que podem ser ignorados por CjkBigramTokenFilter.
Nome | Tipo | Description |
---|---|---|
han |
string |
Ignore o script han ao formar bigrams de termos CJK. |
hangul |
string |
Ignore o script Hangul ao formar bigrams de termos CJK. |
hiragana |
string |
Ignore o script hiragana ao formar bigrams de termos CJK. |
katakana |
string |
Ignore o script katakana ao formar bigrams de termos CJK. |
ClassicSimilarity
Algoritmo de similaridade herdado que usa a implementação lucene TFIDFSimilarity do TF-IDF. Essa variação do TF-IDF introduz a normalização de comprimento de documento estático, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
ClassicTokenizer
Tokenizer baseado em gramática que é adequado para processar a maioria dos documentos de idioma europeu. Esse tokenizer é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de tokenizer. |
|
maxTokenLength |
integer |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
name |
string |
O nome do tokenizer. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
CommonGramTokenFilter
Construa bigramas para termos que ocorrem com frequência durante a indexação. Termos únicos ainda são indexados também, com bigramas sobrepostos. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
commonWords |
string[] |
O conjunto de palavras comuns. |
|
ignoreCase |
boolean |
False |
Um valor que indica se a correspondência de palavras comuns não diferenciará maiúsculas de minúsculas. O padrão é false. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
queryMode |
boolean |
False |
Um valor que indica se o filtro de token está no modo de consulta. Quando estiver no modo de consulta, o filtro de token gerará bigrams e removerá palavras comuns e termos únicos seguidos por uma palavra comum. O padrão é false. |
CorsOptions
Define opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para um índice.
Nome | Tipo | Description |
---|---|---|
allowedOrigins |
string[] |
A lista de origens das quais o código JavaScript receberá acesso ao índice. Pode conter uma lista de hosts do formulário {protocol}://{fully-qualified-domain-name}[:{port#}], ou um único '*' para permitir todas as origens (não recomendado). |
maxAgeInSeconds |
integer |
A duração para a qual os navegadores devem armazenar em cache as respostas de simulação do CORS. O padrão é 5 minutos. |
CustomAnalyzer
Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizer predefinido e um ou mais filtros. O criador de token é responsável por dividir o texto em tokens e os filtros para modificar tokens emitidos pelo criador de tokens.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de analisador. |
charFilters |
Uma lista de filtros de caracteres usados para preparar o texto de entrada antes de ser processado pelo criador de tokens. Por exemplo, ele pode substituir certos caracteres ou símbolos. Os filtros são executados na ordem em que estão listados. |
|
name |
string |
O nome do analisador. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
tokenFilters |
Uma lista de filtros de token usados para filtrar ou modificar os tokens gerados por um criador de tokens. Por exemplo, você pode especificar um filtro de minúsculas que converte todos os caracteres em letras minúsculas. Os filtros são executados na ordem em que estão listados. |
|
tokenizer |
O nome do criador de token a ser usado para dividir o texto contínuo em uma sequência de tokens, como dividir uma frase em palavras. |
CustomNormalizer
Permite configurar a normalização para campos filtráveis, classificáveis e facetáveis, que, por padrão, operam com correspondência estrita. Essa é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de normalizador. |
charFilters |
Uma lista de filtros de caracteres usados para preparar o texto de entrada antes de ser processado. Por exemplo, ele pode substituir certos caracteres ou símbolos. Os filtros são executados na ordem em que estão listados. |
|
name |
string |
O nome do normalizador. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. Ele não pode terminar em '.microsoft' nem '.lucene', nem ser nomeado como 'asciifolding', 'standard', 'lowercase', 'uppercase' ou 'elision'. |
tokenFilters |
Uma lista de filtros de token usados para filtrar ou modificar o token de entrada. Por exemplo, você pode especificar um filtro de minúsculas que converte todos os caracteres em letras minúsculas. Os filtros são executados na ordem em que estão listados. |
CustomVectorizer
Especifica um vetorizador definido pelo usuário para gerar a inserção de vetor de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface da API Web personalizada de um conjunto de habilidades.
Nome | Tipo | Description |
---|---|---|
customWebApiParameters |
Especifica as propriedades do vetorizador definido pelo usuário. |
|
kind |
string:
custom |
O nome do tipo de método de vetorização que está sendo configurado para uso com a pesquisa de vetor. |
name |
string |
O nome a ser associado a esse método de vetorização específico. |
CustomWebApiParameters
Especifica as propriedades para se conectar a um vetorizador definido pelo usuário.
Nome | Tipo | Description |
---|---|---|
authIdentity | SearchIndexerDataIdentity: |
A identidade gerenciada atribuída pelo usuário usada para conexões de saída. Se um authResourceId for fornecido e não for especificado, a identidade gerenciada atribuída pelo sistema será usada. Em atualizações para o indexador, se a identidade não for especificada, o valor permanecerá inalterado. Se definido como "nenhum", o valor dessa propriedade será limpo. |
authResourceId |
string |
Aplica-se a pontos de extremidade personalizados que se conectam ao código externo em uma função do Azure ou em algum outro aplicativo que fornece as transformações. Esse valor deve ser a ID do aplicativo criada para a função ou aplicativo quando ela foi registrada no Azure Active Directory. Quando especificada, a vetorização se conecta à função ou ao aplicativo usando uma ID gerenciada (sistema ou atribuído pelo usuário) do serviço de pesquisa e o token de acesso da função ou aplicativo, usando esse valor como a ID do recurso para criar o escopo do token de acesso. |
httpHeaders |
object |
Os cabeçalhos necessários para fazer a solicitação HTTP. |
httpMethod |
string |
O método para a solicitação HTTP. |
timeout |
string |
O tempo limite desejado para a solicitação. O padrão é 30 segundos. |
uri |
string |
O URI da API Web que fornece o vetorizador. |
DictionaryDecompounderTokenFilter
Decompõe palavras compostas encontradas em muitos idiomas germânicos. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
maxSubwordSize |
integer |
15 |
O tamanho máximo da sub palavra. Somente sub-palavras menores que essa são geradas. O padrão é 15. O máximo é 300. |
minSubwordSize |
integer |
2 |
O tamanho mínimo da sub palavra. Somente sub-palavras maiores que essa são geradas. O padrão é 2. O máximo é 300. |
minWordSize |
integer |
5 |
O tamanho mínimo da palavra. Somente palavras mais longas do que isso são processadas. O padrão é 5. O máximo é 300. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
onlyLongestMatch |
boolean |
False |
Um valor que indica se deve adicionar apenas a sub palavra correspondente mais longa à saída. O padrão é false. |
wordList |
string[] |
A lista de palavras a serem correspondidas. |
DistanceScoringFunction
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica.
Nome | Tipo | Description |
---|---|---|
boost |
number |
Um multiplicador para a pontuação bruta. Deve ser um número positivo diferente de 1,0. |
distance |
Valores de parâmetro para a função de pontuação de distância. |
|
fieldName |
string |
O nome do campo usado como entrada para a função de pontuação. |
interpolation |
Um valor que indica como o aumento será interpolado entre as pontuações do documento; usa como padrão "Linear". |
|
type |
string:
distance |
Indica o tipo de função a ser usada. Os valores válidos incluem magnitude, atualização, distância e marca. O tipo de função deve ser minúsculo. |
DistanceScoringParameters
Fornece valores de parâmetro para uma função de pontuação de distância.
Nome | Tipo | Description |
---|---|---|
boostingDistance |
number |
A distância em quilômetros do local de referência em que o intervalo de aumento termina. |
referencePointParameter |
string |
O nome do parâmetro passado em consultas de pesquisa para especificar o local de referência. |
EdgeNGramTokenFilter
Gera n-gramas dos tamanhos fornecidos a partir da frente ou da parte traseira de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
maxGram |
integer |
2 |
O comprimento máximo de n grama. O padrão é 2. |
minGram |
integer |
1 |
O comprimento mínimo de n grama. O padrão é UTF-1. Deve ser menor que o valor de maxGram. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
side | front |
Especifica de qual lado da entrada o n-gram deve ser gerado. O padrão é "front". |
EdgeNGramTokenFilterSide
Especifica de qual lado da entrada um n-gram deve ser gerado.
Nome | Tipo | Description |
---|---|---|
back |
string |
Especifica que o n-gram deve ser gerado na parte de trás da entrada. |
front |
string |
Especifica que o n-gram deve ser gerado na frente da entrada. |
EdgeNGramTokenFilterV2
Gera n-gramas dos tamanhos fornecidos a partir da frente ou da parte traseira de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
maxGram |
integer |
2 |
O comprimento máximo de n grama. O padrão é 2. O máximo é 300. |
minGram |
integer |
1 |
O comprimento mínimo de n grama. O padrão é UTF-1. O máximo é 300. Deve ser menor que o valor de maxGram. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
side | front |
Especifica de qual lado da entrada o n-gram deve ser gerado. O padrão é "front". |
EdgeNGramTokenizer
Tokeniza a entrada de uma borda em n-gramas dos tamanhos fornecidos. Esse tokenizer é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de tokenizer. |
|
maxGram |
integer |
2 |
O comprimento máximo de n grama. O padrão é 2. O máximo é 300. |
minGram |
integer |
1 |
O comprimento mínimo de n grama. O padrão é UTF-1. O máximo é 300. Deve ser menor que o valor de maxGram. |
name |
string |
O nome do tokenizer. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
tokenChars |
Classes de caracteres a serem mantidas nos tokens. |
ElisionTokenFilter
Remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
articles |
string[] |
O conjunto de artigos a serem removidos. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
ErrorAdditionalInfo
As informações adicionais do erro de gerenciamento de recursos.
Nome | Tipo | Description |
---|---|---|
info |
object |
As informações adicionais. |
type |
string |
O tipo de informação adicional. |
ErrorDetail
Os detalhes do erro.
Nome | Tipo | Description |
---|---|---|
additionalInfo |
As informações adicionais do erro. |
|
code |
string |
O código de erro. |
details |
Os detalhes do erro. |
|
message |
string |
A mensagem de erro. |
target |
string |
O destino do erro. |
ErrorResponse
Resposta de erro
Nome | Tipo | Description |
---|---|---|
error |
O objeto de erro. |
ExhaustiveKnnParameters
Contém os parâmetros específicos para o algoritmo KNN exaustivo.
Nome | Tipo | Description |
---|---|---|
metric |
A métrica de similaridade a ser usada para comparações de vetor. |
ExhaustiveKnnVectorSearchAlgorithmConfiguration
Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetor.
Nome | Tipo | Description |
---|---|---|
exhaustiveKnnParameters |
Contém os parâmetros específicos para o algoritmo KNN exaustivo. |
|
kind |
string:
exhaustive |
O nome do tipo de algoritmo que está sendo configurado para uso com a pesquisa de vetor. |
name |
string |
O nome a ser associado a essa configuração específica. |
FreshnessScoringFunction
Define uma função que aumenta as pontuações com base no valor de um campo de data e hora.
Nome | Tipo | Description |
---|---|---|
boost |
number |
Um multiplicador para a pontuação bruta. Deve ser um número positivo diferente de 1,0. |
fieldName |
string |
O nome do campo usado como entrada para a função de pontuação. |
freshness |
Valores de parâmetro para a função de pontuação de atualização. |
|
interpolation |
Um valor que indica como o aumento será interpolado entre as pontuações do documento; usa como padrão "Linear". |
|
type |
string:
freshness |
Indica o tipo de função a ser usada. Os valores válidos incluem magnitude, atualização, distância e marca. O tipo de função deve ser minúsculo. |
FreshnessScoringParameters
Fornece valores de parâmetro para uma função de pontuação de atualização.
Nome | Tipo | Description |
---|---|---|
boostingDuration |
string |
O período de expiração após o qual o aumento será interrompido para um documento específico. |
HnswParameters
Contém os parâmetros específicos do algoritmo HNSW.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
efConstruction |
integer |
400 |
O tamanho da lista dinâmica que contém os vizinhos mais próximos, que é usado durante o tempo de índice. Aumentar esse parâmetro pode melhorar a qualidade do índice, em detrimento do aumento do tempo de indexação. Em um determinado ponto, aumentar esse parâmetro leva à diminuição dos retornos. |
efSearch |
integer |
500 |
O tamanho da lista dinâmica que contém os vizinhos mais próximos, que é usado durante o tempo de pesquisa. Aumentar esse parâmetro pode melhorar os resultados da pesquisa, em detrimento de uma pesquisa mais lenta. Em um determinado ponto, aumentar esse parâmetro leva à diminuição dos retornos. |
m |
integer |
4 |
O número de links bidirecionais criados para cada novo elemento durante a construção. Aumentar esse valor de parâmetro pode melhorar o recall e reduzir os tempos de recuperação para conjuntos de dados com alta dimensionalidade intrínseca em detrimento do aumento do consumo de memória e do tempo de indexação mais longo. |
metric |
A métrica de similaridade a ser usada para comparações de vetor. |
HnswVectorSearchAlgorithmConfiguration
Contém opções de configuração específicas para o algoritmo de vizinhos mais próximos aproximado do HNSW usado durante a indexação e a consulta. O algoritmo HNSW oferece uma compensação ajustável entre a velocidade e a precisão da pesquisa.
Nome | Tipo | Description |
---|---|---|
hnswParameters |
Contém os parâmetros específicos do algoritmo HNSW. |
|
kind |
string:
hnsw |
O nome do tipo de algoritmo que está sendo configurado para uso com a pesquisa de vetor. |
name |
string |
O nome a ser associado a essa configuração específica. |
InputFieldMappingEntry
Mapeamento de campo de entrada para uma habilidade.
Nome | Tipo | Description |
---|---|---|
inputs |
As entradas recursivas usadas ao criar um tipo complexo. |
|
name |
string |
Nome da entrada. |
source |
string |
A origem da entrada. |
sourceContext |
string |
O contexto de origem usado para selecionar entradas recursivas. |
KeepTokenFilter
Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
keepWords |
string[] |
A lista de palavras a serem mantidas. |
|
keepWordsCase |
boolean |
False |
Um valor que indica se todas as palavras devem ser minúsculas primeiro. O padrão é false. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
KeywordMarkerTokenFilter
Marca termos como palavras-chave. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
ignoreCase |
boolean |
False |
Um valor que indica se deve ignorar maiúsculas e minúsculas. Se for true, todas as palavras serão convertidas em letras minúsculas primeiro. O padrão é false. |
keywords |
string[] |
Uma lista de palavras a serem marcados como palavras-chave. |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
KeywordTokenizer
Emite a entrada inteira como um único token. Esse tokenizer é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de tokenizer. |
|
bufferSize |
integer |
256 |
O tamanho do buffer de leitura em bytes. O padrão é 256. |
name |
string |
O nome do tokenizer. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
KeywordTokenizerV2
Emite a entrada inteira como um único token. Esse tokenizer é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de tokenizer. |
|
maxTokenLength |
integer |
256 |
O comprimento máximo do token. O padrão é 256. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
name |
string |
O nome do tokenizer. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
LengthTokenFilter
Remove palavras muito longas ou muito curtas. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
max |
integer |
300 |
O comprimento máximo em caracteres. O padrão e máximo é 300. |
min |
integer |
0 |
O comprimento mínimo em caracteres. O padrão é 0. O máximo é 300. Deve ser menor que o valor máximo. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
LexicalAnalyzerName
Define os nomes de todos os analisadores de texto compatíveis com o mecanismo de pesquisa.
Nome | Tipo | Description |
---|---|---|
ar.lucene |
string |
Analisador Lucene para árabe. |
ar.microsoft |
string |
Analisador da Microsoft para árabe. |
bg.lucene |
string |
Analisador Lucene para búlgaro. |
bg.microsoft |
string |
Analisador da Microsoft para búlgaro. |
bn.microsoft |
string |
Analisador da Microsoft para Bangla. |
ca.lucene |
string |
Analisador Lucene para catalão. |
ca.microsoft |
string |
Analisador da Microsoft para catalão. |
cs.lucene |
string |
Analisador Lucene para tcheco. |
cs.microsoft |
string |
Analisador da Microsoft para Tcheco. |
da.lucene |
string |
Analisador Lucene para dinamarquês. |
da.microsoft |
string |
Analisador da Microsoft para dinamarquês. |
de.lucene |
string |
Analisador Lucene para alemão. |
de.microsoft |
string |
Analisador da Microsoft para alemão. |
el.lucene |
string |
Analisador Lucene para grego. |
el.microsoft |
string |
Analisador da Microsoft para grego. |
en.lucene |
string |
Analisador Lucene para inglês. |
en.microsoft |
string |
Analisador da Microsoft para inglês. |
es.lucene |
string |
Analisador Lucene para espanhol. |
es.microsoft |
string |
Analisador da Microsoft para espanhol. |
et.microsoft |
string |
Analisador da Microsoft para estoniano. |
eu.lucene |
string |
Analisador Lucene para Basco. |
fa.lucene |
string |
Analisador Lucene para persa. |
fi.lucene |
string |
Analisador Lucene para finlandês. |
fi.microsoft |
string |
Analisador da Microsoft para finlandês. |
fr.lucene |
string |
Analisador Lucene para francês. |
fr.microsoft |
string |
Analisador da Microsoft para francês. |
ga.lucene |
string |
Analisador Lucene para irlandês. |
gl.lucene |
string |
Analisador Lucene para galego. |
gu.microsoft |
string |
Analisador da Microsoft para Gujarati. |
he.microsoft |
string |
Analisador da Microsoft para hebraico. |
hi.lucene |
string |
Analisador Lucene para hindi. |
hi.microsoft |
string |
Analisador da Microsoft para hindi. |
hr.microsoft |
string |
Analisador da Microsoft para croata. |
hu.lucene |
string |
Analisador Lucene para húngaro. |
hu.microsoft |
string |
Analisador da Microsoft para húngaro. |
hy.lucene |
string |
Analisador Lucene para armênio. |
id.lucene |
string |
Analisador Lucene para indonésio. |
id.microsoft |
string |
Analisador da Microsoft para Indonésio (Bahasa). |
is.microsoft |
string |
Analisador da Microsoft para islandês. |
it.lucene |
string |
Analisador Lucene para italiano. |
it.microsoft |
string |
Analisador da Microsoft para italiano. |
ja.lucene |
string |
Analisador Lucene para japonês. |
ja.microsoft |
string |
Analisador da Microsoft para japonês. |
keyword |
string |
Trata todo o conteúdo de um campo como um único token. Isso é útil para dados como códigos postais, IDs e alguns nomes de produtos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html |
kn.microsoft |
string |
Analisador da Microsoft para Kannada. |
ko.lucene |
string |
Analisador Lucene para coreano. |
ko.microsoft |
string |
Analisador da Microsoft para coreano. |
lt.microsoft |
string |
Analisador da Microsoft para lituano. |
lv.lucene |
string |
Analisador Lucene para letão. |
lv.microsoft |
string |
Analisador da Microsoft para letão. |
ml.microsoft |
string |
Analisador da Microsoft para Malayalam. |
mr.microsoft |
string |
Analisador da Microsoft para Marathi. |
ms.microsoft |
string |
Analisador da Microsoft para malaio (latino). |
nb.microsoft |
string |
Analisador da Microsoft para norueguês (Bokmål). |
nl.lucene |
string |
Analisador Lucene para holandês. |
nl.microsoft |
string |
Analisador da Microsoft para holandês. |
no.lucene |
string |
Analisador Lucene para norueguês. |
pa.microsoft |
string |
Analisador da Microsoft para Punjabi. |
pattern |
string |
Separa texto em termos de forma flexível por meio de um padrão de expressão regular. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
pl.lucene |
string |
Analisador Lucene para polonês. |
pl.microsoft |
string |
Analisador da Microsoft para polonês. |
pt-BR.lucene |
string |
Analisador Lucene para Português (Brasil). |
pt-BR.microsoft |
string |
Analisador da Microsoft para português (Brasil). |
pt-PT.lucene |
string |
Analisador Lucene para Português (Portugal). |
pt-PT.microsoft |
string |
Analisador da Microsoft para português (Portugal). |
ro.lucene |
string |
Analisador Lucene para romeno. |
ro.microsoft |
string |
Analisador da Microsoft para romeno. |
ru.lucene |
string |
Analisador Lucene para russo. |
ru.microsoft |
string |
Analisador da Microsoft para russo. |
simple |
string |
Divide o texto em não letras e converte em minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html |
sk.microsoft |
string |
Analisador da Microsoft para Eslovaco. |
sl.microsoft |
string |
Analisador da Microsoft para esloveno. |
sr-cyrillic.microsoft |
string |
Analisador da Microsoft para sérvio (cirílico). |
sr-latin.microsoft |
string |
Analisador da Microsoft para sérvio (latino). |
standard.lucene |
string |
Analisador Lucene padrão. |
standardasciifolding.lucene |
string |
Analisador lucene de dobragem ASCII padrão. Veja https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers |
stop |
string |
Divide o texto em não letras; Aplica os filtros de token de letras minúsculas e palavras irrelevantes. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
sv.lucene |
string |
Analisador Lucene para sueco. |
sv.microsoft |
string |
Analisador da Microsoft para sueco. |
ta.microsoft |
string |
Analisador da Microsoft para Tâmil. |
te.microsoft |
string |
Microsoft Analyzer para Telugu. |
th.lucene |
string |
Analisador Lucene para tailandês. |
th.microsoft |
string |
Analisador da Microsoft para tailandês. |
tr.lucene |
string |
Analisador Lucene para turco. |
tr.microsoft |
string |
Analisador da Microsoft para turco. |
uk.microsoft |
string |
Analisador da Microsoft para ucraniano. |
ur.microsoft |
string |
Analisador da Microsoft para Urdu. |
vi.microsoft |
string |
Analisador da Microsoft para vietnamita. |
whitespace |
string |
Um analisador que usa o criador de token whitespace. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html |
zh-Hans.lucene |
string |
Analisador Lucene para chinês (simplificado). |
zh-Hans.microsoft |
string |
Analisador da Microsoft para chinês (simplificado). |
zh-Hant.lucene |
string |
Analisador Lucene para chinês (tradicional). |
zh-Hant.microsoft |
string |
Analisador da Microsoft para chinês (tradicional). |
LexicalNormalizerName
Define os nomes de todos os normalizadores de texto compatíveis com o mecanismo de pesquisa.
Nome | Tipo | Description |
---|---|---|
asciifolding |
string |
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico" em seus equivalentes ASCII, se esses equivalentes existirem. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
elision |
string |
Remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html |
lowercase |
string |
Normaliza o texto do token em minúsculas. Veja https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html |
standard |
string |
Normalizador padrão, que consiste em minúsculas e asciifolding. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html |
uppercase |
string |
Normaliza o texto do token em maiúsculas. Veja https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html |
LexicalTokenizerName
Define os nomes de todos os tokenizers compatíveis com o mecanismo de pesquisa.
LimitTokenFilter
Limita o número de tokens durante a indexação. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
consumeAllTokens |
boolean |
False |
Um valor que indica se todos os tokens da entrada devem ser consumidos mesmo se maxTokenCount for atingido. O padrão é false. |
maxTokenCount |
integer |
1 |
O número máximo de tokens a serem produzidos. O padrão é UTF-1. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
LuceneStandardAnalyzer
Analisador Standard do Apache Lucene; Composto pelo tokenizador padrão, filtro minúsculo e filtro de parada.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de analisador. |
|
maxTokenLength |
integer |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
name |
string |
O nome do analisador. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
stopwords |
string[] |
Uma lista de palavras irrelevantes. |
LuceneStandardTokenizer
Quebra o texto seguindo as regras de Segmentação de Texto Unicode. Esse criador de tokens é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de tokenizer. |
|
maxTokenLength |
integer |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores do que o tamanho máximo são divididos. |
name |
string |
O nome do criador de tokens. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
LuceneStandardTokenizerV2
Quebra o texto seguindo as regras de Segmentação de Texto Unicode. Esse criador de tokens é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de tokenizer. |
|
maxTokenLength |
integer |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
name |
string |
O nome do criador de tokens. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
MagnitudeScoringFunction
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico.
Nome | Tipo | Description |
---|---|---|
boost |
number |
Um multiplicador para a pontuação bruta. Deve ser um número positivo diferente de 1,0. |
fieldName |
string |
O nome do campo usado como entrada para a função de pontuação. |
interpolation |
Um valor que indica como o aumento será interpolado entre as pontuações do documento; usa como padrão "Linear". |
|
magnitude |
Valores de parâmetro para a função de pontuação de magnitude. |
|
type |
string:
magnitude |
Indica o tipo de função a ser usada. Os valores válidos incluem magnitude, atualização, distância e marca. O tipo de função deve ser minúsculo. |
MagnitudeScoringParameters
Fornece valores de parâmetro para uma função de pontuação de magnitude.
Nome | Tipo | Description |
---|---|---|
boostingRangeEnd |
number |
O valor do campo no qual o aumento termina. |
boostingRangeStart |
number |
O valor do campo no qual o aumento é iniciado. |
constantBoostBeyondRange |
boolean |
Um valor que indica se deve ser aplicado um aumento constante para valores de campo além do valor final do intervalo; default é false. |
MappingCharFilter
Um filtro de caracteres que aplica mapeamentos definidos com a opção de mapeamentos. A correspondência é gananciosa (a correspondência de padrões mais longa em um determinado ponto vence). A substituição é permitida como a cadeia de caracteres vazia. Esse filtro de caractere é implementado usando o Apache Lucene.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro char. |
mappings |
string[] |
Uma lista de mapeamentos do seguinte formato: "a=>b" (todas as ocorrências do caractere "a" serão substituídas pelo caractere "b"). |
name |
string |
O nome do filtro char. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
MicrosoftLanguageStemmingTokenizer
Divide o texto usando regras específicas de idioma e reduz palavras para seus formulários base.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de tokenizer. |
|
isSearchTokenizer |
boolean |
False |
Um valor que indica como o tokenizer é usado. Defina como true se usado como o tokenizador de pesquisa, defina como false se usado como o tokenizador de indexação. O padrão é false. |
language |
O idioma a ser usado. O padrão é inglês. |
||
maxTokenLength |
integer |
255 |
O comprimento máximo do token. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Tokens com mais de 300 caracteres são divididos primeiro em tokens de comprimento 300 e, em seguida, cada um desses tokens é dividido com base no conjunto de comprimento máximo do token. O padrão é 255. |
name |
string |
O nome do tokenizer. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
MicrosoftLanguageTokenizer
Divide o texto usando regras específicas de idioma.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de tokenizer. |
|
isSearchTokenizer |
boolean |
False |
Um valor que indica como o tokenizer é usado. Defina como true se usado como o tokenizador de pesquisa, defina como false se usado como o tokenizador de indexação. O padrão é false. |
language |
O idioma a ser usado. O padrão é inglês. |
||
maxTokenLength |
integer |
255 |
O comprimento máximo do token. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Tokens com mais de 300 caracteres são divididos primeiro em tokens de comprimento 300 e, em seguida, cada um desses tokens é dividido com base no conjunto de comprimento máximo do token. O padrão é 255. |
name |
string |
O nome do tokenizer. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
MicrosoftStemmingTokenizerLanguage
Listas os idiomas compatíveis com o criador de tokens de lematização de idioma da Microsoft.
Nome | Tipo | Description |
---|---|---|
arabic |
string |
Seleciona o criador de tokens de lematização da Microsoft para árabe. |
bangla |
string |
Seleciona o criador de tokens de lematização da Microsoft para Bangla. |
bulgarian |
string |
Seleciona o tokenizador de lematização da Microsoft para búlgaro. |
catalan |
string |
Seleciona o criador de tokens de lematização da Microsoft para catalão. |
croatian |
string |
Seleciona o criador de tokens de lematização da Microsoft para croata. |
czech |
string |
Seleciona o criador de tokens de lematização da Microsoft para tcheco. |
danish |
string |
Seleciona o tokenizador de lematização da Microsoft para dinamarquês. |
dutch |
string |
Seleciona o tokenizador de lematização da Microsoft para holandês. |
english |
string |
Seleciona o tokenizador de lematização da Microsoft para inglês. |
estonian |
string |
Seleciona o tokenizador de lematização da Microsoft para estoniano. |
finnish |
string |
Seleciona o tokenizador de lematização da Microsoft para finlandês. |
french |
string |
Seleciona o tokenizador de lematização da Microsoft para francês. |
german |
string |
Seleciona o tokenizador de lematização da Microsoft para alemão. |
greek |
string |
Seleciona o tokenizador de lematização da Microsoft para Grego. |
gujarati |
string |
Seleciona o tokenizador de lematização da Microsoft para o Gujarati. |
hebrew |
string |
Seleciona o tokenizador de lematização da Microsoft para hebraico. |
hindi |
string |
Seleciona o tokenizador de lematização da Microsoft para Hindi. |
hungarian |
string |
Seleciona o tokenizador de lematização da Microsoft para húngaro. |
icelandic |
string |
Seleciona o tokenizador de lematização da Microsoft para islandês. |
indonesian |
string |
Seleciona o tokenizador de lematização da Microsoft para Indonésio. |
italian |
string |
Seleciona o tokenizador de lematização da Microsoft para italiano. |
kannada |
string |
Seleciona o tokenizador de lematização da Microsoft para Kannada. |
latvian |
string |
Seleciona o tokenizador de lematização da Microsoft para letão. |
lithuanian |
string |
Seleciona o tokenizador de lematização da Microsoft para lituano. |
malay |
string |
Seleciona o tokenizador de lematização da Microsoft para Malay. |
malayalam |
string |
Seleciona o tokenizador de lematização da Microsoft para Malayalam. |
marathi |
string |
Seleciona o tokenizador de lematização da Microsoft para Marathi. |
norwegianBokmaal |
string |
Seleciona o tokenizador de lematização da Microsoft para norueguês (Bokmål). |
polish |
string |
Seleciona o tokenizador de lematização da Microsoft para Polonês. |
portuguese |
string |
Seleciona o tokenizador de lematização da Microsoft para português. |
portugueseBrazilian |
string |
Seleciona o tokenizador de lematização da Microsoft para português (Brasil). |
punjabi |
string |
Seleciona o tokenizador de lematização da Microsoft para Punjabi. |
romanian |
string |
Seleciona o tokenizador de lematização da Microsoft para romeno. |
russian |
string |
Seleciona o tokenizador de lematização da Microsoft para russo. |
serbianCyrillic |
string |
Seleciona o tokenizador de lematização da Microsoft para sérvio (cirílico). |
serbianLatin |
string |
Seleciona o tokenizador de lematização da Microsoft para sérvio (latino). |
slovak |
string |
Seleciona o tokenizador de lematização da Microsoft para o Eslovaco. |
slovenian |
string |
Seleciona o tokenizador de lematização da Microsoft para esloveno. |
spanish |
string |
Seleciona o tokenizador de lematização da Microsoft para espanhol. |
swedish |
string |
Seleciona o tokenizador de lematização da Microsoft para sueco. |
tamil |
string |
Seleciona o tokenizador de lematização da Microsoft para Tamil. |
telugu |
string |
Seleciona o tokenizador de lematização da Microsoft para o Telugu. |
turkish |
string |
Seleciona o tokenizador de lematização da Microsoft para turco. |
ukrainian |
string |
Seleciona o tokenizador de lematização da Microsoft para ucraniano. |
urdu |
string |
Seleciona o tokenizador de lematização da Microsoft para Urdu. |
MicrosoftTokenizerLanguage
Listas os idiomas compatíveis com o criador de token de idioma da Microsoft.
Nome | Tipo | Description |
---|---|---|
bangla |
string |
Seleciona o criador de tokens da Microsoft para Bangla. |
bulgarian |
string |
Seleciona o criador de tokens da Microsoft para búlgaro. |
catalan |
string |
Seleciona o criador de tokens da Microsoft para catalão. |
chineseSimplified |
string |
Seleciona o criador de tokens da Microsoft para chinês (simplificado). |
chineseTraditional |
string |
Seleciona o criador de tokens da Microsoft para chinês (tradicional). |
croatian |
string |
Seleciona o criador de tokens da Microsoft para croata. |
czech |
string |
Seleciona o criador de tokens da Microsoft para tcheco. |
danish |
string |
Seleciona o criador de tokens da Microsoft para dinamarquês. |
dutch |
string |
Seleciona o criador de tokens da Microsoft para holandês. |
english |
string |
Seleciona o criador de tokens da Microsoft para inglês. |
french |
string |
Seleciona o criador de tokens da Microsoft para francês. |
german |
string |
Seleciona o criador de tokens da Microsoft para alemão. |
greek |
string |
Seleciona o criador de tokens da Microsoft para grego. |
gujarati |
string |
Seleciona o criador de tokens da Microsoft para Gujarati. |
hindi |
string |
Seleciona o criador de tokens da Microsoft para Hindi. |
icelandic |
string |
Seleciona o criador de tokens da Microsoft para islandês. |
indonesian |
string |
Seleciona o criador de tokens da Microsoft para Indonésio. |
italian |
string |
Seleciona o criador de tokens da Microsoft para italiano. |
japanese |
string |
Seleciona o criador de tokens da Microsoft para japonês. |
kannada |
string |
Seleciona o criador de tokens da Microsoft para Kannada. |
korean |
string |
Seleciona o criador de tokens da Microsoft para coreano. |
malay |
string |
Seleciona o criador de tokens da Microsoft para Malaio. |
malayalam |
string |
Seleciona o criador de tokens da Microsoft para Malayalam. |
marathi |
string |
Seleciona o criador de tokens da Microsoft para Marathi. |
norwegianBokmaal |
string |
Seleciona o criador de tokens da Microsoft para norueguês (Bokmål). |
polish |
string |
Seleciona o criador de tokens da Microsoft para polonês. |
portuguese |
string |
Seleciona o criador de tokens da Microsoft para português. |
portugueseBrazilian |
string |
Seleciona o criador de tokens da Microsoft para português (Brasil). |
punjabi |
string |
Seleciona o criador de tokens da Microsoft para Punjabi. |
romanian |
string |
Seleciona o criador de tokens da Microsoft para romeno. |
russian |
string |
Seleciona o criador de tokens da Microsoft para russo. |
serbianCyrillic |
string |
Seleciona o criador de tokens da Microsoft para sérvio (cirílico). |
serbianLatin |
string |
Seleciona o criador de tokens da Microsoft para sérvio (latino). |
slovenian |
string |
Seleciona o criador de tokens da Microsoft para esloveno. |
spanish |
string |
Seleciona o criador de tokens da Microsoft para espanhol. |
swedish |
string |
Seleciona o criador de tokens da Microsoft para sueco. |
tamil |
string |
Seleciona o criador de tokens da Microsoft para Tâmil. |
telugu |
string |
Seleciona o tokenizer da Microsoft para o Telugu. |
thai |
string |
Seleciona o criador de tokens da Microsoft para tailandês. |
ukrainian |
string |
Seleciona o criador de tokens da Microsoft para ucraniano. |
urdu |
string |
Seleciona o criador de tokens da Microsoft para Urdu. |
vietnamese |
string |
Seleciona o criador de tokens da Microsoft para vietnamita. |
NGramTokenFilter
Gera n-gramas de determinados tamanhos. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
maxGram |
integer |
2 |
O comprimento máximo de n grama. O padrão é 2. |
minGram |
integer |
1 |
O comprimento mínimo de n grama. O padrão é UTF-1. Deve ser menor que o valor de maxGram. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
NGramTokenFilterV2
Gera n-gramas de determinados tamanhos. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
maxGram |
integer |
2 |
O comprimento máximo de n grama. O padrão é 2. O máximo é 300. |
minGram |
integer |
1 |
O comprimento mínimo de n grama. O padrão é UTF-1. O máximo é 300. Deve ser menor que o valor de maxGram. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
NGramTokenizer
Cria tokens de entrada em n-gramas de determinados tamanhos. Esse tokenizer é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de tokenizer. |
|
maxGram |
integer |
2 |
O comprimento máximo de n-grama. O padrão é 2. O máximo é 300. |
minGram |
integer |
1 |
O comprimento mínimo de n grama. O padrão é UTF-1. O máximo é 300. Deve ser menor que o valor de maxGram. |
name |
string |
O nome do criador de tokens. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
tokenChars |
Classes de caracteres a serem mantidas nos tokens. |
OutputFieldMappingEntry
Mapeamento de campo de saída para uma habilidade.
Nome | Tipo | Description |
---|---|---|
name |
string |
O nome da saída definida pela habilidade. |
targetName |
string |
O nome de destino da saída. Ele é opcional e o padrão para nomear. |
PathHierarchyTokenizerV2
Criador de token para hierarquias de caminho. Esse criador de tokens é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de tokenizer. |
|
delimiter |
string |
/ |
O caractere delimitador a ser usado. O padrão é "/". |
maxTokenLength |
integer |
300 |
O comprimento máximo do token. O padrão e o máximo é 300. |
name |
string |
O nome do criador de tokens. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
replacement |
string |
/ |
Um valor que, se definido, substitui o caractere delimitador. O padrão é "/". |
reverse |
boolean |
False |
Um valor que indica se os tokens devem ser gerados na ordem inversa. O padrão é false. |
skip |
integer |
0 |
O número de tokens iniciais a serem ignoradas. O padrão é 0. |
PatternAnalyzer
Separa texto em termos de forma flexível por meio de um padrão de expressão regular. Esse analisador é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de analisador. |
|
flags |
Sinalizadores de expressão regulares. |
||
lowercase |
boolean |
True |
Um valor que indica se os termos devem ser minúsculos. O padrão é true. |
name |
string |
O nome do analisador. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
pattern |
string |
\W+ |
Um padrão de expressão regular para corresponder aos separadores de token. O padrão é uma expressão que corresponde a um ou mais caracteres que não são palavras. |
stopwords |
string[] |
Uma lista de palavras irrelevantes. |
PatternCaptureTokenFilter
Usa regexes Java para emitir vários tokens – um para cada grupo de captura em um ou mais padrões. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
patterns |
string[] |
Uma lista de padrões a serem correspondidos a cada token. |
|
preserveOriginal |
boolean |
True |
Um valor que indica se o token original deve ser retornado mesmo se um dos padrões corresponder. O padrão é true. |
PatternReplaceCharFilter
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres para substituir. Por exemplo, considerando o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de caractere é implementado usando o Apache Lucene.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro char. |
name |
string |
O nome do filtro char. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
pattern |
string |
Um padrão de expressão regular. |
replacement |
string |
O texto de substituição. |
PatternReplaceTokenFilter
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres para substituir. Por exemplo, considerando o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
pattern |
string |
Um padrão de expressão regular. |
replacement |
string |
O texto de substituição. |
PatternTokenizer
Criador de token que usa a correspondência de padrões regex para construir tokens distintos. Esse criador de tokens é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de tokenizer. |
|
flags |
Sinalizadores de expressão regular. |
||
group |
integer |
-1 |
O ordinal baseado em zero do grupo correspondente no padrão de expressão regular a ser extraído em tokens. Use -1 se quiser usar todo o padrão para dividir a entrada em tokens, independentemente dos grupos correspondentes. O padrão é -1. |
name |
string |
O nome do criador de tokens. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
pattern |
string |
\W+ |
Um padrão de expressão regular para corresponder aos separadores de token. O padrão é uma expressão que corresponde a um ou mais caracteres que não são palavras. |
PhoneticEncoder
Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter.
Nome | Tipo | Description |
---|---|---|
beiderMorse |
string |
Codifica um token em um valor Beider-Morse. |
caverphone1 |
string |
Codifica um token em um valor Caverphone 1.0. |
caverphone2 |
string |
Codifica um token em um valor Caverphone 2.0. |
cologne |
string |
Codifica um token em um valor Fonético de Colônia. |
doubleMetaphone |
string |
Codifica um token em um valor de metafone duplo. |
haasePhonetik |
string |
Codifica um token usando o refinamento Haase do algoritmo Kölner Phonetik. |
koelnerPhonetik |
string |
Codifica um token usando o algoritmo Kölner Phonetik. |
metaphone |
string |
Codifica um token em um valor de Metafone. |
nysiis |
string |
Codifica um token em um valor NYSIIS. |
refinedSoundex |
string |
Codifica um token em um valor Soundex Refinado. |
soundex |
string |
Codifica um token em um valor Soundex. |
PhoneticTokenFilter
Crie tokens para correspondências fonéticas. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
encoder | metaphone |
O codificador fonético a ser usado. O padrão é "metafone". |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
replace |
boolean |
True |
Um valor que indica se os tokens codificados devem substituir os tokens originais. Se false, os tokens codificados serão adicionados como sinônimos. O padrão é true. |
PrioritizedFields
Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, realces e respostas.
Nome | Tipo | Description |
---|---|---|
prioritizedContentFields |
Define os campos de conteúdo a serem usados para classificação semântica, legendas, realces e respostas. Para obter o melhor resultado, os campos selecionados devem conter texto no formulário de linguagem natural. A ordem dos campos na matriz representa sua prioridade. Campos com prioridade mais baixa poderão ser truncados se o conteúdo for longo. |
|
prioritizedKeywordsFields |
Define os campos palavra-chave a serem usados para classificação semântica, legendas, realces e respostas. Para obter o melhor resultado, os campos selecionados devem conter uma lista de palavras-chave. A ordem dos campos na matriz representa sua prioridade. Campos com prioridade mais baixa poderão ser truncados se o conteúdo for longo. |
|
titleField |
Define o campo de título a ser usado para classificação semântica, legendas, realces e respostas. Se você não tiver um campo de título em seu índice, deixe isso em branco. |
RegexFlags
Define sinalizadores que podem ser combinados para controlar como as expressões regulares são usadas no analisador de padrões e no criador de tokens de padrão.
Nome | Tipo | Description |
---|---|---|
CANON_EQ |
string |
Habilita a equivalência canônica. |
CASE_INSENSITIVE |
string |
Habilita a correspondência que não diferencia maiúsculas de minúsculas. |
COMMENTS |
string |
Permite espaço em branco e comentários no padrão. |
DOTALL |
string |
Habilita o modo dotall. |
LITERAL |
string |
Habilita a análise literal do padrão. |
MULTILINE |
string |
Habilita o modo multilinha. |
UNICODE_CASE |
string |
Habilita a dobragem de maiúsculas e minúsculas com reconhecimento de Unicode. |
UNIX_LINES |
string |
Habilita o modo de linhas do Unix. |
ScalarQuantizationParameters
Contém os parâmetros específicos da Quantização Escalar.
Nome | Tipo | Description |
---|---|---|
quantizedDataType |
O tipo de dados quantizado de valores de vetor compactados. |
ScalarQuantizationVectorSearchCompressionConfiguration
Contém opções de configuração específicas para o método de compactação de quantização escalar usado durante a indexação e a consulta.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
defaultOversampling |
number |
Fator de sobresampling padrão. A sobrecarga solicitará internamente mais documentos (especificados por esse multiplicador) na pesquisa inicial. Isso aumenta o conjunto de resultados que serão reclassificados usando pontuações de similaridade recomputadas de vetores de precisão total. O valor mínimo é 1, o que significa que não há sobrecarga (1x). Esse parâmetro só pode ser definido quando rerankWithOriginalVectors for true. Valores mais altos melhoram o recall em detrimento da latência. |
|
kind |
string:
scalar |
O nome do tipo de método de compactação que está sendo configurado para uso com a pesquisa de vetor. |
|
name |
string |
O nome a ser associado a essa configuração específica. |
|
rerankWithOriginalVectors |
boolean |
True |
Se definido como true, depois que o conjunto ordenado de resultados calculado usando vetores compactados for obtido, eles serão reclassificados novamente recalculando as pontuações de similaridade de precisão total. Isso melhorará o recall em detrimento da latência. |
scalarQuantizationParameters |
Contém os parâmetros específicos da Quantização Escalar. |
ScoringFunctionAggregation
Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação.
Nome | Tipo | Description |
---|---|---|
average |
string |
Aumente as pontuações pela média de todos os resultados da função de pontuação. |
firstMatching |
string |
Aumente as pontuações usando a primeira função de pontuação aplicável no perfil de pontuação. |
maximum |
string |
Aumente as pontuações no máximo de todos os resultados da função de pontuação. |
minimum |
string |
Aumente as pontuações pelo mínimo de todos os resultados da função de pontuação. |
sum |
string |
Aumente as pontuações pela soma de todos os resultados da função de pontuação. |
ScoringFunctionInterpolation
Define a função usada para interpolar o aumento de pontuação em um intervalo de documentos.
Nome | Tipo | Description |
---|---|---|
constant |
string |
Aumenta as pontuações por um fator constante. |
linear |
string |
Aumenta as pontuações em uma quantidade linearmente decrescente. Essa é a interpolação padrão para funções de pontuação. |
logarithmic |
string |
Aumenta as pontuações em uma quantidade que diminui logaritmicamente. Os aumentos diminuem rapidamente para pontuações mais altas e mais lentamente à medida que as pontuações diminuem. Essa opção de interpolação não é permitida em funções de pontuação de marca. |
quadratic |
string |
Aumenta as pontuações em uma quantidade que diminui quadraticamente. Os aumentos diminuem lentamente para pontuações mais altas e mais rapidamente à medida que as pontuações diminuem. Essa opção de interpolação não é permitida em funções de pontuação de marca. |
ScoringProfile
Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa.
Nome | Tipo | Description |
---|---|---|
functionAggregation |
Um valor que indica como os resultados das funções de pontuação individuais devem ser combinados. O padrão é "Soma". Ignorado se não houver funções de pontuação. |
|
functions | ScoringFunction[]: |
A coleção de funções que influenciam a pontuação de documentos. |
name |
string |
O nome do perfil de pontuação. |
text |
Parâmetros que aumentam a pontuação com base em correspondências de texto em determinados campos de índice. |
SearchField
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.
Nome | Tipo | Description |
---|---|---|
analyzer |
O nome do analisador a ser usado para o campo. Essa opção pode ser usada somente com campos pesquisáveis e não pode ser definida com searchAnalyzer ou indexAnalyzer. Depois que o analisador for escolhido, ele não poderá ser alterado para o campo. Deve ser nulo para campos complexos. |
|
dimensions |
integer |
A dimensionalidade do campo de vetor. |
facetable |
boolean |
Um valor que indica se o campo deve ser referenciado em consultas de faceta. Normalmente usado em uma apresentação de resultados de pesquisa que inclui contagem de ocorrências por categoria (por exemplo, pesquise câmeras digitais e veja ocorrências por marca, por megapixels, por preço e assim por diante). Essa propriedade deve ser nula para campos complexos. Os campos do tipo Edm.GeographyPoint ou Collection(Edm.GeographyPoint) não podem ser facetáveis. O padrão é true para todos os outros campos simples. |
fields |
Uma lista de subcampos se este for um campo do tipo Edm.ComplexType ou Collection(Edm.ComplexType). Deve ser nulo ou vazio para campos simples. |
|
filterable |
boolean |
Um valor que indica se o campo deve ser referenciado em consultas $filter. filterable difere do pesquisável em como as cadeias de caracteres são tratadas. Os campos do tipo Edm.String ou Collection(Edm.String) que são filtráveis não passam por quebra de palavras, portanto, as comparações são apenas para correspondências exatas. Por exemplo, se você definir esse campo f como "dia ensolarado", $filter=f eq 'sunny' não encontrará correspondências, mas $filter=f eq 'sunny day' vai. Essa propriedade deve ser nula para campos complexos. O padrão é true para campos simples e nulos para campos complexos. |
indexAnalyzer |
O nome do analisador usado no momento da indexação do campo. Essa opção só pode ser usada com campos pesquisáveis. Ele deve ser definido junto com searchAnalyzer e não pode ser definido junto com a opção do analisador. Essa propriedade não pode ser definida como o nome de um analisador de idioma; use a propriedade analyzer se você precisar de um analisador de linguagem. Depois que o analisador for escolhido, ele não poderá ser alterado para o campo. Deve ser nulo para campos complexos. |
|
key |
boolean |
Um valor que indica se o campo identifica exclusivamente documentos no índice. Exatamente um campo de nível superior em cada índice deve ser escolhido como o campo de chave e deve ser do tipo Edm.String. Os campos de chave podem ser usados para pesquisar documentos diretamente e atualizar ou excluir documentos específicos. O padrão é false para campos simples e nulo para campos complexos. |
name |
string |
O nome do campo, que deve ser exclusivo dentro da coleção de campos do índice ou campo pai. |
normalizer |
O nome do normalizador a ser usado para o campo. Essa opção só pode ser usada com campos com filtre, classificável ou faceta habilitada. Depois que o normalizador for escolhido, ele não poderá ser alterado para o campo. Deve ser nulo para campos complexos. |
|
retrievable |
boolean |
Um valor que indica se o campo pode ser retornado em um resultado de pesquisa. Você pode desabilitar essa opção se quiser usar um campo (por exemplo, margem) como um filtro, classificação ou mecanismo de pontuação, mas não quiser que o campo fique visível para o usuário final. Essa propriedade deve ser verdadeira para campos de chave e deve ser nula para campos complexos. Essa propriedade pode ser alterada em campos existentes. Habilitar essa propriedade não causa nenhum aumento nos requisitos de armazenamento de índice. O padrão é true para campos simples, false para campos de vetor e nulo para campos complexos. |
searchAnalyzer |
O nome do analisador usado no tempo de pesquisa para o campo. Essa opção só pode ser usada com campos pesquisáveis. Ele deve ser definido junto com indexAnalyzer e não pode ser definido junto com a opção do analisador. Essa propriedade não pode ser definida como o nome de um analisador de idioma; use a propriedade analyzer se você precisar de um analisador de linguagem. Esse analisador pode ser atualizado em um campo existente. Deve ser nulo para campos complexos. |
|
searchable |
boolean |
Um valor que indica se o campo é pesquisável por texto completo. Isso significa que ele será submetido a análise, como separação de palavras, durante a indexação. Se você definir um campo pesquisável com um valor como “dia ensolarado”, internamente, ele será dividido nos tokens individuais “dia” e “ensolarado”. Isso habilita pesquisas de texto completo para esses termos. Os campos do tipo Edm.String ou Collection(Edm.String) são pesquisáveis por padrão. Essa propriedade deve ser falsa para campos simples de outros tipos de dados que não são de cadeia de caracteres e deve ser nula para campos complexos. Observação: os campos pesquisáveis consomem espaço extra em seu índice para acomodar versões com token adicionais do valor do campo para pesquisas de texto completo. Se você quiser economizar espaço em seu índice e não precisar que um campo seja incluído nas pesquisas, defina pesquisável como false. |
sortable |
boolean |
Um valor que indica se o campo deve ser referenciado em expressões $orderby. Por padrão, o mecanismo de pesquisa classifica os resultados por pontuação, mas em muitas experiências os usuários desejarão classificar por campos nos documentos. Um campo simples só poderá ser classificado se for de valor único (ele tem um único valor no escopo do documento pai). Campos de coleção simples não podem ser classificados, pois são de vários valores. Subcampos simples de coleções complexas também têm vários valores e, portanto, não podem ser classificados. Isso é verdade, seja um campo pai imediato ou um campo ancestral, que é a coleção complexa. Campos complexos não podem ser classificáveis e a propriedade classificável deve ser nula para esses campos. O padrão para classificável é true para campos simples de valor único, false para campos simples com valores múltiplos e nulo para campos complexos. |
stored |
boolean |
Um valor imutável que indica se o campo será persistido separadamente no disco a ser retornado em um resultado de pesquisa. Você pode desabilitar essa opção se não planeja retornar o conteúdo do campo em uma resposta de pesquisa para economizar na sobrecarga de armazenamento. Isso só pode ser definido durante a criação do índice e somente para campos de vetor. Essa propriedade não pode ser alterada para campos existentes ou definida como false para novos campos. Se essa propriedade for definida como false, a propriedade 'retrievable' também deverá ser definida como false. Essa propriedade deve ser true ou unset para campos de chave, para novos campos e para campos não vetoriais, e deve ser nula para campos complexos. Desabilitar essa propriedade reduzirá os requisitos de armazenamento de índice. O padrão é true para campos de vetor. |
synonymMaps |
string[] |
Uma lista dos nomes dos mapas de sinônimos a serem associados a esse campo. Essa opção só pode ser usada com campos pesquisáveis. Atualmente, há suporte para apenas um mapa de sinônimos por campo. Atribuir um mapa de sinônimos a um campo garante que os termos de consulta direcionados a esse campo sejam expandidos em tempo de consulta usando as regras no mapa de sinônimos. Esse atributo pode ser alterado em campos existentes. Deve ser nulo ou uma coleção vazia para campos complexos. |
type |
O tipo de dados do campo. |
|
vectorEncoding |
O formato de codificação para interpretar o conteúdo do campo. |
|
vectorSearchProfile |
string |
O nome do perfil de pesquisa de vetor que especifica o algoritmo e o vetorizador a serem usados ao pesquisar o campo de vetor. |
SearchFieldDataType
Define o tipo de dados de um campo em um índice de pesquisa.
Nome | Tipo | Description |
---|---|---|
Edm.Boolean |
string |
Indica que um campo contém um valor booliano (verdadeiro ou falso). |
Edm.Byte |
string |
Indica que um campo contém um inteiro sem sinal de 8 bits. Isso só é válido quando usado com Collection(Edm.Byte). |
Edm.ComplexType |
string |
Indica que um campo contém um ou mais objetos complexos que, por sua vez, têm subcampos de outros tipos. |
Edm.DateTimeOffset |
string |
Indica que um campo contém um valor de data/hora, incluindo informações de fuso horário. |
Edm.Double |
string |
Indica que um campo contém um número de ponto flutuante de precisão dupla IEEE. |
Edm.GeographyPoint |
string |
Indica que um campo contém uma localização geográfica em termos de longitude e latitude. |
Edm.Half |
string |
Indica que um campo contém um número de ponto flutuante de meia precisão. Isso só é válido quando usado com Collection(Edm.Half). |
Edm.Int16 |
string |
Indica que um campo contém um inteiro com sinal de 16 bits. Isso só é válido quando usado com Collection(Edm.Int16). |
Edm.Int32 |
string |
Indica que um campo contém um inteiro com sinal de 32 bits. |
Edm.Int64 |
string |
Indica que um campo contém um inteiro com sinal de 64 bits. |
Edm.SByte |
string |
Indica que um campo contém um inteiro com sinal de 8 bits. Isso só é válido quando usado com Collection(Edm.SByte). |
Edm.Single |
string |
Indica que um campo contém um número de ponto flutuante de precisão única. Isso só é válido quando usado com Collection(Edm.Single). |
Edm.String |
string |
Indica que um campo contém uma cadeia de caracteres. |
SearchIndex
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice.
Nome | Tipo | Description |
---|---|---|
@odata.etag |
string |
A ETag do índice. |
analyzers | LexicalAnalyzer[]: |
Os analisadores do índice. |
charFilters | CharFilter[]: |
O caractere filtra o índice. |
corsOptions |
Opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para o índice. |
|
defaultScoringProfile |
string |
O nome do perfil de pontuação a ser usado se nenhum for especificado na consulta. Se essa propriedade não estiver definida e nenhum perfil de pontuação for especificado na consulta, a pontuação padrão (tf-idf) será usada. |
encryptionKey |
Uma descrição de uma chave de criptografia que você cria no Azure Key Vault. Essa chave é usada para fornecer um nível adicional de criptografia em repouso para seus dados quando você deseja ter total garantia de que ninguém, nem mesmo a Microsoft, pode descriptografar seus dados. Depois de criptografar seus dados, eles sempre permanecerão criptografados. O serviço de pesquisa ignorará as tentativas de definir essa propriedade como nula. Você pode alterar essa propriedade conforme necessário se quiser girar sua chave de criptografia; Seus dados não serão afetados. A criptografia com chaves gerenciadas pelo cliente não está disponível para serviços de pesquisa gratuitos e só está disponível para serviços pagos criados a partir de 1º de janeiro de 2019. |
|
fields |
Os campos do índice. |
|
name |
string |
O nome do índice. |
normalizers | LexicalNormalizer[]: |
Os normalizadores para o índice. |
scoringProfiles |
Os perfis de pontuação para o índice. |
|
semantic |
Define parâmetros para um índice de pesquisa que influenciam as funcionalidades semânticas. |
|
similarity | Similarity: |
O tipo de algoritmo de similaridade a ser usado ao pontuar e classificar os documentos correspondentes a uma consulta de pesquisa. O algoritmo de similaridade só pode ser definido no momento da criação do índice e não pode ser modificado em índices existentes. Se for nulo, o algoritmo ClassicSimilarity será usado. |
suggesters |
Os sugestores para o índice. |
|
tokenFilters |
TokenFilter[]:
|
O token filtra o índice. |
tokenizers | LexicalTokenizer[]: |
Os tokenizers para o índice. |
vectorSearch |
Contém opções de configuração relacionadas à pesquisa de vetor. |
SearchIndexerDataNoneIdentity
Limpa a propriedade de identidade de uma fonte de dados.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de identidade. |
SearchIndexerDataUserAssignedIdentity
Especifica a identidade de uma fonte de dados a ser usada.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de identidade. |
userAssignedIdentity |
string |
A ID de recurso do Azure totalmente qualificada de uma identidade gerenciada atribuída pelo usuário normalmente no formato "/subscriptions/12345678-1234-1234-12334-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId" que deveria ter sido atribuída ao serviço de pesquisa. |
SearchResourceEncryptionKey
Uma chave de criptografia gerenciada pelo cliente no Azure Key Vault. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso, como índices e mapas de sinônimos.
Nome | Tipo | Description |
---|---|---|
accessCredentials |
Credenciais opcionais do Azure Active Directory usadas para acessar o Key Vault do Azure. Não é necessário se estiver usando a identidade gerenciada. |
|
identity | SearchIndexerDataIdentity: |
Uma identidade gerenciada explícita a ser usada para essa chave de criptografia. Se não for especificada e a propriedade de credenciais de acesso for nula, a identidade gerenciada atribuída pelo sistema será usada. Ao atualizar para o recurso, se a identidade explícita não for especificada, ela permanecerá inalterada. Se "none" for especificado, o valor dessa propriedade será limpo. |
keyVaultKeyName |
string |
O nome da chave de Key Vault do Azure a ser usada para criptografar seus dados inativos. |
keyVaultKeyVersion |
string |
A versão da chave de Key Vault do Azure a ser usada para criptografar seus dados inativos. |
keyVaultUri |
string |
O URI do Key Vault do Azure, também conhecido como nome DNS, que contém a chave a ser usada para criptografar seus dados inativos. Um URI de exemplo pode ser |
SemanticConfiguration
Define uma configuração específica a ser usada no contexto de funcionalidades semânticas.
Nome | Tipo | Description |
---|---|---|
name |
string |
O nome da configuração semântica. |
prioritizedFields |
Descreve os campos de título, conteúdo e palavra-chave a serem usados para classificação semântica, legendas, destaques e respostas. Pelo menos uma das três subpropriedades (titleField, prioritizedKeywordsFields e prioritizedContentFields) precisa ser definida. |
SemanticField
Um campo usado como parte da configuração semântica.
Nome | Tipo | Description |
---|---|---|
fieldName |
string |
SemanticSettings
Define parâmetros para um índice de pesquisa que influenciam as funcionalidades semânticas.
Nome | Tipo | Description |
---|---|---|
configurations |
As configurações semânticas para o índice. |
|
defaultConfiguration |
string |
Permite que você defina o nome de uma configuração semântica padrão em seu índice, tornando-o opcional para passá-lo como um parâmetro de consulta sempre. |
ShingleTokenFilter
Cria combinações de tokens como um único token. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
filterToken |
string |
_ |
A cadeia de caracteres a ser inserida para cada posição na qual não há nenhum token. O padrão é um sublinhado ("_"). |
maxShingleSize |
integer |
2 |
O tamanho máximo da telha. O valor padrão e mínimo é 2. |
minShingleSize |
integer |
2 |
O tamanho mínimo da telha. O valor padrão e mínimo é 2. Deve ser menor que o valor de maxShingleSize. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
outputUnigrams |
boolean |
True |
Um valor que indica se o fluxo de saída conterá os tokens de entrada (unigramas), bem como as telhas. O padrão é true. |
outputUnigramsIfNoShingles |
boolean |
False |
Um valor que indica se os unigramas devem ser gerados para aqueles momentos em que nenhuma telha está disponível. Essa propriedade tem precedência quando outputUnigrams é definido como false. O padrão é false. |
tokenSeparator |
string |
A cadeia de caracteres a ser usada ao unir tokens adjacentes para formar uma telha. O padrão é um único espaço (" "). |
SnowballTokenFilter
Um filtro que deriva palavras usando um lematizador gerado por Bola de Neve. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
language |
O idioma a ser usado. |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
SnowballTokenFilterLanguage
O idioma a ser usado para um filtro de token bola de neve.
Nome | Tipo | Description |
---|---|---|
armenian |
string |
Seleciona o tokenizador lucene bola de neve para armênio. |
basque |
string |
Seleciona o tokenizador lucene bola de neve para Basco. |
catalan |
string |
Seleciona o tokenizador lucene bola de neve para catalão. |
danish |
string |
Seleciona o tokenizador lucene bola de neve para dinamarquês. |
dutch |
string |
Seleciona o tokenizador lucene bola de neve para holandês. |
english |
string |
Seleciona o tokenizador de lematização Lucene Snowball para inglês. |
finnish |
string |
Seleciona o tokenizador de lematização Lucene Snowball para finlandês. |
french |
string |
Seleciona o tokenizador lucene bola de neve para francês. |
german |
string |
Seleciona o tokenizador lucene bola de neve para alemão. |
german2 |
string |
Seleciona o tokenizador de lematização Lucene Snowball que usa o algoritmo variante alemão. |
hungarian |
string |
Seleciona o tokenizador lucene bola de neve para húngaro. |
italian |
string |
Seleciona o tokenizador lucene bola de neve para italiano. |
kp |
string |
Seleciona o tokenizador de lematização Lucene Snowball para holandês que usa o algoritmo de Kraaij-Pohlmann de lematização. |
lovins |
string |
Seleciona o tokenizador de lematização Lucene Snowball para inglês que usa o algoritmo de lematização Lovins. |
norwegian |
string |
Seleciona o tokenizador lucene bola de neve para norueguês. |
porter |
string |
Seleciona o tokenizador de lematização Lucene Snowball para inglês que usa o algoritmo de lematização porter. |
portuguese |
string |
Seleciona o tokenizador lucene bola de neve para português. |
romanian |
string |
Seleciona o tokenizador lucene bola de neve para romeno. |
russian |
string |
Seleciona o tokenizador lucene bola de neve para russo. |
spanish |
string |
Seleciona o tokenizador lucene bola de neve para espanhol. |
swedish |
string |
Seleciona o tokenizador lucene bola de neve para sueco. |
turkish |
string |
Seleciona o tokenizador lucene bola de neve para turco. |
StemmerOverrideTokenFilter
Fornece a capacidade de substituir outros filtros de lematização com lematização personalizada baseada em dicionário. Quaisquer termos com lematização de dicionário serão marcados como palavras-chave para que não sejam decorrentes de lematizadores na cadeia. Deve ser colocado antes de qualquer filtro de lematização. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
rules |
string[] |
Uma lista de regras de lematização no seguinte formato: "word => stem", por exemplo: "ran => run". |
StemmerTokenFilter
Filtro de lematização específico da linguagem. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
language |
O idioma a ser usado. |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
StemmerTokenFilterLanguage
O idioma a ser usado para um filtro de token de lematizador.
Nome | Tipo | Description |
---|---|---|
arabic |
string |
Seleciona o tokenizador de lematização Lucene para árabe. |
armenian |
string |
Seleciona o tokenizador lucene para armênio. |
basque |
string |
Seleciona o tokenizador de lematização Lucene para Basco. |
brazilian |
string |
Seleciona o tokenizador lucene para português (Brasil). |
bulgarian |
string |
Seleciona o tokenizador de lematização Lucene para búlgaro. |
catalan |
string |
Seleciona o tokenizador de lematização Lucene para Catalão. |
czech |
string |
Seleciona o tokenizador de lematização Lucene para tcheco. |
danish |
string |
Seleciona o tokenizador de lematização Lucene para dinamarquês. |
dutch |
string |
Seleciona o tokenizador de lematização Lucene para holandês. |
dutchKp |
string |
Seleciona o tokenizador de lematização Lucene para holandês que usa o algoritmo Kraaij-Pohlmann de lematização. |
english |
string |
Seleciona o tokenizador de lematização Lucene para inglês. |
finnish |
string |
Seleciona o tokenizador de lematização Lucene para finlandês. |
french |
string |
Seleciona o tokenizador de lematização Lucene para francês. |
galician |
string |
Seleciona o tokenizador de lematização Lucene para Galego. |
german |
string |
Seleciona o tokenizador de lematização Lucene para alemão. |
german2 |
string |
Seleciona o tokenizador de lematização Lucene que usa o algoritmo variante alemão. |
greek |
string |
Seleciona o tokenizador de lematização Lucene para grego. |
hindi |
string |
Seleciona o tokenizador de lematização Lucene para Hindi. |
hungarian |
string |
Seleciona o tokenizador de lematização Lucene para húngaro. |
indonesian |
string |
Seleciona o tokenizador de lematização Lucene para indonésio. |
irish |
string |
Seleciona o tokenizador de lematização Lucene para irlandês. |
italian |
string |
Seleciona o tokenizador de lematização Lucene para italiano. |
latvian |
string |
Seleciona o tokenizador lucene para letão. |
lightEnglish |
string |
Seleciona o tokenizador de lematização Lucene para inglês que faz a lematização leve. |
lightFinnish |
string |
Seleciona o tokenizador de lematização Lucene para finlandês que faz a lematização leve. |
lightFrench |
string |
Seleciona o tokenizador de lematização Lucene para francês que faz lematização leve. |
lightGerman |
string |
Seleciona o tokenizador de lematização Lucene para alemão que faz lematização leve. |
lightHungarian |
string |
Seleciona o tokenizador de lematização Lucene para húngaro que faz a lematização leve. |
lightItalian |
string |
Seleciona o tokenizador de lematização Lucene para italiano que faz a lematização leve. |
lightNorwegian |
string |
Seleciona o tokenizador de lematização Lucene para norueguês (Bokmål) que faz lematização leve. |
lightNynorsk |
string |
Seleciona o tokenizador de lematização Lucene para Norueguês (Nynorsk) que faz lematização leve. |
lightPortuguese |
string |
Seleciona o tokenizador de lematização Lucene para português que faz a lematização leve. |
lightRussian |
string |
Seleciona o tokenizador de lematização Lucene para russo que faz lematização leve. |
lightSpanish |
string |
Seleciona o tokenizador de lematização Lucene para espanhol que faz lematização leve. |
lightSwedish |
string |
Seleciona o tokenizador de lematização Lucene para sueco que faz a lematização leve. |
lovins |
string |
Seleciona o tokenizador de lematização Lucene para inglês que usa o algoritmo de lematização Lovins. |
minimalEnglish |
string |
Seleciona o tokenizador de lematização Lucene para inglês que faz o mínimo de lematização. |
minimalFrench |
string |
Seleciona o tokenizador de lematização Lucene para francês que faz o mínimo de lematização. |
minimalGalician |
string |
Seleciona o tokenizador de lematização Lucene para Galego que faz o mínimo de lematização. |
minimalGerman |
string |
Seleciona o tokenizador de lematização Lucene para alemão que faz o mínimo de lematização. |
minimalNorwegian |
string |
Seleciona o tokenizador de lematização Lucene para norueguês (Bokmål) que faz o mínimo de lematização. |
minimalNynorsk |
string |
Seleciona o tokenizador de lematização Lucene para Norueguês (Nynorsk) que faz o mínimo de lematização. |
minimalPortuguese |
string |
Seleciona o tokenizador de lematização Lucene para português que faz o mínimo de lematização. |
norwegian |
string |
Seleciona o tokenizador de lematização Lucene para norueguês (Bokmål). |
porter2 |
string |
Seleciona o tokenizador de lematização Lucene para inglês que usa o algoritmo de lematização Porter2. |
portuguese |
string |
Seleciona o tokenizador de lematização Lucene para português. |
portugueseRslp |
string |
Seleciona o tokenizador de lematização Lucene para português que usa o algoritmo de lematização RSLP. |
possessiveEnglish |
string |
Seleciona o tokenizador de lematização Lucene para inglês que remove possessivos à direita das palavras. |
romanian |
string |
Seleciona o tokenizador lucene para romeno. |
russian |
string |
Seleciona o tokenizador de lematização Lucene para russo. |
sorani |
string |
Seleciona o tokenizador de lematização Lucene para Sorani. |
spanish |
string |
Seleciona o tokenizador de lematização Lucene para espanhol. |
swedish |
string |
Seleciona o tokenizador de lematização Lucene para sueco. |
turkish |
string |
Seleciona o tokenizador de lematização Lucene para turco. |
StopAnalyzer
Divide o texto em não letras; Aplica os filtros de token de letras minúsculas e palavras irrelevantes. Esse analisador é implementado usando o Apache Lucene.
Nome | Tipo | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de analisador. |
name |
string |
O nome do analisador. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
stopwords |
string[] |
Uma lista de palavras irrelevantes. |
StopwordsList
Identifica uma lista predefinida de palavras irrelevantes específicas do idioma.
Nome | Tipo | Description |
---|---|---|
arabic |
string |
Seleciona a lista de palavras irrelevantes para árabe. |
armenian |
string |
Seleciona a lista de palavras irrelevantes para armênio. |
basque |
string |
Seleciona a lista de palavras irrelevantes para Basco. |
brazilian |
string |
Seleciona a lista de palavras irrelevantes para português (Brasil). |
bulgarian |
string |
Seleciona a lista de palavras irrelevantes para búlgaro. |
catalan |
string |
Seleciona a lista de palavras irrelevantes para Catalão. |
czech |
string |
Seleciona a lista de palavras irrelevantes para tcheco. |
danish |
string |
Seleciona a lista de palavras irrelevantes para dinamarquês. |
dutch |
string |
Seleciona a lista de palavras irrelevantes para holandês. |
english |
string |
Seleciona a lista de palavras irrelevantes para inglês. |
finnish |
string |
Seleciona a lista de palavras irrelevantes para finlandês. |
french |
string |
Seleciona a lista de palavras irrelevantes para francês. |
galician |
string |
Seleciona a lista de palavras irrelevantes para Galego. |
german |
string |
Seleciona a lista de palavras irrelevantes para alemão. |
greek |
string |
Seleciona a lista de palavras irrelevantes para grego. |
hindi |
string |
Seleciona a lista de palavras irrelevantes para Hindi. |
hungarian |
string |
Seleciona a lista de palavras irrelevantes para húngaro. |
indonesian |
string |
Seleciona a lista de palavras irrelevantes para indonésio. |
irish |
string |
Seleciona a lista de palavras irrelevantes para irlandês. |
italian |
string |
Seleciona a lista de palavras irrelevantes para italiano. |
latvian |
string |
Seleciona a lista de palavras irrelevantes para letão. |
norwegian |
string |
Seleciona a lista de palavras irrelevantes para norueguês. |
persian |
string |
Seleciona a lista de palavras irrelevantes para Persa. |
portuguese |
string |
Seleciona a lista de palavras irrelevantes para português. |
romanian |
string |
Seleciona a lista de palavras irrelevantes para romeno. |
russian |
string |
Seleciona a lista de palavras irrelevantes para russo. |
sorani |
string |
Seleciona a lista de palavras irrelevantes para Sorani. |
spanish |
string |
Seleciona a lista de palavras irrelevantes para espanhol. |
swedish |
string |
Seleciona a lista de palavras irrelevantes para sueco. |
thai |
string |
Seleciona a lista de palavras irrelevantes para tailandês. |
turkish |
string |
Seleciona a lista de palavras irrelevantes para turco. |
StopwordsTokenFilter
Remove palavras irrelevantes de um fluxo de tokens. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
ignoreCase |
boolean |
False |
Um valor que indica se deve ignorar maiúsculas e minúsculas. Se for true, todas as palavras serão convertidas em letras minúsculas primeiro. O padrão é false. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
removeTrailing |
boolean |
True |
Um valor que indica se o último termo de pesquisa deve ser ignorado se for uma palavra de parada. O padrão é true. |
stopwords |
string[] |
A lista de palavras irrelevantes. Essa propriedade e a propriedade stopwords list não podem ser definidas. |
|
stopwordsList | english |
Uma lista predefinida de palavras irrelevantes a serem usadas. Essa propriedade e a propriedade stopwords não podem ser definidas. O padrão é inglês. |
Suggester
Define como a API de Sugestão deve se aplicar a um grupo de campos no índice.
Nome | Tipo | Description |
---|---|---|
name |
string |
O nome do sugestor. |
searchMode |
Um valor que indica os recursos do sugestor. |
|
sourceFields |
string[] |
A lista de nomes de campo à qual o sugestor se aplica. Cada campo deve ser pesquisável. |
SuggesterSearchMode
Um valor que indica os recursos do sugestor.
Nome | Tipo | Description |
---|---|---|
analyzingInfixMatching |
string |
Corresponde a termos e prefixos inteiros consecutivos em um campo. Por exemplo, para o campo 'A raposa marrom mais rápida', as consultas 'fast' e 'fastest brow' corresponderiam. |
SynonymTokenFilter
Corresponde a sinônimos de palavra única ou múltipla em um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
expand |
boolean |
True |
Um valor que indica se todas as palavras na lista de sinônimos (se => notação não for usada) serão mapeadas umas para as outras. Se for true, todas as palavras na lista de sinônimos (se => notação não for usada) serão mapeadas umas para as outras. A lista a seguir: incrível, inacreditável, fabulosa, incrível é equivalente a: incrível, inacreditável, fabuloso, incrível => incrível, inacreditável, fabuloso, incrível. Se false, a seguinte lista: incrível, inacreditável, fabulosa, incrível será equivalente a: incrível, inacreditável, fabuloso, incrível => incrível. O padrão é true. |
ignoreCase |
boolean |
False |
Um valor que indica se a entrada de maiúsculas e minúsculas deve ser dobrada para correspondência. O padrão é false. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
synonyms |
string[] |
Uma lista de sinônimos em um dos dois formatos a seguir: 1. incrível, inacreditável, fabuloso => incrível - todos os termos no lado esquerdo de => símbolo serão substituídos por todos os termos no lado direito; 2. incrível, inacreditável, fabuloso, incrível - lista separada por vírgulas de palavras equivalentes. Defina a opção de expansão para alterar como essa lista é interpretada. |
TagScoringFunction
Define uma função que aumenta as pontuações de documentos com valores de cadeia de caracteres que correspondem a uma determinada lista de marcas.
Nome | Tipo | Description |
---|---|---|
boost |
number |
Um multiplicador para a pontuação bruta. Deve ser um número positivo diferente de 1,0. |
fieldName |
string |
O nome do campo usado como entrada para a função de pontuação. |
interpolation |
Um valor que indica como o aumento será interpolado entre as pontuações do documento; usa como padrão "Linear". |
|
tag |
Valores de parâmetro para a função de pontuação de marca. |
|
type |
string:
tag |
Indica o tipo de função a ser usada. Os valores válidos incluem magnitude, atualização, distância e marca. O tipo de função deve ser minúsculo. |
TagScoringParameters
Fornece valores de parâmetro para uma função de pontuação de marca.
Nome | Tipo | Description |
---|---|---|
tagsParameter |
string |
O nome do parâmetro passado em consultas de pesquisa para especificar a lista de marcas a serem comparadas com o campo de destino. |
TextWeights
Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa.
Nome | Tipo | Description |
---|---|---|
weights |
object |
O dicionário de pesos por campo para aumentar a pontuação do documento. As chaves são nomes de campo e os valores são os pesos para cada campo. |
TokenCharacterKind
Representa classes de caracteres nas quais um filtro de token pode operar.
Nome | Tipo | Description |
---|---|---|
digit |
string |
Mantém dígitos em tokens. |
letter |
string |
Mantém letras em tokens. |
punctuation |
string |
Mantém a pontuação em tokens. |
symbol |
string |
Mantém símbolos em tokens. |
whitespace |
string |
Mantém o espaço em branco em tokens. |
TokenFilterName
Define os nomes de todos os filtros de token compatíveis com o mecanismo de pesquisa.
TruncateTokenFilter
Trunca os termos para um comprimento específico. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
length |
integer |
300 |
O comprimento em que os termos serão truncados. O padrão e máximo é 300. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
UaxUrlEmailTokenizer
Cria tokens de urls e emails como um único token. Esse criador de tokens é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de tokenizer. |
|
maxTokenLength |
integer |
255 |
O comprimento máximo do token. O padrão é 255. Tokens maiores do que o tamanho máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. |
name |
string |
O nome do criador de tokens. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
UniqueTokenFilter
Filtra os tokens com o mesmo texto como o token anterior. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
onlyOnSamePosition |
boolean |
False |
Um valor que indica se as duplicatas devem ser removidas apenas na mesma posição. O padrão é false. |
VectorEncodingFormat
O formato de codificação para interpretar o conteúdo do campo de vetor.
Nome | Tipo | Description |
---|---|---|
packedBit |
string |
Formato de codificação que representa bits empacotados em um tipo de dados mais amplo. |
VectorSearch
Contém opções de configuração relacionadas à pesquisa de vetor.
Nome | Tipo | Description |
---|---|---|
algorithms | VectorSearchAlgorithmConfiguration[]: |
Contém opções de configuração específicas para o algoritmo usado durante a indexação ou consulta. |
compressions | VectorSearchCompressionConfiguration[]: |
Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta. |
profiles |
Define combinações de configurações a serem usadas com a pesquisa de vetor. |
|
vectorizers | VectorSearchVectorizer[]: |
Contém opções de configuração sobre como vetorizar consultas de vetor de texto. |
VectorSearchAlgorithmKind
O algoritmo usado para indexação e consulta.
Nome | Tipo | Description |
---|---|---|
exhaustiveKnn |
string |
Algoritmo KNN exaustivo que executará a pesquisa de força bruta. |
hnsw |
string |
HNSW (Hierárquico Navigable Small World), um tipo de algoritmo aproximado de vizinhos mais próximos. |
VectorSearchAlgorithmMetric
A métrica de similaridade a ser usada para comparações de vetor. É recomendável escolher a mesma métrica de similaridade em que o modelo de inserção foi treinado.
Nome | Tipo | Description |
---|---|---|
cosine |
string |
Mede o ângulo entre vetores para quantificar sua similaridade, desconsiderando a magnitude. Quanto menor o ângulo, mais próxima a similaridade. |
dotProduct |
string |
Calcula a soma de produtos em termos de elemento para medir o alinhamento e a similaridade de magnitude. Quanto maior e mais positiva, mais próxima a similaridade. |
euclidean |
string |
Calcula a distância de linha reta entre vetores em um espaço multidimensional. Quanto menor a distância, mais próxima a similaridade. |
hamming |
string |
Aplicável somente a tipos de dados binários empacotados por bits. Determina a diferenciação contando posições diferentes em vetores binários. Quanto menos diferenças, mais próxima será a semelhança. |
VectorSearchCompressionKind
O método de compactação usado para indexação e consulta.
Nome | Tipo | Description |
---|---|---|
scalarQuantization |
string |
Quantização escalar, um tipo de método de compactação. Na quantização escalar, os valores de vetores originais são compactados para um tipo mais estreito discretizando e representando cada componente de um vetor usando um conjunto reduzido de valores quantizados, reduzindo assim o tamanho geral dos dados. |
VectorSearchCompressionTargetDataType
O tipo de dados quantizado de valores de vetor compactados.
Nome | Tipo | Description |
---|---|---|
int8 |
string |
VectorSearchProfile
Define uma combinação de configurações a serem usadas com a pesquisa de vetor.
Nome | Tipo | Description |
---|---|---|
algorithm |
string |
O nome da configuração do algoritmo de pesquisa de vetor que especifica o algoritmo e os parâmetros opcionais. |
compression |
string |
O nome da configuração do método de compactação que especifica o método de compactação e os parâmetros opcionais. |
name |
string |
O nome a ser associado a esse perfil de pesquisa de vetor específico. |
vectorizer |
string |
O nome do tipo de método de vetorização que está sendo configurado para uso com a pesquisa de vetor. |
VectorSearchVectorizerKind
O método de vetorização a ser usado durante o tempo de consulta.
Nome | Tipo | Description |
---|---|---|
aiServicesVision |
string |
Gere inserções para uma entrada de imagem ou texto no momento da consulta usando a API de Vetorização da Visão dos Serviços de IA do Azure. |
aml |
string |
Gere inserções usando um ponto de extremidade do Azure Machine Learning implantado por meio do Catálogo de Modelos Estúdio de IA do Azure no momento da consulta. |
azureOpenAI |
string |
Gere inserções usando um recurso openAI do Azure no momento da consulta. |
customWebApi |
string |
Gere inserções usando um ponto de extremidade da Web personalizado no momento da consulta. |
WordDelimiterTokenFilter
Divide as palavras em subpalavras e realiza transformações opcionais em grupos de subpalavras. Esse filtro de token é implementado usando o Apache Lucene.
Nome | Tipo | Valor padrão | Description |
---|---|---|---|
@odata.type |
string:
#Microsoft. |
Um fragmento de URI que especifica o tipo de filtro de token. |
|
catenateAll |
boolean |
False |
Um valor que indica se todas as partes de sub palavra serão categorizadas. Por exemplo, se isso for definido como true, "Azure-Search-1" se tornará "AzureSearch1". O padrão é false. |
catenateNumbers |
boolean |
False |
Um valor que indica se as execuções máximas de partes numéricas serão categorizadas. Por exemplo, se isso for definido como true, "1-2" se tornará "12". O padrão é false. |
catenateWords |
boolean |
False |
Um valor que indica se as execuções máximas de partes de palavra serão categorizadas. Por exemplo, se isso for definido como true, "Azure-Search" se tornará "AzureSearch". O padrão é false. |
generateNumberParts |
boolean |
True |
Um valor que indica se as sub palavras numéricas devem ser geradas. O padrão é true. |
generateWordParts |
boolean |
True |
Um valor que indica se as palavras de parte devem ser geradas. Se definido, faz com que partes de palavras sejam geradas; por exemplo, "AzureSearch" torna-se "Azure" "Search". O padrão é true. |
name |
string |
O nome do filtro de token. Deve conter apenas letras, números, espaços, traços ou sublinhados, pode começar e terminar apenas com caracteres alfanuméricos e está limitado a 128 caracteres. |
|
preserveOriginal |
boolean |
False |
Um valor que indica se as palavras originais serão preservadas e adicionadas à lista de sub palavras. O padrão é false. |
protectedWords |
string[] |
Uma lista de tokens para proteger contra serem delimitados. |
|
splitOnCaseChange |
boolean |
True |
Um valor que indica se as palavras devem ser divididas em caseChange. Por exemplo, se isso for definido como true, "AzureSearch" se tornará "Azure" "Search". O padrão é true. |
splitOnNumerics |
boolean |
True |
Um valor que indica se os números devem ser divididos. Por exemplo, se isso for definido como true, "Azure1Search" se tornará "Azure" "1" "Search". O padrão é true. |
stemEnglishPossessive |
boolean |
True |
Um valor que indica se é necessário remover "'s" à direita para cada sub palavra. O padrão é true. |