@azure/search-documents package

Classes

AzureKeyCredential

Uma credencial baseada em chave estática que dá suporte à atualização do valor da chave subjacente.

GeographyPoint

Representa um ponto geográfico em coordenadas globais.

IndexDocumentsBatch

Classe usada para executar operações em lote com vários documentos para o índice.

SearchClient

Classe usada para executar operações em um índice de pesquisa, incluindo consultar documentos no índice, bem como adicioná-los, atualizá-los e removê-los.

SearchIndexClient

Classe para executar operações para gerenciar índices (criar, atualizar, listar/excluir) & sinônimos.

SearchIndexerClient

Classe para executar operações para gerenciar indexadores (criar, atualizar, listar/excluir), fontes de dados & conjuntos de habilidades.

SearchIndexingBufferedSender

Classe usada para executar operações em buffer em um índice de pesquisa, incluindo adição, atualização e remoção delas.

Interfaces

AnalyzeRequest

Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens.

AnalyzeResult

O resultado do teste de um analisador no texto.

AnalyzedTokenInfo

Informações sobre um token retornado por um analisador.

AsciiFoldingTokenFilter

Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico" em seus equivalentes ASCII, se esses equivalentes existirem. Esse filtro de token é implementado usando o Apache Lucene.

AutocompleteItem

O resultado das solicitações de preenchimento automático.

AutocompleteRequest

Parâmetros para correspondência difusa e outros comportamentos de consulta de preenchimento automático.

AutocompleteResult

O resultado da consulta de preenchimento automático.

AzureActiveDirectoryApplicationCredentials

Credenciais de um aplicativo registrado criado para seu serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Azure Key Vault.

BM25Similarity

Função de classificação com base no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1').

BaseCharFilter

Tipo base para filtros de caracteres.

BaseCognitiveServicesAccount

Tipo base para descrever qualquer recurso de serviço de IA do Azure anexado a um conjunto de habilidades.

BaseDataChangeDetectionPolicy

Tipo base para políticas de detecção de alterações de dados.

BaseDataDeletionDetectionPolicy

Tipo base para políticas de detecção de exclusão de dados.

BaseLexicalAnalyzer

Tipo base para analisadores.

BaseLexicalTokenizer

Tipo base para criadores de token.

BaseScoringFunction

Tipo base para funções que podem modificar as pontuações do documento durante a classificação.

BaseSearchIndexerSkill

Tipo base para habilidades.

BaseSearchRequestOptions

Parâmetros para filtragem, classificação, faceta, paginação e outros comportamentos de consulta de pesquisa.

BaseTokenFilter

Tipo base para filtros de token.

BaseVectorQuery

Os parâmetros de consulta para consultas de pesquisa híbrida e vetor.

BaseVectorSearchAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta.

CjkBigramTokenFilter

Forma bigrams de termos CJK gerados do criador de token padrão. Esse filtro de token é implementado usando o Apache Lucene.

ClassicSimilarity

Algoritmo de similaridade herdado que usa a implementação lucene TFIDFSimilarity do TF-IDF. Essa variação do TF-IDF introduz a normalização de comprimento de documento estático, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas.

ClassicTokenizer

Criador de tokens baseado em gramática adequado para processar a maioria dos documentos em idioma europeu. Esse criador de tokens é implementado usando o Apache Lucene.

CognitiveServicesAccountKey

Um recurso de serviço de IA do Azure provisionado com uma chave anexada a um conjunto de habilidades.

CommonGramTokenFilter

Construa bigramas para termos que ocorrem com frequência durante a indexação. Termos únicos ainda são indexados também, com bigramas sobrepostos. Esse filtro de token é implementado usando o Apache Lucene.

ComplexField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

ConditionalSkill

Uma habilidade que permite cenários que exigem uma operação booliana para determinar os dados a serem atribuídos a uma saída.

CorsOptions

Define opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para um índice.

CreateOrUpdateIndexOptions

Opções para a operação de criação/atualização de índice.

CreateOrUpdateSkillsetOptions

Opções para criar/atualizar a operação do conjunto de habilidades.

CreateOrUpdateSynonymMapOptions

Opções para a operação de criação/atualização de sinônimos.

CreateorUpdateDataSourceConnectionOptions

Opções para criar/atualizar operação de fonte de dados.

CreateorUpdateIndexerOptions

Opções para a operação de criação/atualização do indexador.

CustomAnalyzer

Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizer predefinido e um ou mais filtros. O criador de token é responsável por dividir o texto em tokens e os filtros para modificar tokens emitidos pelo criador de tokens.

CustomEntity

Um objeto que contém informações sobre as correspondências encontradas e os metadados relacionados.

CustomEntityAlias

Um objeto complexo que pode ser usado para especificar ortografias ou sinônimos alternativos para o nome da entidade raiz.

CustomEntityLookupSkill

Uma habilidade procura texto de uma lista personalizada definida pelo usuário de palavras e frases.

DefaultCognitiveServicesAccount

Um objeto vazio que representa o recurso de serviço de IA do Azure padrão para um conjunto de habilidades.

DeleteDataSourceConnectionOptions

Opções para excluir a operação de fonte de dados.

DeleteIndexOptions

Opções para excluir operação de índice.

DeleteIndexerOptions

Opções para excluir a operação do indexador.

DeleteSkillsetOptions

Opções para excluir o operacionamento do conjunto de habilidades.

DeleteSynonymMapOptions

Opções para excluir operação de synonymmap.

DictionaryDecompounderTokenFilter

Decompõe palavras compostas encontradas em muitos idiomas germânicos. Esse filtro de token é implementado usando o Apache Lucene.

DistanceScoringFunction

Define uma função que aumenta as pontuações com base na distância de uma localização geográfica.

DistanceScoringParameters

Fornece valores de parâmetro para uma função de pontuação de distância.

DocumentExtractionSkill

Uma habilidade que extrai conteúdo de um arquivo dentro do pipeline de enriquecimento.

EdgeNGramTokenFilter

Gera n-gramas dos tamanhos fornecidos a partir da frente ou da parte traseira de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene.

EdgeNGramTokenizer

Tokeniza a entrada de uma borda em n-gramas dos tamanhos fornecidos. Esse tokenizer é implementado usando o Apache Lucene.

ElisionTokenFilter

Remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Esse filtro de token é implementado usando o Apache Lucene.

EntityLinkingSkill

Usando a API Análise de Texto, extrai entidades vinculadas do texto.

EntityRecognitionSkill

Reconhecimento de entidade de análise de texto.

EntityRecognitionSkillV3

Usando a API Análise de Texto, extrai entidades de tipos diferentes do texto.

ExhaustiveKnnParameters

Contém os parâmetros específicos para o algoritmo KNN exaustivo.

ExtractiveQueryAnswer

Extrai candidatos de resposta do conteúdo dos documentos retornados em resposta a uma consulta expressa como uma pergunta em linguagem natural.

ExtractiveQueryCaption

Extrai legendas dos documentos correspondentes que contêm passagens relevantes para a consulta de pesquisa.

FacetResult

Um único bucket de um resultado de consulta de faceta. Relata o número de documentos com um valor de campo que está dentro de um intervalo específico ou com um determinado valor ou intervalo.

FieldMapping

Define um mapeamento entre um campo em uma fonte de dados e um campo de destino em um índice.

FieldMappingFunction

Representa uma função que transforma um valor de uma fonte de dados antes da indexação.

FreshnessScoringFunction

Define uma função que aumenta as pontuações com base no valor de um campo de data e hora.

FreshnessScoringParameters

Fornece valores de parâmetro para uma função de pontuação de atualização.

GetDocumentOptions

Opções para recuperar um único documento.

HighWaterMarkChangeDetectionPolicy

Define uma política de detecção de alteração de dados que captura alterações com base no valor de uma coluna de marca d'água alta.

HnswParameters

Contém os parâmetros específicos do algoritmo hnsw.

ImageAnalysisSkill

Uma habilidade que analisa arquivos de imagem. Ele extrai um conjunto avançado de recursos visuais com base no conteúdo da imagem.

IndexDocumentsClient

Indexar Cliente de Documentos

IndexDocumentsOptions

Opções para a operação modificar lote de índice.

IndexDocumentsResult

Resposta que contém o status de operações para todos os documentos na solicitação de indexação.

IndexerExecutionResult

Representa o resultado de uma execução individual do indexador.

IndexingParameters

Representa os parâmetros de execução do indexador.

IndexingParametersConfiguration

Um dicionário de propriedades de configuração específicas do indexador. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo.

IndexingResult

Status de uma operação de indexação para um único documento.

IndexingSchedule

Representa uma agenda para a execução do indexador.

InputFieldMappingEntry

Mapeamento de campo de entrada para uma habilidade.

KeepTokenFilter

Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Esse filtro de token é implementado usando o Apache Lucene.

KeyPhraseExtractionSkill

Uma habilidade que usa a análise de texto para extração de frases-chave.

KeywordMarkerTokenFilter

Marca termos como palavras-chave. Esse filtro de token é implementado usando o Apache Lucene.

KeywordTokenizer

Emite a entrada inteira como um único token. Esse tokenizer é implementado usando o Apache Lucene.

LanguageDetectionSkill

Uma habilidade que detecta o idioma do texto de entrada e relata um único código de idioma para cada documento enviado na solicitação. O código de idioma é emparelhado com uma pontuação que indica a confiança da análise.

LengthTokenFilter

Remove palavras muito longas ou muito curtas. Esse filtro de token é implementado usando o Apache Lucene.

LimitTokenFilter

Limita o número de tokens durante a indexação. Esse filtro de token é implementado usando o Apache Lucene.

ListSearchResultsPageSettings

Argumentos para recuperar a próxima página de resultados da pesquisa.

LuceneStandardAnalyzer

Analisador Standard do Apache Lucene; Composto pelo tokenizer padrão, filtro em minúsculas e filtro de parada.

LuceneStandardTokenizer

Quebra o texto seguindo as regras de Segmentação de Texto Unicode. Esse criador de tokens é implementado usando o Apache Lucene.

MagnitudeScoringFunction

Define uma função que aumenta as pontuações com base na magnitude de um campo numérico.

MagnitudeScoringParameters

Fornece valores de parâmetro para uma função de pontuação de magnitude.

MappingCharFilter

Um filtro de caracteres que aplica mapeamentos definidos com a opção de mapeamentos. A correspondência é gananciosa (a correspondência de padrões mais longa em um determinado ponto vence). A substituição é permitida como a cadeia de caracteres vazia. Esse filtro de caractere é implementado usando o Apache Lucene.

MergeSkill

Uma habilidade para mesclar duas ou mais cadeias de caracteres em uma única cadeia de caracteres unificada, com um delimitador opcional definido pelo usuário separando cada parte do componente.

MicrosoftLanguageStemmingTokenizer

Divide o texto usando regras específicas de idioma e reduz palavras para seus formulários base.

MicrosoftLanguageTokenizer

Divide o texto usando regras específicas de idioma.

NGramTokenFilter

Gera n-gramas de determinados tamanhos. Esse filtro de token é implementado usando o Apache Lucene.

NGramTokenizer

Cria tokens de entrada em n-gramas de determinados tamanhos. Esse criador de tokens é implementado usando o Apache Lucene.

OcrSkill

Uma habilidade que extrai texto de arquivos de imagem.

OutputFieldMappingEntry

Mapeamento de campo de saída para uma habilidade.

PIIDetectionSkill

Usando a API Análise de Texto, extrai informações pessoais de um texto de entrada e oferece a opção de mascaramento.

PathHierarchyTokenizer

Criador de token para hierarquias de caminho. Esse criador de tokens é implementado usando o Apache Lucene.

PatternAnalyzer

Separa texto em termos de forma flexível por meio de um padrão de expressão regular. Esse analisador é implementado usando o Apache Lucene.

PatternCaptureTokenFilter

Usa regexes Java para emitir vários tokens – um para cada grupo de captura em um ou mais padrões. Esse filtro de token é implementado usando o Apache Lucene.

PatternReplaceCharFilter

Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres para substituir. Por exemplo, considerando o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de caractere é implementado usando o Apache Lucene.

PatternReplaceTokenFilter

Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres para substituir. Por exemplo, considerando o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de token é implementado usando o Apache Lucene.

PatternTokenizer

Criador de token que usa a correspondência de padrões regex para construir tokens distintos. Esse criador de tokens é implementado usando o Apache Lucene.

PhoneticTokenFilter

Crie tokens para correspondências fonéticas. Esse filtro de token é implementado usando o Apache Lucene.

QueryAnswerResult

Uma resposta é uma passagem de texto extraída do conteúdo dos documentos mais relevantes que corresponderam à consulta. As respostas são extraídas dos principais resultados da pesquisa. Os candidatos de resposta são pontuados e as principais respostas são selecionadas.

QueryCaptionResult

As legendas são as passagens mais representativas do documento relativamente para a consulta de pesquisa. Eles geralmente são usados como resumo do documento. As legendas são retornadas apenas para consultas do tipo semantic.

ResourceCounter

Representa o uso e a cota de um recurso.

ScoringProfile

Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa.

SearchClientOptions

Opções de cliente usadas para configurar solicitações de API do Cognitive Search.

SearchDocumentsPageResult

Resposta que contém os resultados da página de pesquisa de um índice.

SearchDocumentsResult

Resposta que contém os resultados da pesquisa de um índice.

SearchDocumentsResultBase

Resposta que contém os resultados da pesquisa de um índice.

SearchIndex

Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice.

SearchIndexClientOptions

Opções de cliente usadas para configurar solicitações de API do Cognitive Search.

SearchIndexStatistics

Estatísticas para um determinado índice. As estatísticas são coletadas periodicamente e não há garantia de que estejam sempre atualizadas.

SearchIndexer

Representa um indexador.

SearchIndexerClientOptions

Opções de cliente usadas para configurar solicitações de API do Cognitive Search.

SearchIndexerDataContainer

Representa informações sobre a entidade (como SQL do Azure tabela ou coleção do CosmosDB) que serão indexadas.

SearchIndexerDataSourceConnection

Representa uma definição de fonte de dados, que pode ser usada para configurar um indexador.

SearchIndexerError

Representa um erro de indexação no nível do item ou documento.

SearchIndexerKnowledgeStore

Definição de projeções adicionais para blob, tabela ou arquivos do Azure de dados enriquecidos.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Classe abstrata para compartilhar propriedades entre seletores concretos.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definição de projeção para quais dados armazenar em Arquivos do Azure.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definição de projeção para quais dados armazenar no Blob do Azure.

SearchIndexerKnowledgeStoreProjection

Objeto container para vários seletores de projeção.

SearchIndexerKnowledgeStoreProjectionSelector

Classe abstrata para compartilhar propriedades entre seletores concretos.

SearchIndexerKnowledgeStoreTableProjectionSelector

Descrição de quais dados armazenar nas Tabelas do Azure.

SearchIndexerLimits
SearchIndexerSkillset

Uma lista de habilidades.

SearchIndexerStatus

Representa o histórico de execução e do status atual de um indexador.

SearchIndexerWarning

Representa um aviso no nível do item.

SearchIndexingBufferedSenderOptions

Opções para SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Uma chave de criptografia gerenciada pelo cliente no Azure Key Vault. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso em Azure Cognitive Search, como índices e mapas de sinônimos.

SearchServiceStatistics

Resposta de uma solicitação obter estatísticas de serviço. Se tiver êxito, ele inclui contadores e limites de nível de serviço.

SearchSuggester

Define como a API de Sugestão deve se aplicar a um grupo de campos no índice.

SemanticConfiguration

Define uma configuração específica a ser usada no contexto de funcionalidades semânticas.

SemanticField

Um campo usado como parte da configuração semântica.

SemanticPrioritizedFields

Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, realces e respostas.

SemanticSearch

Define parâmetros para um índice de pesquisa que influenciam as funcionalidades semânticas.

SemanticSearchOptions

Define opções para consultas de pesquisa semântica

SentimentSkill

Análise de sentimento positivo-negativo da análise de texto, pontuada como um valor de ponto flutuante em um intervalo de zero a 1.

SentimentSkillV3

Usando a API Análise de Texto, avalia o texto não estruturado e, para cada registro, fornece rótulos de sentimento (como "negativo", "neutro" e "positivo") com base na pontuação de confiança mais alta encontrada pelo serviço em uma frase e no nível do documento.

ServiceCounters

Representa cotas e contadores de recursos no nível do serviço.

ServiceLimits

Representa vários limites de nível de serviço.

ShaperSkill

Uma habilidade para remodelar as saídas. Ele cria um tipo complexo para dar suporte a campos compostos (também conhecidos como campos de várias partes).

ShingleTokenFilter

Cria combinações de tokens como um único token. Esse filtro de token é implementado usando o Apache Lucene.

Similarity

Tipo base para algoritmos de similaridade. Algoritmos de similaridade são usados para calcular pontuações que vinculam consultas a documentos. Quanto maior a pontuação, mais relevante será o documento para essa consulta específica. Essas pontuações são usadas para classificar os resultados da pesquisa.

SimpleField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

SnowballTokenFilter

Um filtro que deriva palavras usando um lematizador gerado por Bola de Neve. Esse filtro de token é implementado usando o Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Define uma política de detecção de exclusão de dados que implementa uma estratégia de exclusão reversível. Ele determina se um item deve ser excluído com base no valor de uma coluna "exclusão reversível" designada.

SplitSkill

Uma habilidade para dividir uma cadeia de caracteres em partes de texto.

SqlIntegratedChangeTrackingPolicy

Define uma política de detecção de alteração de dados que captura alterações usando o recurso Controle de Alterações Integrado do Banco de Dados SQL do Azure.

StemmerOverrideTokenFilter

Fornece a capacidade de substituir outros filtros de lematização com lematização personalizada baseada em dicionário. Quaisquer termos com lematização de dicionário serão marcados como palavras-chave para que não sejam decorrentes de lematizadores na cadeia. Deve ser colocado antes de qualquer filtro de lematização. Esse filtro de token é implementado usando o Apache Lucene.

StemmerTokenFilter

Filtro de lematização específico da linguagem. Esse filtro de token é implementado usando o Apache Lucene.

StopAnalyzer

Divide o texto em não letras; Aplica os filtros de token de letras minúsculas e palavras irrelevantes. Esse analisador é implementado usando o Apache Lucene.

StopwordsTokenFilter

Remove palavras irrelevantes de um fluxo de tokens. Esse filtro de token é implementado usando o Apache Lucene.

SuggestDocumentsResult

Resposta que contém os resultados da consulta de sugestão de um índice.

SuggestRequest

Parâmetros para filtragem, classificação, correspondência difusa e outros comportamentos de consulta de sugestões.

SynonymMap

Representa uma definição de mapa de sinônimo.

SynonymTokenFilter

Corresponde a sinônimos de palavra única ou múltipla em um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene.

TagScoringFunction

Define uma função que aumenta as pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de marcas.

TagScoringParameters

Fornece valores de parâmetro para uma função de pontuação de marca.

TextTranslationSkill

Uma habilidade para traduzir texto de um idioma para outro.

TextWeights

Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa.

TruncateTokenFilter

Trunca os termos para um comprimento específico. Esse filtro de token é implementado usando o Apache Lucene.

UaxUrlEmailTokenizer

Cria tokens de urls e emails como um único token. Esse tokenizer é implementado usando o Apache Lucene.

UniqueTokenFilter

Filtra os tokens com o mesmo texto como o token anterior. Esse filtro de token é implementado usando o Apache Lucene.

VectorSearch

Contém opções de configuração relacionadas à pesquisa de vetor.

VectorSearchOptions

Define opções para consultas de pesquisa de vetor

VectorSearchProfile

Define uma combinação de configurações a serem usadas com a pesquisa de vetor.

VectorizedQuery

Os parâmetros de consulta a serem usados para pesquisa de vetor quando um valor de vetor bruto é fornecido.

WebApiSkill

Uma habilidade que pode chamar um ponto de extremidade da API Web, permitindo que você estenda um conjunto de habilidades fazendo com que ele chame seu código personalizado.

WordDelimiterTokenFilter

Divide as palavras em subpalavras e realiza transformações opcionais em grupos de subpalavras. Esse filtro de token é implementado usando o Apache Lucene.

Aliases de tipo

AnalyzeTextOptions

Opções para analisar a operação de texto.

AutocompleteMode

Define valores para AutocompleteMode.

AutocompleteOptions

Opções para recuperar o texto de conclusão de um searchText parcial.

BlobIndexerDataToExtract

Valores conhecidos compatíveis com o serviço

storageMetadata: indexa apenas as propriedades de blob padrão e os metadados especificados pelo usuário. allMetadata: extrai metadados fornecidos pelo subsistema de armazenamento de blobs do Azure e os metadados específicos do tipo de conteúdo (por exemplo, metadados exclusivos para apenas .png arquivos são indexados). contentAndMetadata: extrai todos os metadados e conteúdo textual de cada blob.

BlobIndexerImageAction

Valores conhecidos compatíveis com o serviço

none: ignora imagens inseridas ou arquivos de imagem no conjunto de dados. Esse é o padrão. generateNormalizedImages: extrai texto de imagens (por exemplo, a palavra "STOP" de um sinal de parada de tráfego) e o insere no campo de conteúdo. Essa ação requer que "dataToExtract" esteja definido como "contentAndMetadata". Uma imagem normalizada refere-se ao processamento adicional que resulta em saída de imagem uniforme, dimensionada e girada para promover a renderização consistente quando você inclui imagens nos resultados da pesquisa visual. Essas informações são geradas para cada imagem quando você usa essa opção. generateNormalizedImagePerPage: extrai texto de imagens (por exemplo, a palavra "STOP" de um sinal de parada de tráfego) e o insere no campo de conteúdo, mas trata arquivos PDF de forma diferente, pois cada página será renderizada como uma imagem e normalizada de acordo, em vez de extrair imagens inseridas. Os tipos de arquivo não PDF serão tratados da mesma forma que se "generateNormalizedImages" tiver sido definido.

BlobIndexerPDFTextRotationAlgorithm

Valores conhecidos compatíveis com o serviço

none: aproveita a extração de texto normal. Esse é o padrão. detectAngles: pode produzir extração de texto melhor e mais legível de arquivos PDF que giraram o texto dentro deles. Observe que pode haver um pequeno impacto na velocidade de desempenho quando esse parâmetro é usado. Esse parâmetro só se aplica a arquivos PDF e somente a PDFs com texto inserido. Se o texto girado aparecer em uma imagem inserida no PDF, esse parâmetro não se aplicará.

BlobIndexerParsingMode

Valores conhecidos compatíveis com o serviço

default: definido como padrão para processamento normal de arquivos. text: defina como texto para melhorar o desempenho da indexação em arquivos de texto sem formatação no armazenamento de blobs. delimitedText: defina como delimitedText quando os blobs forem arquivos CSV simples. json: defina como json para extrair conteúdo estruturado de arquivos JSON. jsonArray: defina como jsonArray para extrair elementos individuais de uma matriz JSON como documentos separados em Azure Cognitive Search. jsonLines: defina como jsonLines para extrair entidades JSON individuais, separadas por uma nova linha, como documentos separados em Azure Cognitive Search.

CharFilter

Contém os casos possíveis para CharFilter.

CharFilterName

Define valores para CharFilterName.
<xref:KnownCharFilterName> pode ser usado de forma intercambiável com CharFilterName, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

html_strip: um filtro de caracteres que tenta remover constructos HTML. Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Define valores para CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Contém os possíveis casos para CognitiveServicesAccount.

ComplexDataType

Define valores para ComplexDataType. Os valores possíveis incluem: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Opções para executar a operação de contagem no índice.

CreateDataSourceConnectionOptions

Opções para criar operação de fonte de dados.

CreateIndexOptions

Opções para criar operação de índice.

CreateIndexerOptions

Opções para criar operação do indexador.

CreateSkillsetOptions

Opções para criar operação de conjunto de habilidades.

CreateSynonymMapOptions

Opções para criar operação de synonymmap.

CustomEntityLookupSkillLanguage

Define idiomas com suporte para CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage pode ser usado intercambiável com esse tipo

DataChangeDetectionPolicy

Contém os casos possíveis para DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contém os casos possíveis para DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opções para a operação excluir documentos.

EdgeNGramTokenFilterSide

Define valores para EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage

Define idiomas com suporte para EntityRecognitionSkillKnownEntityRecognitionSkillLanguage pode ser usado intercambiável com esse tipo

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetor.

ExtractDocumentKey
GetDataSourceConnectionOptions

Opções para obter a operação de fonte de dados.

GetIndexOptions

Opções para obter a operação de índice.

GetIndexStatisticsOptions

Opções para obter a operação de estatísticas de índice.

GetIndexerOptions

Opções para obter a operação do indexador.

GetIndexerStatusOptions

Opções para obter a operação de status do indexador.

GetServiceStatisticsOptions

Opções para obter a operação de estatísticas de serviço.

GetSkillSetOptions

Opções para obter a operação do conjunto de habilidades.

GetSynonymMapsOptions

Opções para obter a operação de sinônimos.

HnswAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo de vizinhos mais próximos do hnsw aproximado usado durante o tempo de indexação.

ImageAnalysisSkillLanguage

Define idiomas com suporte para ImageAnalysisSkillKnownImageAnalysisSkillLanguage pode ser usado intercambiável com esse tipo

ImageDetail
IndexActionType

Define valores para IndexActionType.

IndexDocumentsAction

Representa uma ação de índice que opera em um documento.

IndexIterator

Um iterador para listar os índices que existem no serviço Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

IndexNameIterator

Um iterador para listar os índices que existem no serviço Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

IndexerExecutionEnvironment

Valores conhecidos compatíveis com o serviço

padrão: indica que Azure Cognitive Search pode determinar onde o indexador deve ser executado. Esse é o ambiente padrão quando nada é especificado e é o valor recomendado. private: indica que o indexador deve ser executado com o ambiente provisionado especificamente para o serviço de pesquisa. Isso só deve ser especificado como o ambiente de execução se o indexador precisar acessar recursos com segurança em recursos de link privado compartilhados.

IndexerExecutionStatus

Define valores para IndexerExecutionStatus.

IndexerStatus

Define valores para IndexerStatus.

KeyPhraseExtractionSkillLanguage

Define idiomas com suporte para KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage pode ser usado intercambiável com esse tipo

LexicalAnalyzer

Contém os casos possíveis para o Analyzer.

LexicalAnalyzerName

Define valores para LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> pode ser usado de forma intercambiável com LexicalAnalyzerName, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

ar.microsoft: Analisador da Microsoft para árabe.
ar.lucene: analisador Lucene para árabe.
hy.lucene: Analisador Lucene para armênio.
bn.microsoft: Analisador da Microsoft para Bangla.
eu.lucene: analisador Lucene para Basco.
bg.microsoft: Analisador da Microsoft para búlgaro.
bg.lucene: analisador Lucene para búlgaro.
ca.microsoft: Analisador da Microsoft para catalão.
ca.lucene: Analisador lucene para catalão.
zh-Hans.microsoft: Analisador da Microsoft para chinês (simplificado).
zh-Hans.lucene: analisador lucene para chinês (simplificado).
zh-Hant.microsoft: Analisador da Microsoft para chinês (tradicional).
zh-Hant.lucene: analisador Lucene para chinês (tradicional).
hr.microsoft: Analisador da Microsoft para croata.
cs.microsoft: Analisador da Microsoft para tcheco.
cs.lucene: analisador Lucene para tcheco.
da.microsoft: Analisador da Microsoft para dinamarquês.
da.lucene: analisador Lucene para dinamarquês.
nl.microsoft: Analisador da Microsoft para holandês.
nl.lucene: analisador Lucene para holandês.
en.microsoft: Microsoft Analyzer para inglês.
en.lucene: analisador Lucene para inglês.
et.microsoft: Analisador da Microsoft para estoniano.
fi.microsoft: Analisador da Microsoft para finlandês.
fi.lucene: analisador Lucene para finlandês.
fr.microsoft: Analisador da Microsoft para francês.
fr.lucene: analisador Lucene para francês.
gl.lucene: analisador Lucene para galego.
de.microsoft: Analisador da Microsoft para alemão.
de.lucene: analisador Lucene para alemão.
el.microsoft: Analisador da Microsoft para grego.
el.lucene: analisador Lucene para grego.
gu.microsoft: Analisador da Microsoft para Gujarati.
he.microsoft: Analisador da Microsoft para hebraico.
hi.microsoft: Analisador da Microsoft para hindi.
hi.lucene: analisador Lucene para hindi.
hu.microsoft: Analisador da Microsoft para húngaro.
hu.lucene: Analisador lucene para húngaro.
is.microsoft: Analisador da Microsoft para islandês.
id.microsoft: Analisador da Microsoft para Indonésio (Bahasa).
id.lucene: analisador Lucene para indonésio.
ga.lucene: Analisador Lucene para irlandês.
it.microsoft: Analisador da Microsoft para italiano.
it.lucene: analisador Lucene para italiano.
ja.microsoft: Analisador da Microsoft para japonês.
ja.lucene: analisador Lucene para japonês.
kn.microsoft: Analisador da Microsoft para Kannada.
ko.microsoft: Analisador da Microsoft para coreano.
ko.lucene: analisador Lucene para coreano.
lv.microsoft: Analisador da Microsoft para letão.
lv.lucene: Analisador Lucene para letão.
lt.microsoft: Analisador da Microsoft para lituano.
ml.microsoft: Analisador da Microsoft para Malayalam.
ms.microsoft: Analisador da Microsoft para malaio (latino).
mr.microsoft: Analisador da Microsoft para Marathi.
nb.microsoft: Analisador da Microsoft para norueguês (Bokmål).
no.lucene: analisador Lucene para norueguês.
fa.lucene: Analisador lucene para persa.
pl.microsoft: Analisador da Microsoft para polonês.
pl.lucene: analisador Lucene para polonês.
pt-BR.microsoft: Analisador da Microsoft para português (Brasil).
pt-BR.lucene: analisador Lucene para português (Brasil).
pt-PT.microsoft: Analisador da Microsoft para português (Portugal).
pt-PT.lucene: analisador lucene para português (Portugal).
pa.microsoft: Analisador da Microsoft para Punjabi.
ro.microsoft: Analisador da Microsoft para romeno.
ro.lucene: Analisador Lucene para romeno.
ru.microsoft: Analisador da Microsoft para russo.
ru.lucene: analisador Lucene para russo.
sr-cyrillic.microsoft: Analisador da Microsoft para sérvio (cirílico).
sr-latin.microsoft: Analisador da Microsoft para sérvio (latino).
sk.microsoft: Analisador da Microsoft para Eslovaco.
sl.microsoft: Analisador da Microsoft para esloveno.
es.microsoft: Analisador da Microsoft para espanhol.
es.lucene: analisador Lucene para espanhol.
sv.microsoft: Analisador da Microsoft para sueco.
sv.lucene: analisador Lucene para sueco.
ta.microsoft: Analisador da Microsoft para Tâmil.
te.microsoft: Analisador da Microsoft para Telugu.
th.microsoft: Analisador da Microsoft para tailandês.
th.lucene: analisador Lucene para tailandês.
tr.microsoft: Analisador da Microsoft para turco.
tr.lucene: analisador Lucene para turco.
uk.microsoft: Analisador da Microsoft para ucraniano.
your.microsoft: Analisador da Microsoft para Urdu.
vi.microsoft: Analisador da Microsoft para vietnamita.
standard.lucene: analisador Lucene padrão.
standardasciifolding.lucene: analisador lucene de dobragem ASCII padrão. Veja https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
palavra-chave: trata todo o conteúdo de um campo como um único token. Isso é útil para dados como códigos postais, IDs e alguns nomes de produtos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
padrão: separa o texto de forma flexível em termos por meio de um padrão de expressão regular. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
simple: divide o texto em não letras e converte-os em letras minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop: divide o texto em não letras; Aplica os filtros de token de letras minúsculas e palavras irrelevantes. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
espaço em branco: um analisador que usa o criador de tokens de espaço em branco. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Contém os possíveis casos para o Criador de Token.

LexicalTokenizerName

Define valores para LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> pode ser usado de forma intercambiável com LexicalTokenizerName, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

clássico: criador de token baseado em gramática que é adequado para processar a maioria dos documentos em idioma europeu. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: tokeniza a entrada de uma borda em n-gramas dos tamanhos fornecidos. Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: emite toda a entrada como um único token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
letter: divide o texto em não letras. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
minúsculas: divide o texto em não letras e converte-os em letras minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: divide o texto usando regras específicas do idioma.
microsoft_language_stemming_tokenizer: divide o texto usando regras específicas do idioma e reduz as palavras aos formulários base.
nGram: tokeniza a entrada em n-gramas dos tamanhos fornecidos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: criador de token para hierarquias semelhantes a caminho. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
padrão: criador de token que usa a correspondência de padrões regex para construir tokens distintos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Analisador Lucene Padrão; Composto pelo tokenizer padrão, filtro em minúsculas e filtro de parada. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: gera tokens de URLs e emails como um token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
espaço em branco: divide o texto no espaço em branco. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Opções para uma operação de lista de fontes de dados.

ListIndexersOptions

Opções para uma operação de indexadores de lista.

ListIndexesOptions

Opções para uma operação de índices de lista.

ListSkillsetsOptions

Opções para uma operação de conjuntos de habilidades de lista.

ListSynonymMapsOptions

Opções para uma operação list synonymMaps.

MergeDocumentsOptions

Opções para a operação de mesclagem de documentos.

MergeOrUploadDocumentsOptions

Opções para a operação de mesclagem ou upload de documentos.

MicrosoftStemmingTokenizerLanguage

Define valores para MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Define valores para MicrosoftTokenizerLanguage.

NarrowedModel

Restringe o tipo de modelo para incluir apenas os Campos selecionados

OcrSkillLanguage

Define idiomas com suporte para OcrSkillKnownOcrSkillLanguage pode ser usado de forma intercambiável com esse tipo

PIIDetectionSkillMaskingMode

Define valores para PIIDetectionSkillMaskingMode.

Valores conhecidos compatíveis com o serviço

none: nenhuma máscara ocorre e a saída maskedText não será retornada. replace: substitui as entidades detectadas pelo caractere fornecido no parâmetro maskingCharacter. O caractere será repetido até o comprimento da entidade detectada para que os deslocamentos correspondam corretamente ao texto de entrada, bem como ao maskedText de saída.

PhoneticEncoder

Define valores para PhoneticEncoder.

QueryAnswer

Um valor que especifica se as respostas devem ser retornadas como parte da resposta de pesquisa. Esse parâmetro só será válido se o tipo de consulta for 'semântico'. Se definido extractivecomo , a consulta retornará respostas extraídas de passagens-chave nos documentos mais bem classificados.

QueryCaption

Um valor que especifica se as legendas devem ser retornadas como parte da resposta de pesquisa. Esse parâmetro só será válido se o tipo de consulta for 'semântico'. Se definida, a consulta retornará legendas extraídas de passagens-chave nos documentos mais bem classificados. Quando Captions é 'extractive', o realce é habilitado por padrão. O padrão é 'none'.

QueryType

Define valores para QueryType.

RegexFlags

Define sinalizadores para correspondência de padrões regex

Valores conhecidos compatíveis com o serviço

CANON_EQ: habilita a equivalência canônica. CASE_INSENSITIVE: habilita a correspondência que não diferencia maiúsculas de minúsculas. COMENTÁRIOS: permite espaço em branco e comentários no padrão. DOTALL: habilita o modo dotall. LITERAL: habilita a análise literal do padrão. MULTILINE: habilita o modo multilinha. UNICODE_CASE: habilita a dobragem de maiúsculas e minúsculas com reconhecimento de Unicode. UNIX_LINES: habilita o modo de linhas do Unix.

ResetIndexerOptions

Opções para a operação de redefinição do indexador.

RunIndexerOptions

Opções para executar a operação do indexador.

ScoringFunction

Contém os possíveis casos de ScoringFunction.

ScoringFunctionAggregation

Define valores para ScoringFunctionAggregation.

ScoringFunctionInterpolation

Define valores para ScoringFunctionInterpolation.

ScoringStatistics

Define valores para ScoringStatistics.

SearchField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

SearchFieldArray

Se TModel for um objeto não tipado, uma matriz de cadeia de caracteres não tipada Caso contrário, os campos delimitados por barra de TModel.

SearchFieldDataType

Define valores para SearchFieldDataType. Os valores possíveis incluem: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)'

NB: Edm.Single por si só não é um tipo de dados válido. Ele deve ser usado como parte de um tipo de coleção.

SearchIndexerDataSourceType
SearchIndexerSkill

Contém os possíveis casos de Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opções para SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opções para SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opções para SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opções para SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opções para SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Um iterador para resultados de pesquisa de uma consulta paticular. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

SearchMode

Define valores para SearchMode.

SearchOptions

Opções para confirmar uma solicitação de pesquisa completa.

SearchPick

Escolha profundamente os campos de T usando caminhos de $select OData do Cognitive Search válidos.

SearchRequestOptions

Parâmetros para filtragem, classificação, faceta, paginação e outros comportamentos de consulta de pesquisa.

SearchRequestQueryTypeOptions
SearchResult

Contém um documento encontrado por uma consulta de pesquisa, além de metadados associados.

SelectArray

Se TFields nunca for, uma matriz de cadeia de caracteres não tipada Caso contrário, um tipo restrito Fields[] a ser usado em outro lugar no tipo de consumo.

SelectFields

Produz uma união de caminhos OData de Pesquisa Cognitiva válidos $select para T usando uma passagem pós-ordem da árvore de campo com raiz em T.

SemanticErrorMode

parcial: se o processamento semântico falhar, os resultados parciais ainda retornarão. A definição de resultados parciais depende de qual etapa semântica falhou e qual foi o motivo da falha.

fail: se houver uma exceção durante a etapa de processamento semântico, a consulta falhará e retornará o código HTTP apropriado dependendo do erro.

SemanticErrorReason

maxWaitExceededed: se 'semanticMaxWaitInMilliseconds' foi definido e a duração do processamento semântico excedeu esse valor. Somente os resultados base foram retornados.

capacityOverloaded: a solicitação foi limitada. Somente os resultados base foram retornados.

transitório: pelo menos uma etapa do processo semântico falhou.

SemanticSearchResultsType

baseResults: resultados sem nenhum enriquecimento semântico ou reclassificado.

rerankedResults: os resultados foram reclassificados com o modelo de reclassificador e incluirão legendas semânticas. Eles não incluirão respostas, respostas realçadas ou realces legenda.

SentimentSkillLanguage

Define idiomas com suporte para SentimentSkillKnownSentimentSkillLanguage pode ser usado de forma intercambiável com esse tipo

SimilarityAlgorithm

Contém os casos possíveis para Similaridade.

SnowballTokenFilterLanguage

Define valores para SnowballTokenFilterLanguage.

SplitSkillLanguage

Define idiomas com suporte para SplitSkillKnownSplitSkillLanguage pode ser usado intercambiável com esse tipo

StemmerTokenFilterLanguage

Define valores para StemmerTokenFilterLanguage.

StopwordsList

Define valores para StopwordsList.

SuggestNarrowedModel
SuggestOptions

Opções para recuperar sugestões com base no searchText.

SuggestResult

Um resultado que contém um documento encontrado por uma consulta de sugestão, além de metadados associados.

TextSplitMode
TextTranslationSkillLanguage

Define idiomas com suporte para TextTranslationSkillKnownTextTranslationSkillLanguage pode ser usado intercambiável com esse tipo

TokenCharacterKind

Define valores para TokenCharacterKind.

TokenFilter

Contém os possíveis casos de TokenFilter.

TokenFilterName

Define valores para TokenFilterName.
<xref:KnownTokenFilterName> pode ser usado de forma intercambiável com TokenFilterName, essa enumeração contém os valores conhecidos aos quais o serviço dá suporte.

Valores conhecidos compatíveis com o serviço

arabic_normalization: um filtro de token que aplica o normalizador árabe para normalizar a ortoografia. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apóstrofo: remove todos os caracteres após um apóstrofo (incluindo o apóstrofo em si). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico") em seus equivalentes ASCII, se esses equivalentes existirem. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: forma bigrams de termos CJK gerados com base no tokenizador padrão. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: normaliza as diferenças de largura do CJK. Dobra as variantes ASCII de largura total nas variantes equivalentes do latim básico e katakana de meia largura no Kana equivalente. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
clássico: remove possessivos em inglês e pontos de acrônimos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: construa bigrams para termos que ocorrem com frequência durante a indexação. Termos únicos ainda são indexados também, com bigramas sobrepostos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: gera n-gramas dos tamanhos fornecidos começando na frente ou na parte de trás de um token de entrada. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: remove elisions. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: normaliza os caracteres alemães de acordo com a heurística do algoritmo de bola de neve alemão2. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: normaliza o texto em hindi para remover algumas diferenças nas variações ortográficas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normaliza a representação Unicode do texto em idiomas indianos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: emite cada token de entrada duas vezes, uma vez como palavra-chave e uma vez como não palavra-chave. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: um filtro kstem de alto desempenho para inglês. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
length: remove palavras que são muito longas ou muito curtas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limit: limita o número de tokens durante a indexação. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
minúsculas: normaliza o texto do token para letras minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm
nGram_v2: gera n-gramas dos tamanhos especificados. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: aplica a normalização para persa. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonético: crie tokens para correspondências fonéticas. Veja https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: usa o algoritmo de lematização porter para transformar o fluxo de token. Veja http://tartarus.org/~martin/PorterStemmer
inverso: inverte a cadeia de caracteres de token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: normaliza o uso dos caracteres escandinavos intercambiáveis. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Dobra os personagens escandinavos åÅäæÄÆ-a> e öÖøØ-o>. Também discrimina o uso de vogais duplas aa, ae, SOL, oe e oo, deixando apenas o primeiro deles. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle: cria combinações de tokens como um único token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
bola de neve: um filtro que contém palavras usando um lematizador gerado por Bola de Neve. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: normaliza a representação Unicode do texto Sorani. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
lematizador: filtro de lematização específico da linguagem. Veja https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
palavras irrelevantes: remove palavras irrelevantes de um fluxo de token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
trim: corta o espaço em branco à esquerda e à direita dos tokens. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
truncado: Trunca os termos para um comprimento específico. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unique: filtra tokens com o mesmo texto que o token anterior. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
maiúsculas: normaliza o texto do token para maiúsculas e minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: divide palavras em sub palavras e executa transformações opcionais em grupos de sub palavras.

UnionToIntersection
UploadDocumentsOptions

Opções para a operação carregar documentos.

VectorFilterMode

Determina se os filtros são aplicados ou não antes ou depois que a pesquisa de vetor é executada.

VectorQuery

Os parâmetros de consulta para consultas de pesquisa híbrida e vetor.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou a consulta.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

A métrica de similaridade a ser usada para comparações de vetor.

VisualFeature

Enumerações

KnownAnalyzerNames

Define valores para AnalyzerName. Veja https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownBlobIndexerDataToExtract

Valores conhecidos de BlobIndexerDataToExtract que o serviço aceita.

KnownBlobIndexerImageAction

Valores conhecidos de BlobIndexerImageAction que o serviço aceita.

KnownBlobIndexerPDFTextRotationAlgorithm

Valores conhecidos de BlobIndexerPDFTextRotationAlgorithm que o serviço aceita.

KnownBlobIndexerParsingMode

Valores conhecidos de BlobIndexerParsingMode que o serviço aceita.

KnownCharFilterNames

Valores conhecidos de CharFilterName que o serviço aceita.

KnownCustomEntityLookupSkillLanguage

Valores conhecidos de CustomEntityLookupSkillLanguage que o serviço aceita.

KnownEntityCategory

Valores conhecidos de EntityCategory que o serviço aceita.

KnownEntityRecognitionSkillLanguage

Valores conhecidos de EntityRecognitionSkillLanguage que o serviço aceita.

KnownImageAnalysisSkillLanguage

Valores conhecidos de ImageAnalysisSkillLanguage que o serviço aceita.

KnownImageDetail

Valores conhecidos de ImageDetail que o serviço aceita.

KnownKeyPhraseExtractionSkillLanguage

Valores conhecidos de KeyPhraseExtractionSkillLanguage que o serviço aceita.

KnownOcrSkillLanguage

Valores conhecidos de OcrSkillLanguage que o serviço aceita.

KnownRegexFlags

Valores conhecidos de RegexFlags que o serviço aceita.

KnownSearchAudience

Valores conhecidos para o público-alvo da pesquisa

KnownSearchIndexerDataSourceType

Valores conhecidos de SearchIndexerDataSourceType que o serviço aceita.

KnownSentimentSkillLanguage

Valores conhecidos de SentimentSkillLanguage que o serviço aceita.

KnownSplitSkillLanguage

Valores conhecidos de SplitSkillLanguage que o serviço aceita.

KnownTextSplitMode

Valores conhecidos de TextSplitMode que o serviço aceita.

KnownTextTranslationSkillLanguage

Valores conhecidos de TextTranslationSkillLanguage que o serviço aceita.

KnownTokenFilterNames

Valores conhecidos de TokenFilterName que o serviço aceita.

KnownTokenizerNames

Valores conhecidos de LexicalTokenizerName que o serviço aceita.

KnownVisualFeature

Valores conhecidos de VisualFeature que o serviço aceita.

Funções

createSynonymMapFromFile(string, string)

Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS.

odata(TemplateStringsArray, unknown[])

Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Exemplo de uso:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obter mais informações sobre a sintaxe com suporte, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Detalhes da função

createSynonymMapFromFile(string, string)

Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parâmetros

name

string

Nome do SynonymMap.

filePath

string

Caminho do arquivo que contém os sinônimos (semperados por novas linhas)

Retornos

Promise<SynonymMap>

Objeto SynonymMap

odata(TemplateStringsArray, unknown[])

Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Exemplo de uso:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obter mais informações sobre a sintaxe com suporte, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parâmetros

strings

TemplateStringsArray

Matriz de cadeias de caracteres para a expressão

values

unknown[]

Matriz de valores para a expressão

Retornos

string