Share via


@azure/search-documents package

Classes

AzureKeyCredential

Uma credencial baseada em chave estática que suporta a atualização do valor da chave subjacente.

GeographyPoint

Representa um ponto geográfico nas coordenadas globais.

IndexDocumentsBatch

Classe utilizada para realizar operações em lote com vários documentos para o índice.

SearchClient

Classe utilizada para realizar operações num índice de pesquisa, incluindo a consulta de documentos no índice, bem como a adição, atualização e remoção dos mesmos.

SearchIndexClient

Classe a executar operações para gerir (criar, atualizar, listar/eliminar) índices, & sinónimos.

SearchIndexerClient

Classe para realizar operações para gerir (criar, atualizar, listar/eliminar), origens de dados & conjuntos de competências.

SearchIndexingBufferedSender

Classe utilizada para realizar operações em memória intermédia num índice de pesquisa, incluindo adicionar, atualizar e remover.

Interfaces

AnalyzeRequest

Especifica alguns componentes de texto e análise utilizados para dividir esse texto em tokens.

AnalyzeResult

O resultado do teste de um analisador em texto.

AnalyzedTokenInfo

Informações sobre um token devolvido por um analisador.

AsciiFoldingTokenFilter

Converte carateres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 carateres ASCII (o bloco Unicode "Latim Básico") nos respetivos equivalentes ASCII, se existirem esses equivalentes. Este filtro de token é implementado com o Apache Lucene.

AutocompleteItem

O resultado dos pedidos de Conclusão Automática.

AutocompleteRequest

Parâmetros para correspondência difusa e outros comportamentos de consulta de conclusão automática.

AutocompleteResult

O resultado da consulta de Conclusão Automática.

AzureActiveDirectoryApplicationCredentials

Credenciais de uma aplicação registada criada para o seu serviço de pesquisa, utilizada para acesso autenticado às chaves de encriptação armazenadas no Azure Key Vault.

BM25Similarity

Função ranking baseada no algoritmo de semelhança Okapi BM25. BM25 é um algoritmo semelhante a TF-IDF que inclui a normalização do comprimento (controlada pelo parâmetro "b") bem como a saturação da frequência do termo (controlada pelo parâmetro "k1").

BaseCharFilter

Tipo base para filtros de carateres.

BaseCognitiveServicesAccount

Tipo base para descrever qualquer recurso do serviço de IA do Azure anexado a um conjunto de competências.

BaseDataChangeDetectionPolicy

Tipo base para políticas de deteção de alteração de dados.

BaseDataDeletionDetectionPolicy

Tipo base para políticas de deteção de eliminação de dados.

BaseLexicalAnalyzer

Tipo base para analisadores.

BaseLexicalTokenizer

Tipo base para tokenizers.

BaseScoringFunction

Tipo base para funções que podem modificar as classificações dos documentos durante a classificação.

BaseSearchIndexerSkill

Tipo base para competências.

BaseSearchRequestOptions

Parâmetros para filtrar, ordenar, facetar, paginar e outros comportamentos de consulta de pesquisa.

BaseTokenFilter

Tipo base para filtros de tokens.

BaseVectorQuery

Os parâmetros de consulta para consultas de vetor e pesquisa híbrida.

BaseVectorSearchAlgorithmConfiguration

Contém opções de configuração específicas do algoritmo utilizado durante a indexação e/ou consulta.

CjkBigramTokenFilter

Forma bigrams de termos CJK que são gerados a partir do tokenizer padrão. Este filtro de token é implementado com o Apache Lucene.

ClassicSimilarity

Algoritmo de semelhança legado que utiliza a implementação Lucene TFIDFSimilarity do TF-IDF. Esta variação do TF-IDF introduz a normalização do comprimento do documento estático, bem como fatores coordenados que penalizam documentos que apenas correspondem parcialmente às consultas pesquisadas.

ClassicTokenizer

Tokenizador baseado em gramática adequado para processar a maioria dos documentos de idioma europeu. Este tokenizador é implementado com o Apache Lucene.

CognitiveServicesAccountKey

Um recurso do serviço de IA do Azure aprovisionado com uma chave anexada a um conjunto de competências.

CommonGramTokenFilter

Construa bigrams para termos que ocorrem frequentemente durante a indexação. Os termos únicos também são indexados, com bigrams sobrepostos. Este filtro de token é implementado com o Apache Lucene.

ComplexField

Representa um campo numa definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

ConditionalSkill

Uma competência que permite cenários que requerem uma operação Booleana para determinar os dados a atribuir a uma saída.

CorsOptions

Define opções para controlar a Partilha de Recursos De Várias Origens (CORS) para um índice.

CreateOrUpdateIndexOptions

Opções para criar/atualizar a operação de índice.

CreateOrUpdateSkillsetOptions

Opções para a operação de criação/atualização de conjuntos de competências.

CreateOrUpdateSynonymMapOptions

Opções para a operação de criação/atualização de sinónimos.

CreateorUpdateDataSourceConnectionOptions

Opções para criar/atualizar a operação de origem de dados.

CreateorUpdateIndexerOptions

Opções para a operação de criação/atualização do indexador.

CustomAnalyzer

Permite-lhe assumir o controlo do processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo utilizador que consiste num único tokenizador predefinido e um ou mais filtros. O tokenizer é responsável por dividir o texto em tokens e os filtros para modificar tokens emitidos pelo tokenizer.

CustomEntity

Um objeto que contém informações sobre as correspondências encontradas e metadados relacionados.

CustomEntityAlias

Um objeto complexo que pode ser utilizado para especificar ortografias alternativas ou sinónimos para o nome da entidade raiz.

CustomEntityLookupSkill

Uma competência procura texto de uma lista personalizada e definida pelo utilizador de palavras e expressões.

DefaultCognitiveServicesAccount

Um objeto vazio que representa o recurso predefinido do serviço de IA do Azure para um conjunto de competências.

DeleteDataSourceConnectionOptions

Opções para eliminar a operação de origem de dados.

DeleteIndexOptions

Opções para eliminar a operação de índice.

DeleteIndexerOptions

Opções para eliminar a operação do indexador.

DeleteSkillsetOptions

Opções para eliminar operações de conjuntos de competências.

DeleteSynonymMapOptions

Opções para eliminar a operação de synonymmap.

DictionaryDecompounderTokenFilter

Decompõe palavras compostas encontradas em muitas línguas germânicas. Este filtro de token é implementado com o Apache Lucene.

DistanceScoringFunction

Define uma função que aumenta as pontuações com base na distância de uma localização geográfica.

DistanceScoringParameters

Fornece valores de parâmetros para uma função de classificação à distância.

DocumentExtractionSkill

Uma competência que extrai conteúdo de um ficheiro dentro do pipeline de melhoramento.

EdgeNGramTokenFilter

Gera n-gramas dos tamanhos especificados a partir da frente ou na parte traseira de um token de entrada. Este filtro de token é implementado com o Apache Lucene.

EdgeNGramTokenizer

Tokeniza a entrada de uma extremidade em n-gramas dos tamanhos especificados. Este tokenizador é implementado com o Apache Lucene.

ElisionTokenFilter

Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (plano). Este filtro de token é implementado com o Apache Lucene.

EntityLinkingSkill

Com a API de Análise de Texto, extrai entidades ligadas do texto.

EntityRecognitionSkill

Reconhecimento de entidades de análise de texto.

EntityRecognitionSkillV3

Com a API Análise de Texto, extrai entidades de diferentes tipos de texto.

ExhaustiveKnnParameters

Contém os parâmetros específicos do algoritmo KNN exaustivo.

ExtractiveQueryAnswer

Extrai os candidatos de resposta dos conteúdos dos documentos devolvidos em resposta a uma consulta expressa como uma pergunta em linguagem natural.

ExtractiveQueryCaption

Extrai legendas dos documentos correspondentes que contêm passagens relevantes para a consulta de pesquisa.

FacetResult

Um único registo de um resultado de consulta faceta. Comunica o número de documentos com um valor de campo dentro de um intervalo específico ou com um determinado valor ou intervalo.

FieldMapping

Define um mapeamento entre um campo numa origem de dados e um campo de destino num índice.

FieldMappingFunction

Representa uma função que transforma um valor de uma origem de dados antes da indexação.

FreshnessScoringFunction

Define uma função que aumenta as pontuações com base no valor de um campo de data/hora.

FreshnessScoringParameters

Fornece valores de parâmetros para uma função de classificação de frescura.

GetDocumentOptions

Opções para obter um único documento.

HighWaterMarkChangeDetectionPolicy

Define uma política de deteção de alterações de dados que captura alterações com base no valor de uma coluna de marca de água elevada.

HnswParameters

Contém os parâmetros específicos do algoritmo hnsw.

ImageAnalysisSkill

Uma competência que analisa ficheiros de imagem. Extrai um conjunto avançado de funcionalidades visuais com base no conteúdo da imagem.

IndexDocumentsClient

Indexar Documentos Cliente

IndexDocumentsOptions

Opções para a operação modificar o lote de índice.

IndexDocumentsResult

Resposta que contém o estado das operações para todos os documentos no pedido de indexação.

IndexerExecutionResult

Representa o resultado de uma execução individual do indexador.

IndexingParameters

Representa parâmetros para a execução do indexador.

IndexingParametersConfiguration

Um dicionário de propriedades de configuração específicas do indexador. Cada nome é o nome de uma propriedade específica. Cada valor tem de ser de um tipo primitivo.

IndexingResult

Estado de uma operação de indexação para um único documento.

IndexingSchedule

Representa uma agenda para a execução do indexador.

InputFieldMappingEntry

Mapeamento de campos de entrada para uma competência.

KeepTokenFilter

Um filtro de token que apenas mantém tokens com texto contido numa lista especificada de palavras. Este filtro de token é implementado com o Apache Lucene.

KeyPhraseExtractionSkill

Uma competência que utiliza a análise de texto para a extração de expressões-chave.

KeywordMarkerTokenFilter

Marca os termos como palavras-chave. Este filtro de token é implementado com o Apache Lucene.

KeywordTokenizer

Emite toda a entrada como um único token. Este tokenizador é implementado com o Apache Lucene.

LanguageDetectionSkill

Uma competência que deteta o idioma do texto de entrada e comunica um único código de idioma para cada documento submetido no pedido. O código de idioma é emparelhado com uma classificação que indica a confiança da análise.

LengthTokenFilter

Remove palavras demasiado longas ou demasiado curtas. Este filtro de token é implementado com o Apache Lucene.

LimitTokenFilter

Limita o número de tokens durante a indexação. Este filtro de token é implementado com o Apache Lucene.

ListSearchResultsPageSettings

Argumentos para obter a página seguinte dos resultados da pesquisa.

LuceneStandardAnalyzer

Analisador Standard do Apache Lucene; Composto pelo tokenizador padrão, filtro em minúsculas e filtro de paragem.

LuceneStandardTokenizer

Quebra o texto ao seguir as regras de Segmentação de Texto Unicode. Este tokenizador é implementado com o Apache Lucene.

MagnitudeScoringFunction

Define uma função que aumenta as pontuações com base na magnitude de um campo numérico.

MagnitudeScoringParameters

Fornece valores de parâmetros para uma função de classificação de magnitude.

MappingCharFilter

Um filtro de carateres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (o padrão mais longo que corresponde a um determinado ponto ganha). A substituição pode ser a cadeia vazia. Este filtro de carateres é implementado com o Apache Lucene.

MergeSkill

Uma competência para unir duas ou mais cadeias numa única cadeia unificada, com um delimitador opcional definido pelo utilizador a separar cada parte do componente.

MicrosoftLanguageStemmingTokenizer

Divide o texto com regras específicas do idioma e reduz as palavras aos formulários base.

MicrosoftLanguageTokenizer

Divide o texto com regras específicas do idioma.

NGramTokenFilter

Gera n-gramas dos tamanhos especificados. Este filtro de token é implementado com o Apache Lucene.

NGramTokenizer

Tokeniza a entrada em n-gramas dos tamanhos especificados. Este tokenizador é implementado com o Apache Lucene.

OcrSkill

Uma competência que extrai texto de ficheiros de imagem.

OutputFieldMappingEntry

Mapeamento de campos de saída para uma competência.

PIIDetectionSkill

Com a API Análise de Texto, extrai informações pessoais de um texto de entrada e dá-lhe a opção de mascará-las.

PathHierarchyTokenizer

Tokenizer para hierarquias semelhantes a caminhos. Este tokenizador é implementado com o Apache Lucene.

PatternAnalyzer

Separa flexívelmente o texto em termos através de um padrão de expressão normal. Este analisador é implementado com o Apache Lucene.

PatternCaptureTokenFilter

Utiliza regexes Java para emitir vários tokens - um para cada grupo de captura num ou mais padrões. Este filtro de token é implementado com o Apache Lucene.

PatternReplaceCharFilter

Um filtro de carateres que substitui carateres na cadeia de entrada. Utiliza uma expressão regular para identificar sequências de carateres para preservar e um padrão de substituição para identificar carateres a substituir. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de carateres é implementado com o Apache Lucene.

PatternReplaceTokenFilter

Um filtro de carateres que substitui carateres na cadeia de entrada. Utiliza uma expressão regular para identificar sequências de carateres para preservar e um padrão de substituição para identificar carateres a substituir. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado com o Apache Lucene.

PatternTokenizer

Tokenizer que utiliza a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado com o Apache Lucene.

PhoneticTokenFilter

Criar tokens para correspondências fonéticas. Este filtro de token é implementado com o Apache Lucene.

QueryAnswerResult

Uma resposta é uma passagem de texto extraída do conteúdo dos documentos mais relevantes que correspondem à consulta. As respostas são extraídas dos principais resultados da pesquisa. Os candidatos às respostas são classificados e as principais respostas estão selecionadas.

QueryCaptionResult

As legendas são as passagens mais representativas do documento relativamente para a consulta de pesquisa. São frequentemente utilizados como resumo do documento. As legendas só são devolvidas para consultas do tipo semantic.

ResourceCounter

Representa a utilização e quota de um recurso.

ScoringProfile

Define parâmetros para um índice de pesquisa que influencia a classificação em consultas de pesquisa.

SearchClientOptions

Opções de cliente utilizadas para configurar pedidos de API do Cognitive Search.

SearchDocumentsPageResult

Resposta que contém os resultados da página de pesquisa de um índice.

SearchDocumentsResult

Resposta que contém resultados de pesquisa de um índice.

SearchDocumentsResultBase

Resposta que contém resultados de pesquisa de um índice.

SearchIndex

Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice.

SearchIndexClientOptions

Opções de cliente utilizadas para configurar pedidos de API do Cognitive Search.

SearchIndexStatistics

Estatísticas de um determinado índice. As estatísticas são recolhidas periodicamente e não é garantido que estejam sempre atualizadas.

SearchIndexer

Representa um indexador.

SearchIndexerClientOptions

Opções de cliente utilizadas para configurar pedidos de API do Cognitive Search.

SearchIndexerDataContainer

Representa informações sobre a entidade (como SQL do Azure tabela ou coleção do CosmosDB) que serão indexadas.

SearchIndexerDataSourceConnection

Representa uma definição de origem de dados, que pode ser utilizada para configurar um indexador.

SearchIndexerError

Representa um erro de indexação ao nível do item ou do documento.

SearchIndexerKnowledgeStore

Definição de projeções adicionais para blobs, tabelas ou ficheiros do Azure de dados melhorados.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Classe abstrata para partilhar propriedades entre seletores de betão.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definição de projeção para que dados armazenar no Ficheiros do Azure.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definição de projeção para que dados armazenar no Blob do Azure.

SearchIndexerKnowledgeStoreProjection

Objeto de contentor para vários seletores de projeção.

SearchIndexerKnowledgeStoreProjectionSelector

Classe abstrata para partilhar propriedades entre seletores de betão.

SearchIndexerKnowledgeStoreTableProjectionSelector

Descrição dos dados a armazenar nas Tabelas do Azure.

SearchIndexerLimits
SearchIndexerSkillset

Uma lista de competências.

SearchIndexerStatus

Representa o estado atual e o histórico de execuções de um indexador.

SearchIndexerWarning

Representa um aviso ao nível do item.

SearchIndexingBufferedSenderOptions

Opções para SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Uma chave de encriptação gerida pelo cliente no Azure Key Vault. As chaves que cria e gere podem ser utilizadas para encriptar ou desencriptar dados inativos em Azure Cognitive Search, como índices e mapas de sinónimos.

SearchServiceStatistics

Resposta de um pedido de estatísticas de serviço get. Se for bem-sucedido, inclui contadores e limites de nível de serviço.

SearchSuggester

Define como a API Suggest deve ser aplicada a um grupo de campos no índice.

SemanticConfiguration

Define uma configuração específica a ser utilizada no contexto das capacidades semânticas.

SemanticField

Um campo que é utilizado como parte da configuração semântica.

SemanticPrioritizedFields

Descreve os campos de título, conteúdo e palavras-chave a utilizar para classificação semântica, legendas, destaques e respostas.

SemanticSearch

Define parâmetros para um índice de pesquisa que influenciam as capacidades semânticas.

SemanticSearchOptions

Define opções para consultas de pesquisa semântica

SentimentSkill

Análise de sentimento positivo-negativo da análise de texto, classificada como um valor de vírgula flutuante num intervalo de zero a 1.

SentimentSkillV3

A utilização da API Análise de Texto, avalia o texto não estruturado e, para cada registo, fornece etiquetas de sentimento (como "negativo", "neutro" e "positivo") com base na classificação de confiança mais elevada encontrada pelo serviço a uma frase e ao nível do documento.

ServiceCounters

Representa quotas e contadores de recursos ao nível do serviço.

ServiceLimits

Representa vários limites de nível de serviço.

ShaperSkill

Uma habilidade para remodelar as saídas. Cria um tipo complexo para suportar campos compostos (também conhecidos como campos multipart).

ShingleTokenFilter

Cria combinações de tokens como um único token. Este filtro de token é implementado com o Apache Lucene.

Similarity

Tipo base para algoritmos de semelhança. Os algoritmos de semelhança são utilizados para calcular pontuações que ligam consultas a documentos. Quanto maior for a classificação, mais relevante será o documento para essa consulta específica. Essas classificações são utilizadas para classificar os resultados da pesquisa.

SimpleField

Representa um campo numa definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

SnowballTokenFilter

Um filtro que escorria palavras utilizando um stemer gerado por bola de neve. Este filtro de token é implementado com o Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Define uma política de deteção de eliminação de dados que implementa uma estratégia de eliminação recuperável. Determina se um item deve ser eliminado com base no valor de uma coluna designada "eliminação recuperável".

SplitSkill

Uma competência para dividir uma cadeia em segmentos de texto.

SqlIntegratedChangeTrackingPolicy

Define uma política de deteção de alteração de dados que captura alterações com a funcionalidade Controlo de Alterações Integrada da Base de Dados SQL do Azure.

StemmerOverrideTokenFilter

Fornece a capacidade de substituir outros filtros de detenção por descrições personalizadas baseadas em dicionários. Quaisquer termos sem dicionário serão marcados como palavras-chave para que não sejam gerados com os stemmers na cadeia. Tem de ser colocado antes de quaisquer filtros de deteção. Este filtro de token é implementado com o Apache Lucene.

StemmerTokenFilter

Filtro de decorrido específico da linguagem. Este filtro de token é implementado com o Apache Lucene.

StopAnalyzer

Divide o texto em não letras; Aplica os filtros de token em minúsculas e de palavra-passe. Este analisador é implementado com o Apache Lucene.

StopwordsTokenFilter

Remove palavras paradas de um fluxo de tokens. Este filtro de token é implementado com o Apache Lucene.

SuggestDocumentsResult

Resposta que contém resultados de consulta de sugestões de um índice.

SuggestRequest

Parâmetros para filtragem, ordenação, correspondência difusa e outros comportamentos de consulta de sugestões.

SynonymMap

Representa uma definição de mapa de sinónimos.

SynonymTokenFilter

Corresponde a sinónimos de uma ou várias palavras num fluxo de tokens. Este filtro de token é implementado com o Apache Lucene.

TagScoringFunction

Define uma função que aumenta as pontuações de documentos com valores de cadeia que correspondem a uma determinada lista de etiquetas.

TagScoringParameters

Fornece valores de parâmetros para uma função de classificação de etiquetas.

TextTranslationSkill

Uma competência para traduzir texto de um idioma para outro.

TextWeights

Define os pesos nos campos de índice para os quais as correspondências devem aumentar a classificação nas consultas de pesquisa.

TruncateTokenFilter

Trunca os termos para um comprimento específico. Este filtro de token é implementado com o Apache Lucene.

UaxUrlEmailTokenizer

Tokens urls e e-mails como um token. Este tokenizador é implementado com o Apache Lucene.

UniqueTokenFilter

Filtra tokens com o mesmo texto que o token anterior. Este filtro de token é implementado com o Apache Lucene.

VectorSearch

Contém opções de configuração relacionadas com a pesquisa de vetores.

VectorSearchOptions

Define opções para consultas de pesquisa de vetores

VectorSearchProfile

Define uma combinação de configurações a utilizar com a pesquisa de vetores.

VectorizedQuery

Os parâmetros de consulta a utilizar para pesquisa de vetores quando é fornecido um valor de vetor não processado.

WebApiSkill

Uma competência que pode chamar um ponto final da API Web, permitindo-lhe expandir um conjunto de competências ao fazer com que este chame o seu código personalizado.

WordDelimiterTokenFilter

Divide palavras em sub-palavras e efetua transformações opcionais em grupos de sub-palavras. Este filtro de token é implementado com o Apache Lucene.

Aliases de Tipo

AnalyzeTextOptions

Opções para analisar a operação de texto.

AutocompleteMode

Define valores para AutocompleteMode.

AutocompleteOptions

Opções para obter texto de conclusão para um searchText parcial.

BlobIndexerDataToExtract

Valores conhecidos suportados pelo serviço

storageMetadata: indexa apenas as propriedades de blob padrão e os metadados especificados pelo utilizador. allMetadata: extrai os metadados fornecidos pelo subsistema de armazenamento de blobs do Azure e os metadados específicos do tipo de conteúdo (por exemplo, metadados exclusivos apenas para .png ficheiros são indexados). contentAndMetadata: extrai todos os metadados e conteúdos textuais de cada blob.

BlobIndexerImageAction

Valores conhecidos suportados pelo serviço

nenhum: ignora imagens incorporadas ou ficheiros de imagem no conjunto de dados. Esta é a predefinição. generateNormalizedImages: extrai texto de imagens (por exemplo, a palavra "PARAR" de um sinal de paragem de tráfego) e incorpora-o no campo de conteúdo. Esta ação requer que "dataToExtract" esteja definido como "contentAndMetadata". Uma imagem normalizada refere-se ao processamento adicional que resulta numa saída de imagem uniforme, dimensionada e rodada para promover uma composição consistente quando inclui imagens nos resultados da pesquisa visual. Estas informações são geradas para cada imagem quando utiliza esta opção. generateNormalizedImagePerPage: extrai texto de imagens (por exemplo, a palavra "PARAR" de um sinal de paragem de tráfego) e incorpora-o no campo de conteúdo, mas trata os ficheiros PDF de forma diferente na medida em que cada página será composta como uma imagem e normalizada em conformidade, em vez de extrair imagens incorporadas. Os tipos de ficheiro não PDF serão tratados da mesma forma que "generateNormalizedImages" foi definido.

BlobIndexerPDFTextRotationAlgorithm

Valores conhecidos suportados pelo serviço

nenhum: tira partido da extração de texto normal. Esta é a predefinição. detectAngles: pode produzir uma extração de texto melhor e mais legível a partir de ficheiros PDF com texto rodado dentro dos mesmos. Tenha em atenção que pode haver um pequeno impacto na velocidade de desempenho quando este parâmetro é utilizado. Este parâmetro aplica-se apenas a ficheiros PDF e apenas a PDFs com texto incorporado. Se o texto rodado aparecer numa imagem incorporada no PDF, este parâmetro não se aplica.

BlobIndexerParsingMode

Valores conhecidos suportados pelo serviço

predefinição: defina como predefinição para o processamento normal de ficheiros. texto: defina como texto para melhorar o desempenho da indexação em ficheiros de texto simples no armazenamento de blobs. delimitadoTexto: defina como delimitadoTexto quando os blobs são ficheiros CSV simples. json: defina como json para extrair conteúdo estruturado de ficheiros JSON. jsonArray: defina como jsonArray para extrair elementos individuais de uma matriz JSON como documentos separados no Azure Cognitive Search. jsonLines: defina como jsonLines para extrair entidades JSON individuais, separadas por uma nova linha, como documentos separados no Azure Cognitive Search.

CharFilter

Contém os possíveis casos de CharFilter.

CharFilterName

Define valores para CharFilterName.
<xref:KnownCharFilterName> pode ser utilizado alternadamente com CharFilterName. Esta enumeração contém os valores conhecidos suportados pelo serviço.

Valores conhecidos suportados pelo serviço

html_strip: um filtro de carateres que tenta remover construções HTML. Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Define valores para CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Contém os possíveis casos para CognitiveServicesAccount.

ComplexDataType

Define valores para ComplexDataType. Os valores possíveis incluem: "Edm.ComplexType", "Collection(Edm.ComplexType)"

CountDocumentsOptions

Opções para executar a operação de contagem no índice.

CreateDataSourceConnectionOptions

Opções para criar a operação de origem de dados.

CreateIndexOptions

Opções para criar operação de índice.

CreateIndexerOptions

Opções para criar operação de indexador.

CreateSkillsetOptions

Opções para criar operação de conjunto de competências.

CreateSynonymMapOptions

Opções para criar operação de mapa de sinónimos.

CustomEntityLookupSkillLanguage

Define idiomas suportados para CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage pode ser utilizado alternadamente com este tipo

DataChangeDetectionPolicy

Contém os casos possíveis para DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contém os casos possíveis para DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opções para a operação eliminar documentos.

EdgeNGramTokenFilterSide

Define valores para EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage

Define idiomas suportados para EntityRecognitionSkillKnownEntityRecognitionSkillLanguage pode ser utilizado alternadamente com este tipo

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contém opções de configuração específicas do algoritmo KNN exaustivo utilizado durante a consulta, o que irá realizar uma pesquisa de força bruta em todo o índice de vetor.

ExtractDocumentKey
GetDataSourceConnectionOptions

Opções para obter a operação de origem de dados.

GetIndexOptions

Opções para obter a operação de índice.

GetIndexStatisticsOptions

Opções para obter a operação de estatísticas de índice.

GetIndexerOptions

Opções para obter a operação do indexador.

GetIndexerStatusOptions

Opções para obter a operação de estado do indexador.

GetServiceStatisticsOptions

Opções para obter a operação de estatísticas de serviço.

GetSkillSetOptions

Opções para obter a operação de conjunto de competências.

GetSynonymMapsOptions

Opções para obter a operação de sinónimos.

HnswAlgorithmConfiguration

Contém opções de configuração específicas do algoritmo hnsw aproximado dos vizinhos mais próximos utilizado durante o tempo de indexação.

ImageAnalysisSkillLanguage

Define idiomas suportados para ImageAnalysisSkillKnownImageAnalysisSkillLanguage pode ser utilizado alternadamente com este tipo

ImageDetail
IndexActionType

Define valores para IndexActionType.

IndexDocumentsAction

Representa uma ação de índice que funciona num documento.

IndexIterator

Um iterador para listar os índices que existem no Serviço de pesquisa. Fará os pedidos conforme necessário durante a iteração. Utilize .byPage() para fazer um pedido ao servidor por iteração.

IndexNameIterator

Um iterador para listar os índices que existem no Serviço de pesquisa. Fará os pedidos conforme necessário durante a iteração. Utilize .byPage() para fazer um pedido ao servidor por iteração.

IndexerExecutionEnvironment

Valores conhecidos suportados pelo serviço

padrão: indica que Azure Cognitive Search pode determinar onde o indexador deve ser executado. Este é o ambiente predefinido quando nada é especificado e é o valor recomendado. private: indica que o indexador deve ser executado com o ambiente aprovisionado especificamente para o serviço de pesquisa. Isto só deve ser especificado como o ambiente de execução se o indexador precisar de aceder aos recursos de forma segura através de recursos de ligação privada partilhados.

IndexerExecutionStatus

Define valores para IndexerExecutionStatus.

IndexerStatus

Define valores para IndexerStatus.

KeyPhraseExtractionSkillLanguage

Define idiomas suportados para KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage pode ser utilizado alternadamente com este tipo

LexicalAnalyzer

Contém os casos possíveis para o Analyzer.

LexicalAnalyzerName

Define valores para LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> pode ser utilizado alternadamente com LexicalAnalyzerName, esta enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

ar.microsoft: Analisador da Microsoft para árabe.
ar.lucene: Lucene analyzer para árabe.
hy.lucene: Analisador lucene para arménio.
bn.microsoft: Analisador da Microsoft para Bangla.
eu.lucene: Lucene analisador para basco.
bg.microsoft: Analisador da Microsoft para búlgaro.
bg.lucene: Lucene analisador para búlgaro.
ca.microsoft: Analisador da Microsoft para catalão.
ca.lucene: Lucene analyzer for Catalan.
zh-Hans.microsoft: Analisador da Microsoft para chinês (Simplificado).
zh-Hans.lucene: Lucene analyzer for Chinese (Simplificado).
zh-Hant.microsoft: Analisador da Microsoft para chinês (Tradicional).
zh-Hant.lucene: Lucene analyzer for Chinese (Traditional).
hr.microsoft: Analisador da Microsoft para croata.
cs.microsoft: Analisador da Microsoft para checo.
cs.lucene: Lucene analyzer para checo.
da.microsoft: Analisador da Microsoft para dinamarquês.
da.lucene: Lucene analyzer para dinamarquês.
nl.microsoft: Analisador da Microsoft para neerlandês.
nl.lucene: Lucene analyzer for Dutch.
en.microsoft: Analisador da Microsoft para inglês.
en.lucene: Lucene analyzer for English.
et.microsoft: Analisador da Microsoft para estónio.
fi.microsoft: Analisador da Microsoft para finlandês.
fi.lucene: Lucene analyzer para finlandês.
fr.microsoft: Analisador da Microsoft para francês.
fr.lucene: Lucene analyzer para francês.
Gl.lucene: Lucene analyzer for Galician.
de.microsoft: Analisador da Microsoft para alemão.
de.lucene: Lucene analyzer para alemão.
el.microsoft: Analisador da Microsoft para grego.
el.lucene: Lucene analisador para grego.
gu.microsoft: Analisador da Microsoft para Gujarati.
he.microsoft: Analisador da Microsoft para hebraico.
hi.microsoft: Analisador da Microsoft para Hindi.
hi.lucene: Lucene analyzer for Hindi.
hu.microsoft: Analisador da Microsoft para húngaro.
hu.lucene: Lucene analyzer para húngaro.
is.microsoft: Analisador da Microsoft para islandês.
id.microsoft: Analisador da Microsoft para indonésio (Bahasa).
id.lucene: Analisador lucene para indonésio.
ga.lucene: Lucene analyzer para irlandês.
it.microsoft: Analisador da Microsoft para italiano.
it.lucene: Lucene analyzer para italiano.
ja.microsoft: Analisador da Microsoft para japonês.
ja.lucene: Lucene analyzer para japonês.
kn.microsoft: Analisador da Microsoft para Kannada.
ko.microsoft: Analisador da Microsoft para coreano.
ko.lucene: Lucene analyzer para coreano.
lv.microsoft: Analisador da Microsoft para letão.
lv.lucene: Lucene analyzer para letão.
lt.microsoft: Analisador da Microsoft para Lituano.
ml.microsoft: Analisador da Microsoft para Malayalam.
ms.microsoft: Analisador da Microsoft para Malaio (Latim).
mr.microsoft: Analisador da Microsoft para Marathi.
nb.microsoft: Analisador da Microsoft para norueguês (Bokmål).
No.lucene: Lucene analyzer para norueguês.
fa.lucene: Lucene analisador para persa.
pl.microsoft: Analisador da Microsoft para polaco.
pl.lucene: Lucene analyzer for Polish.
pt-BR.microsoft: Analisador da Microsoft para Português (Brasil).
pt-BR.lucene: Lucene analyzer for Portuguese (Brasil).
pt-PT.microsoft: Analisador da Microsoft para Português (Portugal).
pt-PT.lucene: Lucene analyzer for Portuguese (Portugal).
pa.microsoft: Analisador da Microsoft para Punjabi.
ro.microsoft: Analisador da Microsoft para romeno.
ro.lucene: Lucene analyzer para romeno.
ru.microsoft: Analisador da Microsoft para russo.
ru.lucene: Lucene analyzer para russo.
sr-cyrillic.microsoft: Analisador da Microsoft para sérvio (cirílico).
sr-latin.microsoft: Analisador da Microsoft para sérvio (latim).
sk.microsoft: Analisador da Microsoft para Eslovaco.
sl.microsoft: Analisador da Microsoft para esloveno.
es.microsoft: Analisador da Microsoft para espanhol.
es.lucene: Lucene analyzer para espanhol.
sv.microsoft: Analisador da Microsoft para sueco.
sv.lucene: Lucene analyzer para sueco.
ta.microsoft: Analisador da Microsoft para Tamil.
te.microsoft: Analisador da Microsoft para Telugu.
th.microsoft: Analisador da Microsoft para tailandês.
Lucene analyzer para tailandês.
tr.microsoft: Analisador da Microsoft para turco.
tr.lucene: Lucene analyzer para turco.
uk.microsoft: Analisador da Microsoft para ucraniano.
your.microsoft: Analisador da Microsoft para Urdu.
vi.microsoft: Analisador da Microsoft para vietnamitas.
standard.lucene: Analisador Lucene Standard.
standardasciifolding.lucene: Analisador Lucene de Dobragem ASCII Padrão. Veja https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
palavra-chave: trata todo o conteúdo de um campo como um único token. Isto é útil para dados como códigos postais, IDs e alguns nomes de produtos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
padrão: separa flexívelmente o texto em termos através de um padrão de expressão regular. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
simples: divide o texto em não letras e converte-o em minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop: divide o texto em não letras; Aplica os filtros de token de palavras-passe e minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
espaço em branco: um analisador que utiliza o tokenizer do espaço em branco. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Contém os casos possíveis para Tokenizer.

LexicalTokenizerName

Define valores para LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> pode ser utilizado alternadamente com LexicalTokenizerName, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

clássico: tokenizador baseado em gramática adequado para processar a maioria dos documentos em linguagem europeia. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: tokeniza a entrada de uma extremidade em n-gramas dos tamanhos especificados. Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: emite toda a entrada como um único token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
letra: divide o texto em não letras. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
minúsculas: divide o texto em não letras e converte-o em minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: divide o texto com regras específicas da linguagem.
microsoft_language_stemming_tokenizer: divide o texto através de regras específicas da linguagem e reduz as palavras aos formulários base.
nGram: tokeniza a entrada em n-gramas dos tamanhos especificados. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer para hierarquias semelhantes a caminhos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
padrão: Tokenizer que utiliza a correspondência de padrões regex para construir tokens distintos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Analisador Lucene Padrão; Composto pelo tokenizador padrão, filtro em minúsculas e filtro de paragem. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokenizes urls e e-mails como um token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
espaço em branco: divide o texto no espaço em branco. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Opções para uma operação de origens de dados de lista.

ListIndexersOptions

Opções para uma operação de indexadores de lista.

ListIndexesOptions

Opções para uma operação de índices de lista.

ListSkillsetsOptions

Opções para uma operação de conjuntos de competências de lista.

ListSynonymMapsOptions

Opções para uma operação de sinónimo de listaMaps.

MergeDocumentsOptions

Opções para a operação de impressão em série de documentos.

MergeOrUploadDocumentsOptions

Opções para a operação de impressão em série ou carregamento de documentos.

MicrosoftStemmingTokenizerLanguage

Define valores para MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Define valores para MicrosoftTokenizerLanguage.

NarrowedModel

Restringe o tipo de Modelo para incluir apenas os Campos selecionados

OcrSkillLanguage

Define idiomas suportados para OcrSkillKnownOcrSkillLanguage pode ser utilizado alternadamente com este tipo

PIIDetectionSkillMaskingMode

Define valores para PIIDetectionSkillMaskingMode.

Valores conhecidos suportados pelo serviço

nenhum: não ocorre nenhuma máscara e a saída maskedText não será devolvida. substituir: substitui as entidades detetadas pelo caráter indicado no parâmetro maskingCharacter. O caráter será repetido ao comprimento da entidade detetada para que os desvios correspondam corretamente ao texto de entrada, bem como ao texto mascarado de saída.

PhoneticEncoder

Define valores para PhoneticEncoder.

QueryAnswer

Um valor que especifica se as respostas devem ser devolvidas como parte da resposta de pesquisa. Este parâmetro só é válido se o tipo de consulta for "semântico". Se estiver definida como extractive, a consulta devolve respostas extraídas de passagens-chave nos documentos mais bem classificados.

QueryCaption

Um valor que especifica se as legendas devem ser devolvidas como parte da resposta da pesquisa. Este parâmetro só é válido se o tipo de consulta for "semântico". Se estiver definida, a consulta devolve legendas extraídas de passagens-chave nos documentos mais bem classificados. Quando a opção Legendas é "extrativa", o realce é ativado por predefinição. A predefinição é "none".

QueryType

Define valores para QueryType.

RegexFlags

Define sinalizadores para a correspondência de padrões regex

Valores conhecidos suportados pelo serviço

CANON_EQ: Ativa a equivalência canónica. CASE_INSENSITIVE: ativa a correspondência não sensível a maiúsculas e minúsculas. COMENTÁRIOS: permite espaços em branco e comentários no padrão. DOTALL: ativa o modo de dotall. LITERAL: ativa a análise literal do padrão. MULTILINE: ativa o modo de várias linhas. UNICODE_CASE: ativa a dobragem de casos com deteção Unicode. UNIX_LINES: ativa o modo de linhas Unix.

ResetIndexerOptions

Opções para a operação de reposição do indexador.

RunIndexerOptions

Opções para executar a operação do indexador.

ScoringFunction

Contém os possíveis casos de ScoringFunction.

ScoringFunctionAggregation

Define valores para ScoringFunctionAggregation.

ScoringFunctionInterpolation

Define valores para ScoringFunctionInterpolation.

ScoringStatistics

Define valores para ScoringStatistics.

SearchField

Representa um campo numa definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

SearchFieldArray

Se TModel for um objeto não escrito, uma matriz de cadeia não escrita Caso contrário, os campos delimitados por barra de TModel.

SearchFieldDataType

Define valores para SearchFieldDataType. Os valores possíveis incluem: "Edm.String", "Edm.Int32", "Edm.Int64", "Edm.Double", "Edm.Boolean", "Edm.DateTimeOffset", "Edm.GeographyPoint", 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)'

NB: Edm.Single por si só, não é um tipo de dados válido. Tem de ser utilizado como parte de um tipo de coleção.

SearchIndexerDataSourceType
SearchIndexerSkill

Contém os possíveis casos de Competência.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opções para SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opções para SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opções para SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opções para SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opções para SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Um iterador para os resultados de pesquisa de uma consulta paticular. Fará pedidos conforme necessário durante a iteração. Utilize .byPage() para fazer um pedido ao servidor por iteração.

SearchMode

Define valores para SearchMode.

SearchOptions

Opções para consolidar um pedido de pesquisa completo.

SearchPick

Escolha campos de T com caminhos de $select OData válidos do Cognitive Search.

SearchRequestOptions

Parâmetros para filtrar, ordenar, facetar, paginar e outros comportamentos de consulta de pesquisa.

SearchRequestQueryTypeOptions
SearchResult

Contém um documento encontrado por uma consulta de pesquisa, bem como metadados associados.

SelectArray

Se TFields nunca for, uma matriz de cadeia não escrita Caso contrário, um tipo restrito Fields[] a ser utilizado noutro local no tipo de consumo.

SelectFields

Produz uma união de caminhos OData de Pesquisa Cognitiva válidos $select caminhos para T através de um percurso pós-encomenda da árvore de campos enraizada em T.

SemanticErrorMode

parcial: se o processamento semântico falhar, os resultados parciais continuarão a ser devolvidos. A definição de resultados parciais depende do passo semântico que falhou e qual foi o motivo da falha.

falha: se existir uma exceção durante o passo de processamento semântico, a consulta falhará e devolverá o código HTTP adequado consoante o erro.

SemanticErrorReason

maxWaitExceeded: se "semanticMaxWaitInMilliseconds" foi definido e a duração do processamento semântico excedeu esse valor. Apenas os resultados base foram devolvidos.

capacityOverloaded: o pedido foi limitado. Apenas os resultados base foram devolvidos.

transitório: pelo menos um passo do processo semântico falhou.

SemanticSearchResultsType

baseResults: resultados sem qualquer melhoramento semântico ou reencaminhamento.

rerankedResults: os resultados foram reclassificados com o modelo de reranker e incluirão legendas semânticas. Não incluirão respostas, realces de respostas ou destaques legenda.

SentimentSkillLanguage

Define idiomas suportados para SentimentSkillKnownSentimentSkillLanguage pode ser utilizado alternadamente com este tipo

SimilarityAlgorithm

Contém os possíveis casos de Semelhança.

SnowballTokenFilterLanguage

Define valores para SnowballTokenFilterLanguage.

SplitSkillLanguage

Define idiomas suportados para SplitSkillKnownSplitSkillLanguage pode ser utilizado alternadamente com este tipo

StemmerTokenFilterLanguage

Define valores para StemmerTokenFilterLanguage.

StopwordsList

Define valores para StopwordsList.

SuggestNarrowedModel
SuggestOptions

Opções para obter sugestões com base no searchText.

SuggestResult

Um resultado que contém um documento encontrado por uma consulta de sugestão, além de metadados associados.

TextSplitMode
TextTranslationSkillLanguage

Define idiomas suportados para TextTranslationSkillKnownTextTranslationSkillLanguage pode ser utilizado alternadamente com este tipo

TokenCharacterKind

Define valores para TokenCharacterKind.

TokenFilter

Contém os casos possíveis para TokenFilter.

TokenFilterName

Define valores para TokenFilterName.
<xref:KnownTokenFilterName> pode ser utilizado alternadamente com TokenFilterName. Esta enumeração contém os valores conhecidos suportados pelo serviço.

Valores conhecidos suportados pelo serviço

arabic_normalization: um filtro de token que aplica o normalizador árabe para normalizar a ortografia. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apóstrofo: tira todos os carateres após um apóstrofo (incluindo o próprio apóstrofo). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: converte carateres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 carateres ASCII (o bloco Unicode "Basic Latin") nos respetivos equivalentes ASCII, se existirem esses equivalentes. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: forma bigrams de termos CJK que são gerados a partir do tokenizer padrão. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: Normaliza as diferenças de largura do CJK. Dobra variantes ASCII de largura completa no latim básico equivalente e variantes katakana de meia largura no Kana equivalente. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
clássico: remove possessivos ingleses e pontos de acrónimos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: construa bigrams para termos que ocorrem frequentemente durante a indexação. Os termos únicos também são indexados, com bigrams sobrepostos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: gera n-gramas do(s) tamanho(s) especificado(s) a partir da frente ou da parte de trás de um token de entrada. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (plano). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Normaliza os personagens alemães de acordo com a heurística do algoritmo de bola de neve German2. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: normaliza o texto em hindi para remover algumas diferenças nas variações ortográficas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normaliza a representação Unicode do texto em idiomas indianos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: emite cada token de entrada duas vezes, uma como palavra-chave e uma vez como palavra-chave não chave. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: um filtro de kstem de elevado desempenho para inglês. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
comprimento: remove palavras demasiado longas ou demasiado curtas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limite: limita o número de tokens durante a indexação. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
minúsculas: normaliza o texto do token para minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm
nGram_v2: gera n-gramas do(s) tamanho(s) especificado(s). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Aplica a normalização para persa. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonético: crie tokens para correspondências fonéticas. Veja https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: utiliza o algoritmo de detenção Porter para transformar o fluxo de tokens. Veja http://tartarus.org/~martin/PorterStemmer
reverse: inverte a cadeia de token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Normaliza a utilização dos personagens escandinavos intercambiáveis. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Dobra carateres escandinavos åÅäæÄÆ-a> e öÖøØ-o>. Também discrimina o uso de vogais duplas aa, ae, ao, oe e oo, deixando apenas a primeira. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
telha: cria combinações de tokens como um único token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
bola de neve: um filtro que escorria palavras usando um stemer gerado por bola de neve. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: Normaliza a representação Unicode do texto Sorani. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: filtro de decorrido específico da linguagem. Veja https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
palavras-de-fim: remove palavras de paragem de um fluxo de tokens. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
cortar: corta o espaço em branco à esquerda e à direita dos tokens. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
truncar: trunca os termos para um comprimento específico. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
exclusivo: filtra tokens com o mesmo texto do token anterior. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
maiúsculas: normaliza o texto do token para maiúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: divide palavras em sub-palavras e efetua transformações opcionais em grupos de sub-palavras.

UnionToIntersection
UploadDocumentsOptions

Opções para a operação de carregamento de documentos.

VectorFilterMode

Determina se os filtros são aplicados antes ou depois de a pesquisa de vetor ser executada.

VectorQuery

Os parâmetros de consulta para consultas de vetor e pesquisa híbrida.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contém opções de configuração específicas do algoritmo utilizado durante a indexação e/ou consulta.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

A métrica de semelhança a utilizar para comparações de vetores.

VisualFeature

Enumerações

KnownAnalyzerNames

Define valores para AnalyzerName. Veja https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownBlobIndexerDataToExtract

Valores conhecidos de BlobIndexerDataToExtract que o serviço aceita.

KnownBlobIndexerImageAction

Valores conhecidos de BlobIndexerImageAction que o serviço aceita.

KnownBlobIndexerPDFTextRotationAlgorithm

Valores conhecidos de BlobIndexerPDFTextRotationAlgorithm que o serviço aceita.

KnownBlobIndexerParsingMode

Valores conhecidos de BlobIndexerParsingMode que o serviço aceita.

KnownCharFilterNames

Valores conhecidos de CharFilterName que o serviço aceita.

KnownCustomEntityLookupSkillLanguage

Valores conhecidos de CustomEntityLookupSkillLanguage que o serviço aceita.

KnownEntityCategory

Valores conhecidos de EntityCategory que o serviço aceita.

KnownEntityRecognitionSkillLanguage

Valores conhecidos de EntityRecognitionSkillLanguage que o serviço aceita.

KnownImageAnalysisSkillLanguage

Valores conhecidos de ImageAnalysisSkillLanguage que o serviço aceita.

KnownImageDetail

Valores conhecidos de ImageDetail que o serviço aceita.

KnownKeyPhraseExtractionSkillLanguage

Valores conhecidos de KeyPhraseExtractionSkillLanguage que o serviço aceita.

KnownOcrSkillLanguage

Valores conhecidos de OcrSkillLanguage que o serviço aceita.

KnownRegexFlags

Valores conhecidos de RegexFlags que o serviço aceita.

KnownSearchAudience

Valores conhecidos para a Audiência de Pesquisa

KnownSearchIndexerDataSourceType

Valores conhecidos de SearchIndexerDataSourceType que o serviço aceita.

KnownSentimentSkillLanguage

Valores conhecidos de SentimentSkillLanguage que o serviço aceita.

KnownSplitSkillLanguage

Valores conhecidos de SplitSkillLanguage que o serviço aceita.

KnownTextSplitMode

Valores conhecidos de TextSplitMode que o serviço aceita.

KnownTextTranslationSkillLanguage

Valores conhecidos de TextTranslationSkillLanguage que o serviço aceita.

KnownTokenFilterNames

Valores conhecidos de TokenFilterName que o serviço aceita.

KnownTokenizerNames

Valores conhecidos de LexicalTokenizerName que o serviço aceita.

KnownVisualFeature

Valores conhecidos de VisualFeature que o serviço aceita.

Funções

createSynonymMapFromFile(string, string)

Método auxiliar para criar um objeto SynonymMap. Este é um método apenas NodeJS.

odata(TemplateStringsArray, unknown[])

Escapa a uma expressão de filtro odata para evitar erros com literais de cadeia de carateres de cotação. Utilização de exemplo:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obter mais informações sobre a sintaxe suportada, veja: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Detalhes de Função

createSynonymMapFromFile(string, string)

Método auxiliar para criar um objeto SynonymMap. Este é um método apenas NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parâmetros

name

string

Nome do SynonymMap.

filePath

string

Caminho do ficheiro que contém os Sinónimos (separados por novas linhas)

Devoluções

Promise<SynonymMap>

Objeto SynonymMap

odata(TemplateStringsArray, unknown[])

Escapa a uma expressão de filtro odata para evitar erros com literais de cadeia de carateres de cotação. Utilização de exemplo:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obter mais informações sobre a sintaxe suportada, veja: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parâmetros

strings

TemplateStringsArray

Matriz de cadeias para a expressão

values

unknown[]

Matriz de valores para a expressão

Devoluções

string