@azure/search-documents package
Classes
AzureKeyCredential |
Uma credencial baseada em chave estática que suporta a atualização do valor da chave subjacente. |
GeographyPoint |
Representa um ponto geográfico nas coordenadas globais. |
IndexDocumentsBatch |
Classe utilizada para realizar operações em lote com vários documentos para o índice. |
SearchClient |
Classe utilizada para realizar operações num índice de pesquisa, incluindo a consulta de documentos no índice, bem como a adição, atualização e remoção dos mesmos. |
SearchIndexClient |
Classe a executar operações para gerir (criar, atualizar, listar/eliminar) índices, & sinónimos. |
SearchIndexerClient |
Classe para realizar operações para gerir (criar, atualizar, listar/eliminar), origens de dados & conjuntos de competências. |
SearchIndexingBufferedSender |
Classe utilizada para realizar operações em memória intermédia num índice de pesquisa, incluindo adicionar, atualizar e remover. |
Interfaces
AnalyzeRequest |
Especifica alguns componentes de texto e análise utilizados para dividir esse texto em tokens. |
AnalyzeResult |
O resultado do teste de um analisador em texto. |
AnalyzedTokenInfo |
Informações sobre um token devolvido por um analisador. |
AsciiFoldingTokenFilter |
Converte carateres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 carateres ASCII (o bloco Unicode "Latim Básico") nos respetivos equivalentes ASCII, se existirem esses equivalentes. Este filtro de token é implementado com o Apache Lucene. |
AutocompleteItem |
O resultado dos pedidos de Conclusão Automática. |
AutocompleteRequest |
Parâmetros para correspondência difusa e outros comportamentos de consulta de conclusão automática. |
AutocompleteResult |
O resultado da consulta de Conclusão Automática. |
AzureActiveDirectoryApplicationCredentials |
Credenciais de uma aplicação registada criada para o seu serviço de pesquisa, utilizada para acesso autenticado às chaves de encriptação armazenadas no Azure Key Vault. |
BM25Similarity |
Função ranking baseada no algoritmo de semelhança Okapi BM25. BM25 é um algoritmo semelhante a TF-IDF que inclui a normalização do comprimento (controlada pelo parâmetro "b") bem como a saturação da frequência do termo (controlada pelo parâmetro "k1"). |
BaseCharFilter |
Tipo base para filtros de carateres. |
BaseCognitiveServicesAccount |
Tipo base para descrever qualquer recurso do serviço de IA do Azure anexado a um conjunto de competências. |
BaseDataChangeDetectionPolicy |
Tipo base para políticas de deteção de alteração de dados. |
BaseDataDeletionDetectionPolicy |
Tipo base para políticas de deteção de eliminação de dados. |
BaseLexicalAnalyzer |
Tipo base para analisadores. |
BaseLexicalTokenizer |
Tipo base para tokenizers. |
BaseScoringFunction |
Tipo base para funções que podem modificar as classificações dos documentos durante a classificação. |
BaseSearchIndexerSkill |
Tipo base para competências. |
BaseSearchRequestOptions |
Parâmetros para filtrar, ordenar, facetar, paginar e outros comportamentos de consulta de pesquisa. |
BaseTokenFilter |
Tipo base para filtros de tokens. |
BaseVectorQuery |
Os parâmetros de consulta para consultas de vetor e pesquisa híbrida. |
BaseVectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas do algoritmo utilizado durante a indexação e/ou consulta. |
CjkBigramTokenFilter |
Forma bigrams de termos CJK que são gerados a partir do tokenizer padrão. Este filtro de token é implementado com o Apache Lucene. |
ClassicSimilarity |
Algoritmo de semelhança legado que utiliza a implementação Lucene TFIDFSimilarity do TF-IDF. Esta variação do TF-IDF introduz a normalização do comprimento do documento estático, bem como fatores coordenados que penalizam documentos que apenas correspondem parcialmente às consultas pesquisadas. |
ClassicTokenizer |
Tokenizador baseado em gramática adequado para processar a maioria dos documentos de idioma europeu. Este tokenizador é implementado com o Apache Lucene. |
CognitiveServicesAccountKey |
Um recurso do serviço de IA do Azure aprovisionado com uma chave anexada a um conjunto de competências. |
CommonGramTokenFilter |
Construa bigrams para termos que ocorrem frequentemente durante a indexação. Os termos únicos também são indexados, com bigrams sobrepostos. Este filtro de token é implementado com o Apache Lucene. |
ComplexField |
Representa um campo numa definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
ConditionalSkill |
Uma competência que permite cenários que requerem uma operação Booleana para determinar os dados a atribuir a uma saída. |
CorsOptions |
Define opções para controlar a Partilha de Recursos De Várias Origens (CORS) para um índice. |
CreateOrUpdateIndexOptions |
Opções para criar/atualizar a operação de índice. |
CreateOrUpdateSkillsetOptions |
Opções para a operação de criação/atualização de conjuntos de competências. |
CreateOrUpdateSynonymMapOptions |
Opções para a operação de criação/atualização de sinónimos. |
CreateorUpdateDataSourceConnectionOptions |
Opções para criar/atualizar a operação de origem de dados. |
CreateorUpdateIndexerOptions |
Opções para a operação de criação/atualização do indexador. |
CustomAnalyzer |
Permite-lhe assumir o controlo do processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo utilizador que consiste num único tokenizador predefinido e um ou mais filtros. O tokenizer é responsável por dividir o texto em tokens e os filtros para modificar tokens emitidos pelo tokenizer. |
CustomEntity |
Um objeto que contém informações sobre as correspondências encontradas e metadados relacionados. |
CustomEntityAlias |
Um objeto complexo que pode ser utilizado para especificar ortografias alternativas ou sinónimos para o nome da entidade raiz. |
CustomEntityLookupSkill |
Uma competência procura texto de uma lista personalizada e definida pelo utilizador de palavras e expressões. |
DefaultCognitiveServicesAccount |
Um objeto vazio que representa o recurso predefinido do serviço de IA do Azure para um conjunto de competências. |
DeleteDataSourceConnectionOptions |
Opções para eliminar a operação de origem de dados. |
DeleteIndexOptions |
Opções para eliminar a operação de índice. |
DeleteIndexerOptions |
Opções para eliminar a operação do indexador. |
DeleteSkillsetOptions |
Opções para eliminar operações de conjuntos de competências. |
DeleteSynonymMapOptions |
Opções para eliminar a operação de synonymmap. |
DictionaryDecompounderTokenFilter |
Decompõe palavras compostas encontradas em muitas línguas germânicas. Este filtro de token é implementado com o Apache Lucene. |
DistanceScoringFunction |
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica. |
DistanceScoringParameters |
Fornece valores de parâmetros para uma função de classificação à distância. |
DocumentExtractionSkill |
Uma competência que extrai conteúdo de um ficheiro dentro do pipeline de melhoramento. |
EdgeNGramTokenFilter |
Gera n-gramas dos tamanhos especificados a partir da frente ou na parte traseira de um token de entrada. Este filtro de token é implementado com o Apache Lucene. |
EdgeNGramTokenizer |
Tokeniza a entrada de uma extremidade em n-gramas dos tamanhos especificados. Este tokenizador é implementado com o Apache Lucene. |
ElisionTokenFilter |
Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (plano). Este filtro de token é implementado com o Apache Lucene. |
EntityLinkingSkill |
Com a API de Análise de Texto, extrai entidades ligadas do texto. |
EntityRecognitionSkill |
Reconhecimento de entidades de análise de texto. |
EntityRecognitionSkillV3 |
Com a API Análise de Texto, extrai entidades de diferentes tipos de texto. |
ExhaustiveKnnParameters |
Contém os parâmetros específicos do algoritmo KNN exaustivo. |
ExtractiveQueryAnswer |
Extrai os candidatos de resposta dos conteúdos dos documentos devolvidos em resposta a uma consulta expressa como uma pergunta em linguagem natural. |
ExtractiveQueryCaption |
Extrai legendas dos documentos correspondentes que contêm passagens relevantes para a consulta de pesquisa. |
FacetResult |
Um único registo de um resultado de consulta faceta. Comunica o número de documentos com um valor de campo dentro de um intervalo específico ou com um determinado valor ou intervalo. |
FieldMapping |
Define um mapeamento entre um campo numa origem de dados e um campo de destino num índice. |
FieldMappingFunction |
Representa uma função que transforma um valor de uma origem de dados antes da indexação. |
FreshnessScoringFunction |
Define uma função que aumenta as pontuações com base no valor de um campo de data/hora. |
FreshnessScoringParameters |
Fornece valores de parâmetros para uma função de classificação de frescura. |
GetDocumentOptions |
Opções para obter um único documento. |
HighWaterMarkChangeDetectionPolicy |
Define uma política de deteção de alterações de dados que captura alterações com base no valor de uma coluna de marca de água elevada. |
HnswParameters |
Contém os parâmetros específicos do algoritmo hnsw. |
ImageAnalysisSkill |
Uma competência que analisa ficheiros de imagem. Extrai um conjunto avançado de funcionalidades visuais com base no conteúdo da imagem. |
IndexDocumentsClient |
Indexar Documentos Cliente |
IndexDocumentsOptions |
Opções para a operação modificar o lote de índice. |
IndexDocumentsResult |
Resposta que contém o estado das operações para todos os documentos no pedido de indexação. |
IndexerExecutionResult |
Representa o resultado de uma execução individual do indexador. |
IndexingParameters |
Representa parâmetros para a execução do indexador. |
IndexingParametersConfiguration |
Um dicionário de propriedades de configuração específicas do indexador. Cada nome é o nome de uma propriedade específica. Cada valor tem de ser de um tipo primitivo. |
IndexingResult |
Estado de uma operação de indexação para um único documento. |
IndexingSchedule |
Representa uma agenda para a execução do indexador. |
InputFieldMappingEntry |
Mapeamento de campos de entrada para uma competência. |
KeepTokenFilter |
Um filtro de token que apenas mantém tokens com texto contido numa lista especificada de palavras. Este filtro de token é implementado com o Apache Lucene. |
KeyPhraseExtractionSkill |
Uma competência que utiliza a análise de texto para a extração de expressões-chave. |
KeywordMarkerTokenFilter |
Marca os termos como palavras-chave. Este filtro de token é implementado com o Apache Lucene. |
KeywordTokenizer |
Emite toda a entrada como um único token. Este tokenizador é implementado com o Apache Lucene. |
LanguageDetectionSkill |
Uma competência que deteta o idioma do texto de entrada e comunica um único código de idioma para cada documento submetido no pedido. O código de idioma é emparelhado com uma classificação que indica a confiança da análise. |
LengthTokenFilter |
Remove palavras demasiado longas ou demasiado curtas. Este filtro de token é implementado com o Apache Lucene. |
LimitTokenFilter |
Limita o número de tokens durante a indexação. Este filtro de token é implementado com o Apache Lucene. |
ListSearchResultsPageSettings |
Argumentos para obter a página seguinte dos resultados da pesquisa. |
LuceneStandardAnalyzer |
Analisador Standard do Apache Lucene; Composto pelo tokenizador padrão, filtro em minúsculas e filtro de paragem. |
LuceneStandardTokenizer |
Quebra o texto ao seguir as regras de Segmentação de Texto Unicode. Este tokenizador é implementado com o Apache Lucene. |
MagnitudeScoringFunction |
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico. |
MagnitudeScoringParameters |
Fornece valores de parâmetros para uma função de classificação de magnitude. |
MappingCharFilter |
Um filtro de carateres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (o padrão mais longo que corresponde a um determinado ponto ganha). A substituição pode ser a cadeia vazia. Este filtro de carateres é implementado com o Apache Lucene. |
MergeSkill |
Uma competência para unir duas ou mais cadeias numa única cadeia unificada, com um delimitador opcional definido pelo utilizador a separar cada parte do componente. |
MicrosoftLanguageStemmingTokenizer |
Divide o texto com regras específicas do idioma e reduz as palavras aos formulários base. |
MicrosoftLanguageTokenizer |
Divide o texto com regras específicas do idioma. |
NGramTokenFilter |
Gera n-gramas dos tamanhos especificados. Este filtro de token é implementado com o Apache Lucene. |
NGramTokenizer |
Tokeniza a entrada em n-gramas dos tamanhos especificados. Este tokenizador é implementado com o Apache Lucene. |
OcrSkill |
Uma competência que extrai texto de ficheiros de imagem. |
OutputFieldMappingEntry |
Mapeamento de campos de saída para uma competência. |
PIIDetectionSkill |
Com a API Análise de Texto, extrai informações pessoais de um texto de entrada e dá-lhe a opção de mascará-las. |
PathHierarchyTokenizer |
Tokenizer para hierarquias semelhantes a caminhos. Este tokenizador é implementado com o Apache Lucene. |
PatternAnalyzer |
Separa flexívelmente o texto em termos através de um padrão de expressão normal. Este analisador é implementado com o Apache Lucene. |
PatternCaptureTokenFilter |
Utiliza regexes Java para emitir vários tokens - um para cada grupo de captura num ou mais padrões. Este filtro de token é implementado com o Apache Lucene. |
PatternReplaceCharFilter |
Um filtro de carateres que substitui carateres na cadeia de entrada. Utiliza uma expressão regular para identificar sequências de carateres para preservar e um padrão de substituição para identificar carateres a substituir. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de carateres é implementado com o Apache Lucene. |
PatternReplaceTokenFilter |
Um filtro de carateres que substitui carateres na cadeia de entrada. Utiliza uma expressão regular para identificar sequências de carateres para preservar e um padrão de substituição para identificar carateres a substituir. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado com o Apache Lucene. |
PatternTokenizer |
Tokenizer que utiliza a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado com o Apache Lucene. |
PhoneticTokenFilter |
Criar tokens para correspondências fonéticas. Este filtro de token é implementado com o Apache Lucene. |
QueryAnswerResult |
Uma resposta é uma passagem de texto extraída do conteúdo dos documentos mais relevantes que correspondem à consulta. As respostas são extraídas dos principais resultados da pesquisa. Os candidatos às respostas são classificados e as principais respostas estão selecionadas. |
QueryCaptionResult |
As legendas são as passagens mais representativas do documento relativamente para a consulta de pesquisa. São frequentemente utilizados como resumo do documento. As legendas só são devolvidas para consultas do tipo |
ResourceCounter |
Representa a utilização e quota de um recurso. |
ScoringProfile |
Define parâmetros para um índice de pesquisa que influencia a classificação em consultas de pesquisa. |
SearchClientOptions |
Opções de cliente utilizadas para configurar pedidos de API do Cognitive Search. |
SearchDocumentsPageResult |
Resposta que contém os resultados da página de pesquisa de um índice. |
SearchDocumentsResult |
Resposta que contém resultados de pesquisa de um índice. |
SearchDocumentsResultBase |
Resposta que contém resultados de pesquisa de um índice. |
SearchIndex |
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice. |
SearchIndexClientOptions |
Opções de cliente utilizadas para configurar pedidos de API do Cognitive Search. |
SearchIndexStatistics |
Estatísticas de um determinado índice. As estatísticas são recolhidas periodicamente e não é garantido que estejam sempre atualizadas. |
SearchIndexer |
Representa um indexador. |
SearchIndexerClientOptions |
Opções de cliente utilizadas para configurar pedidos de API do Cognitive Search. |
SearchIndexerDataContainer |
Representa informações sobre a entidade (como SQL do Azure tabela ou coleção do CosmosDB) que serão indexadas. |
SearchIndexerDataSourceConnection |
Representa uma definição de origem de dados, que pode ser utilizada para configurar um indexador. |
SearchIndexerError |
Representa um erro de indexação ao nível do item ou do documento. |
SearchIndexerKnowledgeStore |
Definição de projeções adicionais para blobs, tabelas ou ficheiros do Azure de dados melhorados. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Classe abstrata para partilhar propriedades entre seletores de betão. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definição de projeção para que dados armazenar no Ficheiros do Azure. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definição de projeção para que dados armazenar no Blob do Azure. |
SearchIndexerKnowledgeStoreProjection |
Objeto de contentor para vários seletores de projeção. |
SearchIndexerKnowledgeStoreProjectionSelector |
Classe abstrata para partilhar propriedades entre seletores de betão. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Descrição dos dados a armazenar nas Tabelas do Azure. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Uma lista de competências. |
SearchIndexerStatus |
Representa o estado atual e o histórico de execuções de um indexador. |
SearchIndexerWarning |
Representa um aviso ao nível do item. |
SearchIndexingBufferedSenderOptions |
Opções para SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Uma chave de encriptação gerida pelo cliente no Azure Key Vault. As chaves que cria e gere podem ser utilizadas para encriptar ou desencriptar dados inativos em Azure Cognitive Search, como índices e mapas de sinónimos. |
SearchServiceStatistics |
Resposta de um pedido de estatísticas de serviço get. Se for bem-sucedido, inclui contadores e limites de nível de serviço. |
SearchSuggester |
Define como a API Suggest deve ser aplicada a um grupo de campos no índice. |
SemanticConfiguration |
Define uma configuração específica a ser utilizada no contexto das capacidades semânticas. |
SemanticField |
Um campo que é utilizado como parte da configuração semântica. |
SemanticPrioritizedFields |
Descreve os campos de título, conteúdo e palavras-chave a utilizar para classificação semântica, legendas, destaques e respostas. |
SemanticSearch |
Define parâmetros para um índice de pesquisa que influenciam as capacidades semânticas. |
SemanticSearchOptions |
Define opções para consultas de pesquisa semântica |
SentimentSkill |
Análise de sentimento positivo-negativo da análise de texto, classificada como um valor de vírgula flutuante num intervalo de zero a 1. |
SentimentSkillV3 |
A utilização da API Análise de Texto, avalia o texto não estruturado e, para cada registo, fornece etiquetas de sentimento (como "negativo", "neutro" e "positivo") com base na classificação de confiança mais elevada encontrada pelo serviço a uma frase e ao nível do documento. |
ServiceCounters |
Representa quotas e contadores de recursos ao nível do serviço. |
ServiceLimits |
Representa vários limites de nível de serviço. |
ShaperSkill |
Uma habilidade para remodelar as saídas. Cria um tipo complexo para suportar campos compostos (também conhecidos como campos multipart). |
ShingleTokenFilter |
Cria combinações de tokens como um único token. Este filtro de token é implementado com o Apache Lucene. |
Similarity |
Tipo base para algoritmos de semelhança. Os algoritmos de semelhança são utilizados para calcular pontuações que ligam consultas a documentos. Quanto maior for a classificação, mais relevante será o documento para essa consulta específica. Essas classificações são utilizadas para classificar os resultados da pesquisa. |
SimpleField |
Representa um campo numa definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
SnowballTokenFilter |
Um filtro que escorria palavras utilizando um stemer gerado por bola de neve. Este filtro de token é implementado com o Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Define uma política de deteção de eliminação de dados que implementa uma estratégia de eliminação recuperável. Determina se um item deve ser eliminado com base no valor de uma coluna designada "eliminação recuperável". |
SplitSkill |
Uma competência para dividir uma cadeia em segmentos de texto. |
SqlIntegratedChangeTrackingPolicy |
Define uma política de deteção de alteração de dados que captura alterações com a funcionalidade Controlo de Alterações Integrada da Base de Dados SQL do Azure. |
StemmerOverrideTokenFilter |
Fornece a capacidade de substituir outros filtros de detenção por descrições personalizadas baseadas em dicionários. Quaisquer termos sem dicionário serão marcados como palavras-chave para que não sejam gerados com os stemmers na cadeia. Tem de ser colocado antes de quaisquer filtros de deteção. Este filtro de token é implementado com o Apache Lucene. |
StemmerTokenFilter |
Filtro de decorrido específico da linguagem. Este filtro de token é implementado com o Apache Lucene. |
StopAnalyzer |
Divide o texto em não letras; Aplica os filtros de token em minúsculas e de palavra-passe. Este analisador é implementado com o Apache Lucene. |
StopwordsTokenFilter |
Remove palavras paradas de um fluxo de tokens. Este filtro de token é implementado com o Apache Lucene. |
SuggestDocumentsResult |
Resposta que contém resultados de consulta de sugestões de um índice. |
SuggestRequest |
Parâmetros para filtragem, ordenação, correspondência difusa e outros comportamentos de consulta de sugestões. |
SynonymMap |
Representa uma definição de mapa de sinónimos. |
SynonymTokenFilter |
Corresponde a sinónimos de uma ou várias palavras num fluxo de tokens. Este filtro de token é implementado com o Apache Lucene. |
TagScoringFunction |
Define uma função que aumenta as pontuações de documentos com valores de cadeia que correspondem a uma determinada lista de etiquetas. |
TagScoringParameters |
Fornece valores de parâmetros para uma função de classificação de etiquetas. |
TextTranslationSkill |
Uma competência para traduzir texto de um idioma para outro. |
TextWeights |
Define os pesos nos campos de índice para os quais as correspondências devem aumentar a classificação nas consultas de pesquisa. |
TruncateTokenFilter |
Trunca os termos para um comprimento específico. Este filtro de token é implementado com o Apache Lucene. |
UaxUrlEmailTokenizer |
Tokens urls e e-mails como um token. Este tokenizador é implementado com o Apache Lucene. |
UniqueTokenFilter |
Filtra tokens com o mesmo texto que o token anterior. Este filtro de token é implementado com o Apache Lucene. |
VectorSearch |
Contém opções de configuração relacionadas com a pesquisa de vetores. |
VectorSearchOptions |
Define opções para consultas de pesquisa de vetores |
VectorSearchProfile |
Define uma combinação de configurações a utilizar com a pesquisa de vetores. |
VectorizedQuery |
Os parâmetros de consulta a utilizar para pesquisa de vetores quando é fornecido um valor de vetor não processado. |
WebApiSkill |
Uma competência que pode chamar um ponto final da API Web, permitindo-lhe expandir um conjunto de competências ao fazer com que este chame o seu código personalizado. |
WordDelimiterTokenFilter |
Divide palavras em sub-palavras e efetua transformações opcionais em grupos de sub-palavras. Este filtro de token é implementado com o Apache Lucene. |
Aliases de Tipo
AnalyzeTextOptions |
Opções para analisar a operação de texto. |
AutocompleteMode |
Define valores para AutocompleteMode. |
AutocompleteOptions |
Opções para obter texto de conclusão para um searchText parcial. |
BlobIndexerDataToExtract |
Valores conhecidos suportados pelo serviçostorageMetadata: indexa apenas as propriedades de blob padrão e os metadados especificados pelo utilizador. allMetadata: extrai os metadados fornecidos pelo subsistema de armazenamento de blobs do Azure e os metadados específicos do tipo de conteúdo (por exemplo, metadados exclusivos apenas para .png ficheiros são indexados). contentAndMetadata: extrai todos os metadados e conteúdos textuais de cada blob. |
BlobIndexerImageAction |
Valores conhecidos suportados pelo serviçonenhum: ignora imagens incorporadas ou ficheiros de imagem no conjunto de dados. Esta é a predefinição. generateNormalizedImages: extrai texto de imagens (por exemplo, a palavra "PARAR" de um sinal de paragem de tráfego) e incorpora-o no campo de conteúdo. Esta ação requer que "dataToExtract" esteja definido como "contentAndMetadata". Uma imagem normalizada refere-se ao processamento adicional que resulta numa saída de imagem uniforme, dimensionada e rodada para promover uma composição consistente quando inclui imagens nos resultados da pesquisa visual. Estas informações são geradas para cada imagem quando utiliza esta opção. generateNormalizedImagePerPage: extrai texto de imagens (por exemplo, a palavra "PARAR" de um sinal de paragem de tráfego) e incorpora-o no campo de conteúdo, mas trata os ficheiros PDF de forma diferente na medida em que cada página será composta como uma imagem e normalizada em conformidade, em vez de extrair imagens incorporadas. Os tipos de ficheiro não PDF serão tratados da mesma forma que "generateNormalizedImages" foi definido. |
BlobIndexerPDFTextRotationAlgorithm |
Valores conhecidos suportados pelo serviçonenhum: tira partido da extração de texto normal. Esta é a predefinição. detectAngles: pode produzir uma extração de texto melhor e mais legível a partir de ficheiros PDF com texto rodado dentro dos mesmos. Tenha em atenção que pode haver um pequeno impacto na velocidade de desempenho quando este parâmetro é utilizado. Este parâmetro aplica-se apenas a ficheiros PDF e apenas a PDFs com texto incorporado. Se o texto rodado aparecer numa imagem incorporada no PDF, este parâmetro não se aplica. |
BlobIndexerParsingMode |
Valores conhecidos suportados pelo serviçopredefinição: defina como predefinição para o processamento normal de ficheiros. texto: defina como texto para melhorar o desempenho da indexação em ficheiros de texto simples no armazenamento de blobs. delimitadoTexto: defina como delimitadoTexto quando os blobs são ficheiros CSV simples. json: defina como json para extrair conteúdo estruturado de ficheiros JSON. jsonArray: defina como jsonArray para extrair elementos individuais de uma matriz JSON como documentos separados no Azure Cognitive Search. jsonLines: defina como jsonLines para extrair entidades JSON individuais, separadas por uma nova linha, como documentos separados no Azure Cognitive Search. |
CharFilter |
Contém os possíveis casos de CharFilter. |
CharFilterName |
Define valores para CharFilterName. Valores conhecidos suportados pelo serviçohtml_strip: um filtro de carateres que tenta remover construções HTML. Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Define valores para CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Contém os possíveis casos para CognitiveServicesAccount. |
ComplexDataType |
Define valores para ComplexDataType. Os valores possíveis incluem: "Edm.ComplexType", "Collection(Edm.ComplexType)" |
CountDocumentsOptions |
Opções para executar a operação de contagem no índice. |
CreateDataSourceConnectionOptions |
Opções para criar a operação de origem de dados. |
CreateIndexOptions |
Opções para criar operação de índice. |
CreateIndexerOptions |
Opções para criar operação de indexador. |
CreateSkillsetOptions |
Opções para criar operação de conjunto de competências. |
CreateSynonymMapOptions |
Opções para criar operação de mapa de sinónimos. |
CustomEntityLookupSkillLanguage |
Define idiomas suportados para CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage pode ser utilizado alternadamente com este tipo |
DataChangeDetectionPolicy |
Contém os casos possíveis para DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Contém os casos possíveis para DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Opções para a operação eliminar documentos. |
EdgeNGramTokenFilterSide |
Define valores para EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage |
Define idiomas suportados para EntityRecognitionSkillKnownEntityRecognitionSkillLanguage pode ser utilizado alternadamente com este tipo |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Contém opções de configuração específicas do algoritmo KNN exaustivo utilizado durante a consulta, o que irá realizar uma pesquisa de força bruta em todo o índice de vetor. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Opções para obter a operação de origem de dados. |
GetIndexOptions |
Opções para obter a operação de índice. |
GetIndexStatisticsOptions |
Opções para obter a operação de estatísticas de índice. |
GetIndexerOptions |
Opções para obter a operação do indexador. |
GetIndexerStatusOptions |
Opções para obter a operação de estado do indexador. |
GetServiceStatisticsOptions |
Opções para obter a operação de estatísticas de serviço. |
GetSkillSetOptions |
Opções para obter a operação de conjunto de competências. |
GetSynonymMapsOptions |
Opções para obter a operação de sinónimos. |
HnswAlgorithmConfiguration |
Contém opções de configuração específicas do algoritmo hnsw aproximado dos vizinhos mais próximos utilizado durante o tempo de indexação. |
ImageAnalysisSkillLanguage |
Define idiomas suportados para ImageAnalysisSkillKnownImageAnalysisSkillLanguage pode ser utilizado alternadamente com este tipo |
ImageDetail | |
IndexActionType |
Define valores para IndexActionType. |
IndexDocumentsAction |
Representa uma ação de índice que funciona num documento. |
IndexIterator |
Um iterador para listar os índices que existem no Serviço de pesquisa. Fará os pedidos conforme necessário durante a iteração. Utilize .byPage() para fazer um pedido ao servidor por iteração. |
IndexNameIterator |
Um iterador para listar os índices que existem no Serviço de pesquisa. Fará os pedidos conforme necessário durante a iteração. Utilize .byPage() para fazer um pedido ao servidor por iteração. |
IndexerExecutionEnvironment |
Valores conhecidos suportados pelo serviçopadrão: indica que Azure Cognitive Search pode determinar onde o indexador deve ser executado. Este é o ambiente predefinido quando nada é especificado e é o valor recomendado. private: indica que o indexador deve ser executado com o ambiente aprovisionado especificamente para o serviço de pesquisa. Isto só deve ser especificado como o ambiente de execução se o indexador precisar de aceder aos recursos de forma segura através de recursos de ligação privada partilhados. |
IndexerExecutionStatus |
Define valores para IndexerExecutionStatus. |
IndexerStatus |
Define valores para IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Define idiomas suportados para KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage pode ser utilizado alternadamente com este tipo |
LexicalAnalyzer |
Contém os casos possíveis para o Analyzer. |
LexicalAnalyzerName |
Define valores para LexicalAnalyzerName. Valores conhecidos suportados pelo serviçoar.microsoft: Analisador da Microsoft para árabe. |
LexicalTokenizer |
Contém os casos possíveis para Tokenizer. |
LexicalTokenizerName |
Define valores para LexicalTokenizerName. Valores conhecidos suportados pelo serviçoclássico: tokenizador baseado em gramática adequado para processar a maioria dos documentos em linguagem europeia. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Opções para uma operação de origens de dados de lista. |
ListIndexersOptions |
Opções para uma operação de indexadores de lista. |
ListIndexesOptions |
Opções para uma operação de índices de lista. |
ListSkillsetsOptions |
Opções para uma operação de conjuntos de competências de lista. |
ListSynonymMapsOptions |
Opções para uma operação de sinónimo de listaMaps. |
MergeDocumentsOptions |
Opções para a operação de impressão em série de documentos. |
MergeOrUploadDocumentsOptions |
Opções para a operação de impressão em série ou carregamento de documentos. |
MicrosoftStemmingTokenizerLanguage |
Define valores para MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Define valores para MicrosoftTokenizerLanguage. |
NarrowedModel |
Restringe o tipo de Modelo para incluir apenas os Campos selecionados |
OcrSkillLanguage |
Define idiomas suportados para OcrSkillKnownOcrSkillLanguage pode ser utilizado alternadamente com este tipo |
PIIDetectionSkillMaskingMode |
Define valores para PIIDetectionSkillMaskingMode. Valores conhecidos suportados pelo serviçonenhum: não ocorre nenhuma máscara e a saída maskedText não será devolvida. substituir: substitui as entidades detetadas pelo caráter indicado no parâmetro maskingCharacter. O caráter será repetido ao comprimento da entidade detetada para que os desvios correspondam corretamente ao texto de entrada, bem como ao texto mascarado de saída. |
PhoneticEncoder |
Define valores para PhoneticEncoder. |
QueryAnswer |
Um valor que especifica se as respostas devem ser devolvidas como parte da resposta de pesquisa.
Este parâmetro só é válido se o tipo de consulta for "semântico". Se estiver definida como |
QueryCaption |
Um valor que especifica se as legendas devem ser devolvidas como parte da resposta da pesquisa. Este parâmetro só é válido se o tipo de consulta for "semântico". Se estiver definida, a consulta devolve legendas extraídas de passagens-chave nos documentos mais bem classificados. Quando a opção Legendas é "extrativa", o realce é ativado por predefinição. A predefinição é "none". |
QueryType |
Define valores para QueryType. |
RegexFlags |
Define sinalizadores para a correspondência de padrões regex Valores conhecidos suportados pelo serviçoCANON_EQ: Ativa a equivalência canónica. CASE_INSENSITIVE: ativa a correspondência não sensível a maiúsculas e minúsculas. COMENTÁRIOS: permite espaços em branco e comentários no padrão. DOTALL: ativa o modo de dotall. LITERAL: ativa a análise literal do padrão. MULTILINE: ativa o modo de várias linhas. UNICODE_CASE: ativa a dobragem de casos com deteção Unicode. UNIX_LINES: ativa o modo de linhas Unix. |
ResetIndexerOptions |
Opções para a operação de reposição do indexador. |
RunIndexerOptions |
Opções para executar a operação do indexador. |
ScoringFunction |
Contém os possíveis casos de ScoringFunction. |
ScoringFunctionAggregation |
Define valores para ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Define valores para ScoringFunctionInterpolation. |
ScoringStatistics |
Define valores para ScoringStatistics. |
SearchField |
Representa um campo numa definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
SearchFieldArray |
Se |
SearchFieldDataType |
Define valores para SearchFieldDataType. Os valores possíveis incluem: "Edm.String", "Edm.Int32", "Edm.Int64", "Edm.Double", "Edm.Boolean", "Edm.DateTimeOffset", "Edm.GeographyPoint", 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)' NB: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Contém os possíveis casos de Competência. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opções para SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Opções para SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Opções para SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opções para SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Opções para SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Um iterador para os resultados de pesquisa de uma consulta paticular. Fará pedidos conforme necessário durante a iteração. Utilize .byPage() para fazer um pedido ao servidor por iteração. |
SearchMode |
Define valores para SearchMode. |
SearchOptions |
Opções para consolidar um pedido de pesquisa completo. |
SearchPick |
Escolha campos de T com caminhos de $select OData válidos do Cognitive Search. |
SearchRequestOptions |
Parâmetros para filtrar, ordenar, facetar, paginar e outros comportamentos de consulta de pesquisa. |
SearchRequestQueryTypeOptions | |
SearchResult |
Contém um documento encontrado por uma consulta de pesquisa, bem como metadados associados. |
SelectArray |
Se |
SelectFields |
Produz uma união de caminhos OData de Pesquisa Cognitiva válidos $select caminhos para T através de um percurso pós-encomenda da árvore de campos enraizada em T. |
SemanticErrorMode |
parcial: se o processamento semântico falhar, os resultados parciais continuarão a ser devolvidos. A definição de resultados parciais depende do passo semântico que falhou e qual foi o motivo da falha. falha: se existir uma exceção durante o passo de processamento semântico, a consulta falhará e devolverá o código HTTP adequado consoante o erro. |
SemanticErrorReason |
maxWaitExceeded: se "semanticMaxWaitInMilliseconds" foi definido e a duração do processamento semântico excedeu esse valor. Apenas os resultados base foram devolvidos. capacityOverloaded: o pedido foi limitado. Apenas os resultados base foram devolvidos. transitório: pelo menos um passo do processo semântico falhou. |
SemanticSearchResultsType |
baseResults: resultados sem qualquer melhoramento semântico ou reencaminhamento. rerankedResults: os resultados foram reclassificados com o modelo de reranker e incluirão legendas semânticas. Não incluirão respostas, realces de respostas ou destaques legenda. |
SentimentSkillLanguage |
Define idiomas suportados para SentimentSkillKnownSentimentSkillLanguage pode ser utilizado alternadamente com este tipo |
SimilarityAlgorithm |
Contém os possíveis casos de Semelhança. |
SnowballTokenFilterLanguage |
Define valores para SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Define idiomas suportados para SplitSkillKnownSplitSkillLanguage pode ser utilizado alternadamente com este tipo |
StemmerTokenFilterLanguage |
Define valores para StemmerTokenFilterLanguage. |
StopwordsList |
Define valores para StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Opções para obter sugestões com base no searchText. |
SuggestResult |
Um resultado que contém um documento encontrado por uma consulta de sugestão, além de metadados associados. |
TextSplitMode | |
TextTranslationSkillLanguage |
Define idiomas suportados para TextTranslationSkillKnownTextTranslationSkillLanguage pode ser utilizado alternadamente com este tipo |
TokenCharacterKind |
Define valores para TokenCharacterKind. |
TokenFilter |
Contém os casos possíveis para TokenFilter. |
TokenFilterName |
Define valores para TokenFilterName. Valores conhecidos suportados pelo serviçoarabic_normalization: um filtro de token que aplica o normalizador árabe para normalizar a ortografia. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Opções para a operação de carregamento de documentos. |
VectorFilterMode |
Determina se os filtros são aplicados antes ou depois de a pesquisa de vetor ser executada. |
VectorQuery |
Os parâmetros de consulta para consultas de vetor e pesquisa híbrida. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas do algoritmo utilizado durante a indexação e/ou consulta. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
A métrica de semelhança a utilizar para comparações de vetores. |
VisualFeature |
Enumerações
Funções
create |
Método auxiliar para criar um objeto SynonymMap. Este é um método apenas NodeJS. |
odata(Template |
Escapa a uma expressão de filtro odata para evitar erros com literais de cadeia de carateres de cotação. Utilização de exemplo:
Para obter mais informações sobre a sintaxe suportada, veja: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Detalhes de Função
createSynonymMapFromFile(string, string)
Método auxiliar para criar um objeto SynonymMap. Este é um método apenas NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parâmetros
- name
-
string
Nome do SynonymMap.
- filePath
-
string
Caminho do ficheiro que contém os Sinónimos (separados por novas linhas)
Devoluções
Promise<SynonymMap>
Objeto SynonymMap
odata(TemplateStringsArray, unknown[])
Escapa a uma expressão de filtro odata para evitar erros com literais de cadeia de carateres de cotação. Utilização de exemplo:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Para obter mais informações sobre a sintaxe suportada, veja: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parâmetros
- strings
-
TemplateStringsArray
Matriz de cadeias para a expressão
- values
-
unknown[]
Matriz de valores para a expressão
Devoluções
string