@azure/search-documents package
Classes
AzureKeyCredential |
Uma credencial baseada em chave estática que dá suporte à atualização do valor da chave subjacente. |
GeographyPoint |
Representa um ponto geográfico em coordenadas globais. |
IndexDocumentsBatch |
Classe usada para executar operações em lote com vários documentos para o índice. |
SearchClient |
Classe usada para executar operações em um índice de pesquisa, incluindo consultar documentos no índice, bem como adicioná-los, atualizá-los e removê-los. |
SearchIndexClient |
Classe para executar operações para gerenciar índices (criar, atualizar, listar/excluir) & sinônimos. |
SearchIndexerClient |
Classe para executar operações para gerenciar indexadores (criar, atualizar, listar/excluir), fontes de dados & conjuntos de habilidades. |
SearchIndexingBufferedSender |
Classe usada para executar operações em buffer em um índice de pesquisa, incluindo adição, atualização e remoção delas. |
Interfaces
AnalyzeRequest |
Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens. |
AnalyzeResult |
O resultado do teste de um analisador no texto. |
AnalyzedTokenInfo |
Informações sobre um token retornado por um analisador. |
AsciiFoldingTokenFilter |
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico" em seus equivalentes ASCII, se esses equivalentes existirem. Esse filtro de token é implementado usando o Apache Lucene. |
AutocompleteItem |
O resultado das solicitações de preenchimento automático. |
AutocompleteRequest |
Parâmetros para correspondência difusa e outros comportamentos de consulta de preenchimento automático. |
AutocompleteResult |
O resultado da consulta de preenchimento automático. |
AzureActiveDirectoryApplicationCredentials |
Credenciais de um aplicativo registrado criado para seu serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Azure Key Vault. |
BM25Similarity |
Função de classificação com base no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1'). |
BaseCharFilter |
Tipo base para filtros de caracteres. |
BaseCognitiveServicesAccount |
Tipo base para descrever qualquer recurso de serviço de IA do Azure anexado a um conjunto de habilidades. |
BaseDataChangeDetectionPolicy |
Tipo base para políticas de detecção de alterações de dados. |
BaseDataDeletionDetectionPolicy |
Tipo base para políticas de detecção de exclusão de dados. |
BaseLexicalAnalyzer |
Tipo base para analisadores. |
BaseLexicalTokenizer |
Tipo base para criadores de token. |
BaseScoringFunction |
Tipo base para funções que podem modificar as pontuações do documento durante a classificação. |
BaseSearchIndexerSkill |
Tipo base para habilidades. |
BaseSearchRequestOptions |
Parâmetros para filtragem, classificação, faceta, paginação e outros comportamentos de consulta de pesquisa. |
BaseTokenFilter |
Tipo base para filtros de token. |
BaseVectorQuery |
Os parâmetros de consulta para consultas de pesquisa híbrida e vetor. |
BaseVectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta. |
CjkBigramTokenFilter |
Forma bigrams de termos CJK gerados do criador de token padrão. Esse filtro de token é implementado usando o Apache Lucene. |
ClassicSimilarity |
Algoritmo de similaridade herdado que usa a implementação lucene TFIDFSimilarity do TF-IDF. Essa variação do TF-IDF introduz a normalização de comprimento de documento estático, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas. |
ClassicTokenizer |
Criador de tokens baseado em gramática adequado para processar a maioria dos documentos em idioma europeu. Esse criador de tokens é implementado usando o Apache Lucene. |
CognitiveServicesAccountKey |
Um recurso de serviço de IA do Azure provisionado com uma chave anexada a um conjunto de habilidades. |
CommonGramTokenFilter |
Construa bigramas para termos que ocorrem com frequência durante a indexação. Termos únicos ainda são indexados também, com bigramas sobrepostos. Esse filtro de token é implementado usando o Apache Lucene. |
ComplexField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
ConditionalSkill |
Uma habilidade que permite cenários que exigem uma operação booliana para determinar os dados a serem atribuídos a uma saída. |
CorsOptions |
Define opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para um índice. |
CreateOrUpdateIndexOptions |
Opções para a operação de criação/atualização de índice. |
CreateOrUpdateSkillsetOptions |
Opções para criar/atualizar a operação do conjunto de habilidades. |
CreateOrUpdateSynonymMapOptions |
Opções para a operação de criação/atualização de sinônimos. |
CreateorUpdateDataSourceConnectionOptions |
Opções para criar/atualizar operação de fonte de dados. |
CreateorUpdateIndexerOptions |
Opções para a operação de criação/atualização do indexador. |
CustomAnalyzer |
Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizer predefinido e um ou mais filtros. O criador de token é responsável por dividir o texto em tokens e os filtros para modificar tokens emitidos pelo criador de tokens. |
CustomEntity |
Um objeto que contém informações sobre as correspondências encontradas e os metadados relacionados. |
CustomEntityAlias |
Um objeto complexo que pode ser usado para especificar ortografias ou sinônimos alternativos para o nome da entidade raiz. |
CustomEntityLookupSkill |
Uma habilidade procura texto de uma lista personalizada definida pelo usuário de palavras e frases. |
DefaultCognitiveServicesAccount |
Um objeto vazio que representa o recurso de serviço de IA do Azure padrão para um conjunto de habilidades. |
DeleteDataSourceConnectionOptions |
Opções para excluir a operação de fonte de dados. |
DeleteIndexOptions |
Opções para excluir operação de índice. |
DeleteIndexerOptions |
Opções para excluir a operação do indexador. |
DeleteSkillsetOptions |
Opções para excluir o operacionamento do conjunto de habilidades. |
DeleteSynonymMapOptions |
Opções para excluir operação de synonymmap. |
DictionaryDecompounderTokenFilter |
Decompõe palavras compostas encontradas em muitos idiomas germânicos. Esse filtro de token é implementado usando o Apache Lucene. |
DistanceScoringFunction |
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica. |
DistanceScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de distância. |
DocumentExtractionSkill |
Uma habilidade que extrai conteúdo de um arquivo dentro do pipeline de enriquecimento. |
EdgeNGramTokenFilter |
Gera n-gramas dos tamanhos fornecidos a partir da frente ou da parte traseira de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene. |
EdgeNGramTokenizer |
Tokeniza a entrada de uma borda em n-gramas dos tamanhos fornecidos. Esse tokenizer é implementado usando o Apache Lucene. |
ElisionTokenFilter |
Remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Esse filtro de token é implementado usando o Apache Lucene. |
EntityLinkingSkill |
Usando a API Análise de Texto, extrai entidades vinculadas do texto. |
EntityRecognitionSkill |
Reconhecimento de entidade de análise de texto. |
EntityRecognitionSkillV3 |
Usando a API Análise de Texto, extrai entidades de tipos diferentes do texto. |
ExhaustiveKnnParameters |
Contém os parâmetros específicos para o algoritmo KNN exaustivo. |
ExtractiveQueryAnswer |
Extrai candidatos de resposta do conteúdo dos documentos retornados em resposta a uma consulta expressa como uma pergunta em linguagem natural. |
ExtractiveQueryCaption |
Extrai legendas dos documentos correspondentes que contêm passagens relevantes para a consulta de pesquisa. |
FacetResult |
Um único bucket de um resultado de consulta de faceta. Relata o número de documentos com um valor de campo que está dentro de um intervalo específico ou com um determinado valor ou intervalo. |
FieldMapping |
Define um mapeamento entre um campo em uma fonte de dados e um campo de destino em um índice. |
FieldMappingFunction |
Representa uma função que transforma um valor de uma fonte de dados antes da indexação. |
FreshnessScoringFunction |
Define uma função que aumenta as pontuações com base no valor de um campo de data e hora. |
FreshnessScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de atualização. |
GetDocumentOptions |
Opções para recuperar um único documento. |
HighWaterMarkChangeDetectionPolicy |
Define uma política de detecção de alteração de dados que captura alterações com base no valor de uma coluna de marca d'água alta. |
HnswParameters |
Contém os parâmetros específicos do algoritmo hnsw. |
ImageAnalysisSkill |
Uma habilidade que analisa arquivos de imagem. Ele extrai um conjunto avançado de recursos visuais com base no conteúdo da imagem. |
IndexDocumentsClient |
Indexar Cliente de Documentos |
IndexDocumentsOptions |
Opções para a operação modificar lote de índice. |
IndexDocumentsResult |
Resposta que contém o status de operações para todos os documentos na solicitação de indexação. |
IndexerExecutionResult |
Representa o resultado de uma execução individual do indexador. |
IndexingParameters |
Representa os parâmetros de execução do indexador. |
IndexingParametersConfiguration |
Um dicionário de propriedades de configuração específicas do indexador. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
IndexingResult |
Status de uma operação de indexação para um único documento. |
IndexingSchedule |
Representa uma agenda para a execução do indexador. |
InputFieldMappingEntry |
Mapeamento de campo de entrada para uma habilidade. |
KeepTokenFilter |
Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Esse filtro de token é implementado usando o Apache Lucene. |
KeyPhraseExtractionSkill |
Uma habilidade que usa a análise de texto para extração de frases-chave. |
KeywordMarkerTokenFilter |
Marca termos como palavras-chave. Esse filtro de token é implementado usando o Apache Lucene. |
KeywordTokenizer |
Emite a entrada inteira como um único token. Esse tokenizer é implementado usando o Apache Lucene. |
LanguageDetectionSkill |
Uma habilidade que detecta o idioma do texto de entrada e relata um único código de idioma para cada documento enviado na solicitação. O código de idioma é emparelhado com uma pontuação que indica a confiança da análise. |
LengthTokenFilter |
Remove palavras muito longas ou muito curtas. Esse filtro de token é implementado usando o Apache Lucene. |
LimitTokenFilter |
Limita o número de tokens durante a indexação. Esse filtro de token é implementado usando o Apache Lucene. |
ListSearchResultsPageSettings |
Argumentos para recuperar a próxima página de resultados da pesquisa. |
LuceneStandardAnalyzer |
Analisador Standard do Apache Lucene; Composto pelo tokenizer padrão, filtro em minúsculas e filtro de parada. |
LuceneStandardTokenizer |
Quebra o texto seguindo as regras de Segmentação de Texto Unicode. Esse criador de tokens é implementado usando o Apache Lucene. |
MagnitudeScoringFunction |
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico. |
MagnitudeScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de magnitude. |
MappingCharFilter |
Um filtro de caracteres que aplica mapeamentos definidos com a opção de mapeamentos. A correspondência é gananciosa (a correspondência de padrões mais longa em um determinado ponto vence). A substituição é permitida como a cadeia de caracteres vazia. Esse filtro de caractere é implementado usando o Apache Lucene. |
MergeSkill |
Uma habilidade para mesclar duas ou mais cadeias de caracteres em uma única cadeia de caracteres unificada, com um delimitador opcional definido pelo usuário separando cada parte do componente. |
MicrosoftLanguageStemmingTokenizer |
Divide o texto usando regras específicas de idioma e reduz palavras para seus formulários base. |
MicrosoftLanguageTokenizer |
Divide o texto usando regras específicas de idioma. |
NGramTokenFilter |
Gera n-gramas de determinados tamanhos. Esse filtro de token é implementado usando o Apache Lucene. |
NGramTokenizer |
Cria tokens de entrada em n-gramas de determinados tamanhos. Esse criador de tokens é implementado usando o Apache Lucene. |
OcrSkill |
Uma habilidade que extrai texto de arquivos de imagem. |
OutputFieldMappingEntry |
Mapeamento de campo de saída para uma habilidade. |
PIIDetectionSkill |
Usando a API Análise de Texto, extrai informações pessoais de um texto de entrada e oferece a opção de mascaramento. |
PathHierarchyTokenizer |
Criador de token para hierarquias de caminho. Esse criador de tokens é implementado usando o Apache Lucene. |
PatternAnalyzer |
Separa texto em termos de forma flexível por meio de um padrão de expressão regular. Esse analisador é implementado usando o Apache Lucene. |
PatternCaptureTokenFilter |
Usa regexes Java para emitir vários tokens – um para cada grupo de captura em um ou mais padrões. Esse filtro de token é implementado usando o Apache Lucene. |
PatternReplaceCharFilter |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres para substituir. Por exemplo, considerando o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de caractere é implementado usando o Apache Lucene. |
PatternReplaceTokenFilter |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres para substituir. Por exemplo, considerando o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de token é implementado usando o Apache Lucene. |
PatternTokenizer |
Criador de token que usa a correspondência de padrões regex para construir tokens distintos. Esse criador de tokens é implementado usando o Apache Lucene. |
PhoneticTokenFilter |
Crie tokens para correspondências fonéticas. Esse filtro de token é implementado usando o Apache Lucene. |
QueryAnswerResult |
Uma resposta é uma passagem de texto extraída do conteúdo dos documentos mais relevantes que corresponderam à consulta. As respostas são extraídas dos principais resultados da pesquisa. Os candidatos de resposta são pontuados e as principais respostas são selecionadas. |
QueryCaptionResult |
As legendas são as passagens mais representativas do documento relativamente para a consulta de pesquisa. Eles geralmente são usados como resumo do documento. As legendas são retornadas apenas para consultas do tipo |
ResourceCounter |
Representa o uso e a cota de um recurso. |
ScoringProfile |
Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa. |
SearchClientOptions |
Opções de cliente usadas para configurar solicitações de API do Cognitive Search. |
SearchDocumentsPageResult |
Resposta que contém os resultados da página de pesquisa de um índice. |
SearchDocumentsResult |
Resposta que contém os resultados da pesquisa de um índice. |
SearchDocumentsResultBase |
Resposta que contém os resultados da pesquisa de um índice. |
SearchIndex |
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice. |
SearchIndexClientOptions |
Opções de cliente usadas para configurar solicitações de API do Cognitive Search. |
SearchIndexStatistics |
Estatísticas para um determinado índice. As estatísticas são coletadas periodicamente e não há garantia de que estejam sempre atualizadas. |
SearchIndexer |
Representa um indexador. |
SearchIndexerClientOptions |
Opções de cliente usadas para configurar solicitações de API do Cognitive Search. |
SearchIndexerDataContainer |
Representa informações sobre a entidade (como SQL do Azure tabela ou coleção do CosmosDB) que serão indexadas. |
SearchIndexerDataSourceConnection |
Representa uma definição de fonte de dados, que pode ser usada para configurar um indexador. |
SearchIndexerError |
Representa um erro de indexação no nível do item ou documento. |
SearchIndexerKnowledgeStore |
Definição de projeções adicionais para blob, tabela ou arquivos do Azure de dados enriquecidos. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Classe abstrata para compartilhar propriedades entre seletores concretos. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definição de projeção para quais dados armazenar em Arquivos do Azure. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definição de projeção para quais dados armazenar no Blob do Azure. |
SearchIndexerKnowledgeStoreProjection |
Objeto container para vários seletores de projeção. |
SearchIndexerKnowledgeStoreProjectionSelector |
Classe abstrata para compartilhar propriedades entre seletores concretos. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Descrição de quais dados armazenar nas Tabelas do Azure. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Uma lista de habilidades. |
SearchIndexerStatus |
Representa o histórico de execução e do status atual de um indexador. |
SearchIndexerWarning |
Representa um aviso no nível do item. |
SearchIndexingBufferedSenderOptions |
Opções para SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Uma chave de criptografia gerenciada pelo cliente no Azure Key Vault. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso em Azure Cognitive Search, como índices e mapas de sinônimos. |
SearchServiceStatistics |
Resposta de uma solicitação obter estatísticas de serviço. Se tiver êxito, ele inclui contadores e limites de nível de serviço. |
SearchSuggester |
Define como a API de Sugestão deve se aplicar a um grupo de campos no índice. |
SemanticConfiguration |
Define uma configuração específica a ser usada no contexto de funcionalidades semânticas. |
SemanticField |
Um campo usado como parte da configuração semântica. |
SemanticPrioritizedFields |
Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, realces e respostas. |
SemanticSearch |
Define parâmetros para um índice de pesquisa que influenciam as funcionalidades semânticas. |
SemanticSearchOptions |
Define opções para consultas de pesquisa semântica |
SentimentSkill |
Análise de sentimento positivo-negativo da análise de texto, pontuada como um valor de ponto flutuante em um intervalo de zero a 1. |
SentimentSkillV3 |
Usando a API Análise de Texto, avalia o texto não estruturado e, para cada registro, fornece rótulos de sentimento (como "negativo", "neutro" e "positivo") com base na pontuação de confiança mais alta encontrada pelo serviço em uma frase e no nível do documento. |
ServiceCounters |
Representa cotas e contadores de recursos no nível do serviço. |
ServiceLimits |
Representa vários limites de nível de serviço. |
ShaperSkill |
Uma habilidade para remodelar as saídas. Ele cria um tipo complexo para dar suporte a campos compostos (também conhecidos como campos de várias partes). |
ShingleTokenFilter |
Cria combinações de tokens como um único token. Esse filtro de token é implementado usando o Apache Lucene. |
Similarity |
Tipo base para algoritmos de similaridade. Algoritmos de similaridade são usados para calcular pontuações que vinculam consultas a documentos. Quanto maior a pontuação, mais relevante será o documento para essa consulta específica. Essas pontuações são usadas para classificar os resultados da pesquisa. |
SimpleField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
SnowballTokenFilter |
Um filtro que deriva palavras usando um lematizador gerado por Bola de Neve. Esse filtro de token é implementado usando o Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Define uma política de detecção de exclusão de dados que implementa uma estratégia de exclusão reversível. Ele determina se um item deve ser excluído com base no valor de uma coluna "exclusão reversível" designada. |
SplitSkill |
Uma habilidade para dividir uma cadeia de caracteres em partes de texto. |
SqlIntegratedChangeTrackingPolicy |
Define uma política de detecção de alteração de dados que captura alterações usando o recurso Controle de Alterações Integrado do Banco de Dados SQL do Azure. |
StemmerOverrideTokenFilter |
Fornece a capacidade de substituir outros filtros de lematização com lematização personalizada baseada em dicionário. Quaisquer termos com lematização de dicionário serão marcados como palavras-chave para que não sejam decorrentes de lematizadores na cadeia. Deve ser colocado antes de qualquer filtro de lematização. Esse filtro de token é implementado usando o Apache Lucene. |
StemmerTokenFilter |
Filtro de lematização específico da linguagem. Esse filtro de token é implementado usando o Apache Lucene. |
StopAnalyzer |
Divide o texto em não letras; Aplica os filtros de token de letras minúsculas e palavras irrelevantes. Esse analisador é implementado usando o Apache Lucene. |
StopwordsTokenFilter |
Remove palavras irrelevantes de um fluxo de tokens. Esse filtro de token é implementado usando o Apache Lucene. |
SuggestDocumentsResult |
Resposta que contém os resultados da consulta de sugestão de um índice. |
SuggestRequest |
Parâmetros para filtragem, classificação, correspondência difusa e outros comportamentos de consulta de sugestões. |
SynonymMap |
Representa uma definição de mapa de sinônimo. |
SynonymTokenFilter |
Corresponde a sinônimos de palavra única ou múltipla em um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene. |
TagScoringFunction |
Define uma função que aumenta as pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de marcas. |
TagScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de marca. |
TextTranslationSkill |
Uma habilidade para traduzir texto de um idioma para outro. |
TextWeights |
Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa. |
TruncateTokenFilter |
Trunca os termos para um comprimento específico. Esse filtro de token é implementado usando o Apache Lucene. |
UaxUrlEmailTokenizer |
Cria tokens de urls e emails como um único token. Esse tokenizer é implementado usando o Apache Lucene. |
UniqueTokenFilter |
Filtra os tokens com o mesmo texto como o token anterior. Esse filtro de token é implementado usando o Apache Lucene. |
VectorSearch |
Contém opções de configuração relacionadas à pesquisa de vetor. |
VectorSearchOptions |
Define opções para consultas de pesquisa de vetor |
VectorSearchProfile |
Define uma combinação de configurações a serem usadas com a pesquisa de vetor. |
VectorizedQuery |
Os parâmetros de consulta a serem usados para pesquisa de vetor quando um valor de vetor bruto é fornecido. |
WebApiSkill |
Uma habilidade que pode chamar um ponto de extremidade da API Web, permitindo que você estenda um conjunto de habilidades fazendo com que ele chame seu código personalizado. |
WordDelimiterTokenFilter |
Divide as palavras em subpalavras e realiza transformações opcionais em grupos de subpalavras. Esse filtro de token é implementado usando o Apache Lucene. |
Aliases de tipo
AnalyzeTextOptions |
Opções para analisar a operação de texto. |
AutocompleteMode |
Define valores para AutocompleteMode. |
AutocompleteOptions |
Opções para recuperar o texto de conclusão de um searchText parcial. |
BlobIndexerDataToExtract |
Valores conhecidos compatíveis com o serviçostorageMetadata: indexa apenas as propriedades de blob padrão e os metadados especificados pelo usuário. allMetadata: extrai metadados fornecidos pelo subsistema de armazenamento de blobs do Azure e os metadados específicos do tipo de conteúdo (por exemplo, metadados exclusivos para apenas .png arquivos são indexados). contentAndMetadata: extrai todos os metadados e conteúdo textual de cada blob. |
BlobIndexerImageAction |
Valores conhecidos compatíveis com o serviçonone: ignora imagens inseridas ou arquivos de imagem no conjunto de dados. Esse é o padrão. generateNormalizedImages: extrai texto de imagens (por exemplo, a palavra "STOP" de um sinal de parada de tráfego) e o insere no campo de conteúdo. Essa ação requer que "dataToExtract" esteja definido como "contentAndMetadata". Uma imagem normalizada refere-se ao processamento adicional que resulta em saída de imagem uniforme, dimensionada e girada para promover a renderização consistente quando você inclui imagens nos resultados da pesquisa visual. Essas informações são geradas para cada imagem quando você usa essa opção. generateNormalizedImagePerPage: extrai texto de imagens (por exemplo, a palavra "STOP" de um sinal de parada de tráfego) e o insere no campo de conteúdo, mas trata arquivos PDF de forma diferente, pois cada página será renderizada como uma imagem e normalizada de acordo, em vez de extrair imagens inseridas. Os tipos de arquivo não PDF serão tratados da mesma forma que se "generateNormalizedImages" tiver sido definido. |
BlobIndexerPDFTextRotationAlgorithm |
Valores conhecidos compatíveis com o serviçonone: aproveita a extração de texto normal. Esse é o padrão. detectAngles: pode produzir extração de texto melhor e mais legível de arquivos PDF que giraram o texto dentro deles. Observe que pode haver um pequeno impacto na velocidade de desempenho quando esse parâmetro é usado. Esse parâmetro só se aplica a arquivos PDF e somente a PDFs com texto inserido. Se o texto girado aparecer em uma imagem inserida no PDF, esse parâmetro não se aplicará. |
BlobIndexerParsingMode |
Valores conhecidos compatíveis com o serviçodefault: definido como padrão para processamento normal de arquivos. text: defina como texto para melhorar o desempenho da indexação em arquivos de texto sem formatação no armazenamento de blobs. delimitedText: defina como delimitedText quando os blobs forem arquivos CSV simples. json: defina como json para extrair conteúdo estruturado de arquivos JSON. jsonArray: defina como jsonArray para extrair elementos individuais de uma matriz JSON como documentos separados em Azure Cognitive Search. jsonLines: defina como jsonLines para extrair entidades JSON individuais, separadas por uma nova linha, como documentos separados em Azure Cognitive Search. |
CharFilter |
Contém os casos possíveis para CharFilter. |
CharFilterName |
Define valores para CharFilterName. Valores conhecidos compatíveis com o serviçohtml_strip: um filtro de caracteres que tenta remover constructos HTML. Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Define valores para CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Contém os possíveis casos para CognitiveServicesAccount. |
ComplexDataType |
Define valores para ComplexDataType. Os valores possíveis incluem: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Opções para executar a operação de contagem no índice. |
CreateDataSourceConnectionOptions |
Opções para criar operação de fonte de dados. |
CreateIndexOptions |
Opções para criar operação de índice. |
CreateIndexerOptions |
Opções para criar operação do indexador. |
CreateSkillsetOptions |
Opções para criar operação de conjunto de habilidades. |
CreateSynonymMapOptions |
Opções para criar operação de synonymmap. |
CustomEntityLookupSkillLanguage |
Define idiomas com suporte para CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage pode ser usado intercambiável com esse tipo |
DataChangeDetectionPolicy |
Contém os casos possíveis para DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Contém os casos possíveis para DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Opções para a operação excluir documentos. |
EdgeNGramTokenFilterSide |
Define valores para EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage |
Define idiomas com suporte para EntityRecognitionSkillKnownEntityRecognitionSkillLanguage pode ser usado intercambiável com esse tipo |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetor. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Opções para obter a operação de fonte de dados. |
GetIndexOptions |
Opções para obter a operação de índice. |
GetIndexStatisticsOptions |
Opções para obter a operação de estatísticas de índice. |
GetIndexerOptions |
Opções para obter a operação do indexador. |
GetIndexerStatusOptions |
Opções para obter a operação de status do indexador. |
GetServiceStatisticsOptions |
Opções para obter a operação de estatísticas de serviço. |
GetSkillSetOptions |
Opções para obter a operação do conjunto de habilidades. |
GetSynonymMapsOptions |
Opções para obter a operação de sinônimos. |
HnswAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo de vizinhos mais próximos do hnsw aproximado usado durante o tempo de indexação. |
ImageAnalysisSkillLanguage |
Define idiomas com suporte para ImageAnalysisSkillKnownImageAnalysisSkillLanguage pode ser usado intercambiável com esse tipo |
ImageDetail | |
IndexActionType |
Define valores para IndexActionType. |
IndexDocumentsAction |
Representa uma ação de índice que opera em um documento. |
IndexIterator |
Um iterador para listar os índices que existem no serviço Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
IndexNameIterator |
Um iterador para listar os índices que existem no serviço Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
IndexerExecutionEnvironment |
Valores conhecidos compatíveis com o serviçopadrão: indica que Azure Cognitive Search pode determinar onde o indexador deve ser executado. Esse é o ambiente padrão quando nada é especificado e é o valor recomendado. private: indica que o indexador deve ser executado com o ambiente provisionado especificamente para o serviço de pesquisa. Isso só deve ser especificado como o ambiente de execução se o indexador precisar acessar recursos com segurança em recursos de link privado compartilhados. |
IndexerExecutionStatus |
Define valores para IndexerExecutionStatus. |
IndexerStatus |
Define valores para IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Define idiomas com suporte para KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage pode ser usado intercambiável com esse tipo |
LexicalAnalyzer |
Contém os casos possíveis para o Analyzer. |
LexicalAnalyzerName |
Define valores para LexicalAnalyzerName. Valores conhecidos compatíveis com o serviçoar.microsoft: Analisador da Microsoft para árabe. |
LexicalTokenizer |
Contém os possíveis casos para o Criador de Token. |
LexicalTokenizerName |
Define valores para LexicalTokenizerName. Valores conhecidos compatíveis com o serviçoclássico: criador de token baseado em gramática que é adequado para processar a maioria dos documentos em idioma europeu. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Opções para uma operação de lista de fontes de dados. |
ListIndexersOptions |
Opções para uma operação de indexadores de lista. |
ListIndexesOptions |
Opções para uma operação de índices de lista. |
ListSkillsetsOptions |
Opções para uma operação de conjuntos de habilidades de lista. |
ListSynonymMapsOptions |
Opções para uma operação list synonymMaps. |
MergeDocumentsOptions |
Opções para a operação de mesclagem de documentos. |
MergeOrUploadDocumentsOptions |
Opções para a operação de mesclagem ou upload de documentos. |
MicrosoftStemmingTokenizerLanguage |
Define valores para MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Define valores para MicrosoftTokenizerLanguage. |
NarrowedModel |
Restringe o tipo de modelo para incluir apenas os Campos selecionados |
OcrSkillLanguage |
Define idiomas com suporte para OcrSkillKnownOcrSkillLanguage pode ser usado de forma intercambiável com esse tipo |
PIIDetectionSkillMaskingMode |
Define valores para PIIDetectionSkillMaskingMode. Valores conhecidos compatíveis com o serviçonone: nenhuma máscara ocorre e a saída maskedText não será retornada. replace: substitui as entidades detectadas pelo caractere fornecido no parâmetro maskingCharacter. O caractere será repetido até o comprimento da entidade detectada para que os deslocamentos correspondam corretamente ao texto de entrada, bem como ao maskedText de saída. |
PhoneticEncoder |
Define valores para PhoneticEncoder. |
QueryAnswer |
Um valor que especifica se as respostas devem ser retornadas como parte da resposta de pesquisa.
Esse parâmetro só será válido se o tipo de consulta for 'semântico'. Se definido |
QueryCaption |
Um valor que especifica se as legendas devem ser retornadas como parte da resposta de pesquisa. Esse parâmetro só será válido se o tipo de consulta for 'semântico'. Se definida, a consulta retornará legendas extraídas de passagens-chave nos documentos mais bem classificados. Quando Captions é 'extractive', o realce é habilitado por padrão. O padrão é 'none'. |
QueryType |
Define valores para QueryType. |
RegexFlags |
Define sinalizadores para correspondência de padrões regex Valores conhecidos compatíveis com o serviçoCANON_EQ: habilita a equivalência canônica. CASE_INSENSITIVE: habilita a correspondência que não diferencia maiúsculas de minúsculas. COMENTÁRIOS: permite espaço em branco e comentários no padrão. DOTALL: habilita o modo dotall. LITERAL: habilita a análise literal do padrão. MULTILINE: habilita o modo multilinha. UNICODE_CASE: habilita a dobragem de maiúsculas e minúsculas com reconhecimento de Unicode. UNIX_LINES: habilita o modo de linhas do Unix. |
ResetIndexerOptions |
Opções para a operação de redefinição do indexador. |
RunIndexerOptions |
Opções para executar a operação do indexador. |
ScoringFunction |
Contém os possíveis casos de ScoringFunction. |
ScoringFunctionAggregation |
Define valores para ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Define valores para ScoringFunctionInterpolation. |
ScoringStatistics |
Define valores para ScoringStatistics. |
SearchField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
SearchFieldArray |
Se |
SearchFieldDataType |
Define valores para SearchFieldDataType. Os valores possíveis incluem: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)' NB: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Contém os possíveis casos de Skill. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opções para SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Opções para SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Opções para SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opções para SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Opções para SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Um iterador para resultados de pesquisa de uma consulta paticular. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
SearchMode |
Define valores para SearchMode. |
SearchOptions |
Opções para confirmar uma solicitação de pesquisa completa. |
SearchPick |
Escolha profundamente os campos de T usando caminhos de $select OData do Cognitive Search válidos. |
SearchRequestOptions |
Parâmetros para filtragem, classificação, faceta, paginação e outros comportamentos de consulta de pesquisa. |
SearchRequestQueryTypeOptions | |
SearchResult |
Contém um documento encontrado por uma consulta de pesquisa, além de metadados associados. |
SelectArray |
Se |
SelectFields |
Produz uma união de caminhos OData de Pesquisa Cognitiva válidos $select para T usando uma passagem pós-ordem da árvore de campo com raiz em T. |
SemanticErrorMode |
parcial: se o processamento semântico falhar, os resultados parciais ainda retornarão. A definição de resultados parciais depende de qual etapa semântica falhou e qual foi o motivo da falha. fail: se houver uma exceção durante a etapa de processamento semântico, a consulta falhará e retornará o código HTTP apropriado dependendo do erro. |
SemanticErrorReason |
maxWaitExceededed: se 'semanticMaxWaitInMilliseconds' foi definido e a duração do processamento semântico excedeu esse valor. Somente os resultados base foram retornados. capacityOverloaded: a solicitação foi limitada. Somente os resultados base foram retornados. transitório: pelo menos uma etapa do processo semântico falhou. |
SemanticSearchResultsType |
baseResults: resultados sem nenhum enriquecimento semântico ou reclassificado. rerankedResults: os resultados foram reclassificados com o modelo de reclassificador e incluirão legendas semânticas. Eles não incluirão respostas, respostas realçadas ou realces legenda. |
SentimentSkillLanguage |
Define idiomas com suporte para SentimentSkillKnownSentimentSkillLanguage pode ser usado de forma intercambiável com esse tipo |
SimilarityAlgorithm |
Contém os casos possíveis para Similaridade. |
SnowballTokenFilterLanguage |
Define valores para SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Define idiomas com suporte para SplitSkillKnownSplitSkillLanguage pode ser usado intercambiável com esse tipo |
StemmerTokenFilterLanguage |
Define valores para StemmerTokenFilterLanguage. |
StopwordsList |
Define valores para StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Opções para recuperar sugestões com base no searchText. |
SuggestResult |
Um resultado que contém um documento encontrado por uma consulta de sugestão, além de metadados associados. |
TextSplitMode | |
TextTranslationSkillLanguage |
Define idiomas com suporte para TextTranslationSkillKnownTextTranslationSkillLanguage pode ser usado intercambiável com esse tipo |
TokenCharacterKind |
Define valores para TokenCharacterKind. |
TokenFilter |
Contém os possíveis casos de TokenFilter. |
TokenFilterName |
Define valores para TokenFilterName. Valores conhecidos compatíveis com o serviçoarabic_normalization: um filtro de token que aplica o normalizador árabe para normalizar a ortoografia. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Opções para a operação carregar documentos. |
VectorFilterMode |
Determina se os filtros são aplicados ou não antes ou depois que a pesquisa de vetor é executada. |
VectorQuery |
Os parâmetros de consulta para consultas de pesquisa híbrida e vetor. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou a consulta. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
A métrica de similaridade a ser usada para comparações de vetor. |
VisualFeature |
Enumerações
Funções
create |
Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS. |
odata(Template |
Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Exemplo de uso:
Para obter mais informações sobre a sintaxe com suporte, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Detalhes da função
createSynonymMapFromFile(string, string)
Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parâmetros
- name
-
string
Nome do SynonymMap.
- filePath
-
string
Caminho do arquivo que contém os sinônimos (semperados por novas linhas)
Retornos
Promise<SynonymMap>
Objeto SynonymMap
odata(TemplateStringsArray, unknown[])
Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Exemplo de uso:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Para obter mais informações sobre a sintaxe com suporte, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parâmetros
- strings
-
TemplateStringsArray
Matriz de cadeias de caracteres para a expressão
- values
-
unknown[]
Matriz de valores para a expressão
Retornos
string