@azure/search-documents package
Classes
AzureKeyCredential |
Uma credencial baseada em chave estática que oferece suporte à atualização do valor da chave subjacente. |
GeographyPoint |
Representa um ponto geográfico em coordenadas globais. |
IndexDocumentsBatch |
Classe usada para executar operações em lote com vários documentos para o índice. |
SearchClient |
Classe usada para executar operações em um índice de pesquisa, incluindo consultar documentos no índice, bem como adicioná-los, atualizá-los e removê-los. |
SearchIndexClient |
Classe para executar operações para gerenciar (criar, atualizar, listar/excluir) índices, & sinônimos de mapas. |
SearchIndexerClient |
Classe para executar operações para gerenciar (criar, atualizar, listar/excluir) indexadores, fontes de dados & conjuntos de habilidades. |
SearchIndexingBufferedSender |
Classe usada para executar operações em buffer em um índice de pesquisa, incluindo adição, atualização e remoção delas. |
Interfaces
AnalyzeRequest |
Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens. |
AnalyzeResult |
O resultado do teste de um analisador em texto. |
AnalyzedTokenInfo |
Informações sobre um token retornado por um analisador. |
AsciiFoldingTokenFilter |
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Este filtro de token é implementado usando Apache Lucene. |
AutocompleteItem |
O resultado das solicitações de preenchimento automático. |
AutocompleteRequest |
Parâmetros para correspondência difusa e outros comportamentos de consulta de preenchimento automático. |
AutocompleteResult |
O resultado da consulta de preenchimento automático. |
AzureActiveDirectoryApplicationCredentials |
Credenciais de um aplicativo registrado criado para seu serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Cofre de Chaves do Azure. |
AzureOpenAIEmbeddingSkill |
Permite gerar uma incorporação vetorial para uma determinada entrada de texto usando o recurso Azure OpenAI. |
AzureOpenAIParameters |
Contém os parâmetros específicos para usar um serviço Azure Open AI para vetorização no momento da consulta. |
AzureOpenAIVectorizer |
Contém os parâmetros específicos para usar um serviço Azure Open AI para vetorização no momento da consulta. |
BM25Similarity |
Função de classificação baseada no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1'). |
BaseCharFilter |
Tipo de base para filtros de caracteres. |
BaseCognitiveServicesAccount |
Tipo base para descrever qualquer recurso de serviço de IA do Azure anexado a um conjunto de habilidades. |
BaseDataChangeDetectionPolicy |
Tipo de base para políticas de deteção de alterações de dados. |
BaseDataDeletionDetectionPolicy |
Tipo de base para políticas de deteção de exclusão de dados. |
BaseLexicalAnalyzer |
Tipo de base para analisadores. |
BaseLexicalTokenizer |
Tipo de base para tokenizadores. |
BaseScoringFunction |
Tipo base para funções que podem modificar pontuações de documentos durante a classificação. |
BaseSearchIndexerDataIdentity |
Tipo de base abstrata para identidades de dados. |
BaseSearchIndexerSkill |
Tipo de base para competências. |
BaseSearchRequestOptions |
Parâmetros para filtragem, classificação, facetagem, paginação e outros comportamentos de consulta de pesquisa. |
BaseTokenFilter |
Tipo base para filtros de token. |
BaseVectorQuery |
Os parâmetros de consulta para consultas de pesquisa vetoriais e híbridas. |
BaseVectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta. |
BaseVectorSearchCompression |
Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta. |
BaseVectorSearchVectorizer |
Contém detalhes específicos para um método de vetorização a ser usado durante o tempo de consulta. |
BinaryQuantizationCompression |
Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e consulta. |
CjkBigramTokenFilter |
Forma bigramas de termos CJK que são gerados a partir do tokenizador padrão. Este filtro de token é implementado usando Apache Lucene. |
ClassicSimilarity |
Algoritmo de similaridade legado que usa a implementação Lucene TFIDFSimilarity do TF-IDF. Esta variação de TF-IDF introduz a normalização estática do comprimento do documento, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas. |
ClassicTokenizer |
Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Este tokenizador é implementado usando Apache Lucene. |
CognitiveServicesAccountKey |
A chave de conta de várias regiões de um recurso de serviço de IA do Azure anexado a um conjunto de habilidades. |
CommonGramTokenFilter |
Construa bigramas para termos frequentes durante a indexação. Os termos isolados também continuam indexados, com bigramas sobrepostos. Este filtro de token é implementado usando Apache Lucene. |
ComplexField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
ConditionalSkill |
Uma habilidade que permite que cenários que exigem uma operação booleana determinem os dados a serem atribuídos a uma saída. |
CorsOptions |
Define opções para controlar o CORS (Cross-Origin Resource Sharing) para um índice. |
CreateOrUpdateIndexOptions |
Opções para a operação de criação/atualização do índice. |
CreateOrUpdateSkillsetOptions |
Opções para criar/atualizar a operação do conjunto de habilidades. |
CreateOrUpdateSynonymMapOptions |
Opções para criar/atualizar operação de mapa de sinônimos. |
CreateorUpdateDataSourceConnectionOptions |
Opções para a operação de criação/atualização da fonte de dados. |
CreateorUpdateIndexerOptions |
Opções para a operação do indexador de criação/atualização. |
CustomAnalyzer |
Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizador predefinido e um ou mais filtros. O tokenizador é responsável por dividir o texto em tokens, e os filtros para modificar tokens emitidos pelo tokenizador. |
CustomEntity |
Um objeto que contém informações sobre as correspondências encontradas e metadados relacionados. |
CustomEntityAlias |
Um objeto complexo que pode ser usado para especificar grafias alternativas ou sinônimos para o nome da entidade raiz. |
CustomEntityLookupSkill |
Uma habilidade procura texto a partir de uma lista personalizada e definida pelo usuário de palavras e frases. |
DefaultCognitiveServicesAccount |
Um objeto vazio que representa o recurso de serviço de IA padrão do Azure para um conjunto de habilidades. |
DeleteDataSourceConnectionOptions |
Opções para a operação de exclusão da fonte de dados. |
DeleteIndexOptions |
Opções para operação de índice de exclusão. |
DeleteIndexerOptions |
Opções para a operação do indexador de exclusão. |
DeleteSkillsetOptions |
Opções para excluir skillset operaion. |
DeleteSynonymMapOptions |
Opções para excluir operação de mapa de sinônimos. |
DictionaryDecompounderTokenFilter |
Decompõe palavras compostas encontradas em muitas línguas germânicas. Este filtro de token é implementado usando Apache Lucene. |
DistanceScoringFunction |
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica. |
DistanceScoringParameters |
Fornece valores de parâmetros para uma função de pontuação de distância. |
DocumentExtractionSkill |
Uma habilidade que extrai conteúdo de um arquivo dentro do pipeline de enriquecimento. |
EdgeNGramTokenFilter |
Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene. |
EdgeNGramTokenizer |
Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) determinado(s). Este tokenizador é implementado usando Apache Lucene. |
ElisionTokenFilter |
Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Este filtro de token é implementado usando Apache Lucene. |
EntityLinkingSkill |
Usando a API de Análise de Texto, extrai entidades vinculadas do texto. |
EntityRecognitionSkill |
Reconhecimento de entidades de análise de texto. |
EntityRecognitionSkillV3 |
Usando a API de Análise de Texto, extrai entidades de diferentes tipos do texto. |
ExhaustiveKnnParameters |
Contém os parâmetros específicos para o algoritmo KNN exaustivo. |
ExtractiveQueryAnswer |
Extrai os candidatos de resposta do conteúdo dos documentos devolvidos em resposta a uma consulta expressa como uma pergunta em linguagem natural. |
ExtractiveQueryCaption |
Extrai legendas dos documentos correspondentes que contêm passagens relevantes para a consulta de pesquisa. |
FacetResult |
Um único bucket de um resultado de consulta de faceta. Relata o número de documentos com um valor de campo dentro de um intervalo específico ou com um determinado valor ou intervalo. |
FieldMapping |
Define um mapeamento entre um campo em uma fonte de dados e um campo de destino em um índice. |
FieldMappingFunction |
Representa uma função que transforma um valor de uma fonte de dados antes da indexação. |
FreshnessScoringFunction |
Define uma função que aumenta as pontuações com base no valor de um campo de data e hora. |
FreshnessScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de frescor. |
GetDocumentOptions |
Opções para recuperar um único documento. |
HighWaterMarkChangeDetectionPolicy |
Define uma política de deteção de alteração de dados que captura as alterações com base no valor de uma coluna de marca d'água alta. |
HnswParameters |
Contém os parâmetros específicos do algoritmo hnsw. |
ImageAnalysisSkill |
Uma habilidade que analisa arquivos de imagem. Ele extrai um rico conjunto de recursos visuais com base no conteúdo da imagem. |
IndexDocumentsClient |
Cliente de documentos de índice |
IndexDocumentsOptions |
Opções para a operação de lote de índice de modificação. |
IndexDocumentsResult |
Resposta contendo o status das operações para todos os documentos na solicitação de indexação. |
IndexerExecutionResult |
Representa o resultado de uma execução de indexador individual. |
IndexingParameters |
Representa parâmetros para execução do indexador. |
IndexingParametersConfiguration |
Um dicionário de propriedades de configuração específicas do indexador. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
IndexingResult |
Status de uma operação de indexação para um único documento. |
IndexingSchedule |
Representa uma agenda para a execução do indexador. |
InputFieldMappingEntry |
Mapeamento de campo de entrada para uma habilidade. |
KeepTokenFilter |
Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Este filtro de token é implementado usando Apache Lucene. |
KeyPhraseExtractionSkill |
Uma habilidade que usa análise de texto para extração de frases-chave. |
KeywordMarkerTokenFilter |
Marca termos como palavras-chave. Este filtro de token é implementado usando Apache Lucene. |
KeywordTokenizer |
Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene. |
LanguageDetectionSkill |
Uma habilidade que deteta o idioma do texto de entrada e relata um único código de idioma para cada documento enviado na solicitação. O código da linguagem é emparelhado com uma pontuação que indica a confiança da análise. |
LengthTokenFilter |
Remove palavras muito longas ou curtas. Este filtro de token é implementado usando Apache Lucene. |
LimitTokenFilter |
Limita o número de tokens durante a indexação. Este filtro de token é implementado usando Apache Lucene. |
ListSearchResultsPageSettings |
Argumentos para recuperar a próxima página de resultados da pesquisa. |
LuceneStandardAnalyzer |
Analisador Apache Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop. |
LuceneStandardTokenizer |
Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene. |
MagnitudeScoringFunction |
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico. |
MagnitudeScoringParameters |
Fornece valores de parâmetros para uma função de pontuação de magnitude. |
MappingCharFilter |
Um filtro de caracteres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (a correspondência de padrão mais longa em um determinado ponto vence). A substituição pode ser a cadeia de caracteres vazia. Este filtro de caracteres é implementado usando Apache Lucene. |
MergeSkill |
Uma habilidade para mesclar duas ou mais cadeias de caracteres em uma única cadeia de caracteres unificada, com um delimitador opcional definido pelo usuário separando cada parte do componente. |
MicrosoftLanguageStemmingTokenizer |
Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base. |
MicrosoftLanguageTokenizer |
Divide o texto usando regras específicas do idioma. |
NGramTokenFilter |
Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene. |
NGramTokenizer |
Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Este tokenizador é implementado usando Apache Lucene. |
OcrSkill |
Uma habilidade que extrai texto de arquivos de imagem. |
OutputFieldMappingEntry |
Mapeamento de campo de saída para uma habilidade. |
PIIDetectionSkill |
Usando a API de Análise de Texto, extrai informações pessoais de um texto de entrada e oferece a opção de mascará-lo. |
PathHierarchyTokenizer |
Tokenizador para hierarquias semelhantes a caminhos. Este tokenizador é implementado usando Apache Lucene. |
PatternAnalyzer |
Separa o texto de forma flexível em termos através de um padrão de expressão regular. Este analisador é implementado usando Apache Lucene. |
PatternCaptureTokenFilter |
Usa regexes Java para emitir vários tokens - um para cada grupo de captura em um ou mais padrões. Este filtro de token é implementado usando Apache Lucene. |
PatternReplaceCharFilter |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de caracteres é implementado usando Apache Lucene. |
PatternReplaceTokenFilter |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado usando Apache Lucene. |
PatternTokenizer |
Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado usando Apache Lucene. |
PhoneticTokenFilter |
Crie tokens para correspondências fonéticas. Este filtro de token é implementado usando Apache Lucene. |
QueryAnswerResult |
Uma resposta é uma passagem de texto extraída do conteúdo dos documentos mais relevantes que correspondem à consulta. As respostas são extraídas dos principais resultados da pesquisa. Os candidatos às respostas são pontuados e as melhores respostas são selecionadas. |
QueryCaptionResult |
As legendas são as passagens mais representativas do documento em relação à consulta de pesquisa. São frequentemente utilizados como resumo de documentos. As legendas só são retornadas para consultas do tipo |
ResourceCounter |
Representa o uso e a cota de um recurso. |
ScalarQuantizationCompression |
Contém opções de configuração específicas para o método de compressão de quantização escalar usado durante a indexação e consulta. |
ScalarQuantizationParameters |
Contém os parâmetros específicos da Quantização Escalar. |
ScoringProfile |
Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa. |
SearchClientOptions |
Opções de cliente usadas para configurar solicitações de API de Pesquisa Cognitiva. |
SearchDocumentsPageResult |
Resposta que contém resultados de página de pesquisa de um índice. |
SearchDocumentsResult |
Resposta que contém resultados de pesquisa de um índice. |
SearchDocumentsResultBase |
Resposta que contém resultados de pesquisa de um índice. |
SearchIndex |
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice. |
SearchIndexClientOptions |
Opções de cliente usadas para configurar solicitações de API de Pesquisa Cognitiva. |
SearchIndexStatistics |
Estatísticas para um determinado índice. As estatísticas são recolhidas periodicamente e não é garantido que estejam sempre up-todata. |
SearchIndexer |
Representa um indexador. |
SearchIndexerClientOptions |
Opções de cliente usadas para configurar solicitações de API de Pesquisa Cognitiva. |
SearchIndexerDataContainer |
Representa informações sobre a entidade (como a tabela SQL do Azure ou a coleção CosmosDB) que será indexada. |
SearchIndexerDataNoneIdentity |
Limpa a propriedade identity de uma fonte de dados. |
SearchIndexerDataSourceConnection |
Representa uma definição de fonte de dados, que pode ser usada para configurar um indexador. |
SearchIndexerDataUserAssignedIdentity |
Especifica a identidade a ser usada por uma fonte de dados. |
SearchIndexerError |
Representa um erro de indexação no nível de item ou documento. |
SearchIndexerIndexProjection |
Definição de projeções adicionais para índices de pesquisa secundários. |
SearchIndexerIndexProjectionParameters |
Um dicionário de propriedades de configuração específicas de projeção de índice. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
SearchIndexerIndexProjectionSelector |
Descrição dos dados a armazenar no índice de pesquisa designado. |
SearchIndexerKnowledgeStore |
Definição de projeções adicionais para azure blob, tabela ou arquivos, de dados enriquecidos. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Classe abstrata para compartilhar propriedades entre seletores concretos. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definição de projeção para quais dados armazenar nos Arquivos do Azure. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definição de projeção para quais dados armazenar no Blob do Azure. |
SearchIndexerKnowledgeStoreParameters |
Um dicionário de propriedades de configuração específicas do repositório de conhecimento. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
SearchIndexerKnowledgeStoreProjection |
Objeto de contêiner para vários seletores de projeção. |
SearchIndexerKnowledgeStoreProjectionSelector |
Classe abstrata para compartilhar propriedades entre seletores concretos. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Descrição dos dados a armazenar nas Tabelas do Azure. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Uma lista de competências. |
SearchIndexerStatus |
Representa o status atual e o histórico de execução de um indexador. |
SearchIndexerWarning |
Representa um aviso no nível do item. |
SearchIndexingBufferedSenderOptions |
Opções para SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Uma chave de criptografia gerenciada pelo cliente no Cofre de Chaves do Azure. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso na Pesquisa Cognitiva do Azure, como índices e mapas de sinônimos. |
SearchServiceStatistics |
Resposta de uma solicitação de estatísticas de serviço get. Se for bem-sucedido, inclui contadores e limites de nível de serviço. |
SearchSuggester |
Define como a API Sugerir deve ser aplicada a um grupo de campos no índice. |
SemanticConfiguration |
Define uma configuração específica a ser usada no contexto de recursos semânticos. |
SemanticField |
Um campo que é usado como parte da configuração semântica. |
SemanticPrioritizedFields |
Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, destaques e respostas. |
SemanticSearch |
Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos. |
SemanticSearchOptions |
Define opções para consultas de pesquisa semântica |
SentimentSkill |
Análise de sentimento positivo-negativo de análise de texto, pontuada como um valor de ponto flutuante em um intervalo de zero a 1. |
SentimentSkillV3 |
Usando a API de Análise de Texto, avalia texto não estruturado e, para cada registro, fornece rótulos de sentimento (como "negativo", "neutro" e "positivo") com base na pontuação de confiança mais alta encontrada pelo serviço em nível de frase e documento. |
ServiceCounters |
Representa contadores de recursos e cotas de nível de serviço. |
ServiceLimits |
Representa vários limites de nível de serviço. |
ShaperSkill |
Uma habilidade para remodelar os resultados. Ele cria um tipo complexo para suportar campos compostos (também conhecidos como campos de várias partes). |
ShingleTokenFilter |
Cria combinações de tokens como um único token. Este filtro de token é implementado usando Apache Lucene. |
Similarity |
Tipo de base para algoritmos de semelhança. Algoritmos de semelhança são usados para calcular pontuações que vinculam consultas a documentos. Quanto maior a pontuação, mais relevante é o documento para aquela consulta específica. Essas pontuações são usadas para classificar os resultados da pesquisa. |
SimpleField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
SnowballTokenFilter |
Um filtro que deriva palavras usando um lematizador gerado por Bola-de-Neve. Este filtro de token é implementado usando Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Define uma política de deteção de exclusão de dados que implementa uma estratégia de exclusão suave. Determina se um item deve ser excluído com base no valor de uma coluna designada de 'exclusão suave'. |
SplitSkill |
Uma habilidade para dividir uma cadeia de caracteres em pedaços de texto. |
SqlIntegratedChangeTrackingPolicy |
Define uma política de deteção de alterações de dados que captura alterações usando o recurso Controle Integrado de Alterações do Banco de Dados SQL do Azure. |
StemmerOverrideTokenFilter |
Fornece a capacidade de substituir outros filtros de derivação com derivação personalizada baseada em dicionário. Quaisquer termos dicionários serão marcados como palavras-chave para que não sejam engessados com lematizadores ao longo da cadeia. Deve ser colocado antes de quaisquer filtros de derivação. Este filtro de token é implementado usando Apache Lucene. |
StemmerTokenFilter |
Filtro de derivação específico da linguagem. Este filtro de token é implementado usando Apache Lucene. |
StopAnalyzer |
Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Este analisador é implementado usando Apache Lucene. |
StopwordsTokenFilter |
Remove palavras de parada de um fluxo de token. Este filtro de token é implementado usando Apache Lucene. |
SuggestDocumentsResult |
Resposta contendo resultados de consulta de sugestão de um índice. |
SuggestRequest |
Parâmetros para filtragem, classificação, correspondência difusa e outros comportamentos de consulta de sugestões. |
SynonymMap |
Representa uma definição de mapa de sinônimo. |
SynonymTokenFilter |
Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Este filtro de token é implementado usando Apache Lucene. |
TagScoringFunction |
Define uma função que aumenta pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de tags. |
TagScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de tag. |
TextTranslationSkill |
Uma habilidade para traduzir texto de um idioma para outro. |
TextWeights |
Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa. |
TruncateTokenFilter |
Trunca os termos até um comprimento específico. Este filtro de token é implementado usando Apache Lucene. |
UaxUrlEmailTokenizer |
Tokeniza urls e e-mails como um token. Este tokenizador é implementado usando Apache Lucene. |
UniqueTokenFilter |
Filtra tokens com o mesmo texto do token anterior. Este filtro de token é implementado usando Apache Lucene. |
VectorSearch |
Contém opções de configuração relacionadas à pesquisa vetorial. |
VectorSearchOptions |
Define opções para consultas de pesquisa vetorial |
VectorSearchProfile |
Define uma combinação de configurações a serem usadas com a pesquisa vetorial. |
VectorizableTextQuery |
Os parâmetros de consulta a serem usados para pesquisa vetorial quando um valor de texto que precisa ser vetorizado é fornecido. |
VectorizedQuery |
Os parâmetros de consulta a serem usados para pesquisa vetorial quando um valor vetorial bruto é fornecido. |
WebApiParameters |
Especifica as propriedades para conexão a um vetorizador definido pelo usuário. |
WebApiSkill |
Uma habilidade que pode chamar um ponto de extremidade de API da Web, permitindo que você estenda um conjunto de habilidades fazendo com que ele chame seu código personalizado. |
WebApiVectorizer |
Especifica um vetorizador definido pelo usuário para gerar a incorporação vetorial de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface personalizada da API Web de um conjunto de habilidades. |
WordDelimiterTokenFilter |
Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras. Este filtro de token é implementado usando Apache Lucene. |
Aliases de Tipo
AnalyzeTextOptions |
Opções para analisar operação de texto. |
AutocompleteMode |
Define valores para AutocompleteMode. |
AutocompleteOptions |
Opções para recuperar texto de conclusão para um searchText parcial. |
AzureOpenAIModelName |
Define valores para AzureOpenAIModelName. Valores conhecidos suportados pelo serviço
text-embedding-ada-002 |
BlobIndexerDataToExtract | |
BlobIndexerImageAction | |
BlobIndexerPDFTextRotationAlgorithm | |
BlobIndexerParsingMode | |
CharFilter |
Contém os casos possíveis para CharFilter. |
CharFilterName |
Define valores para CharFilterName. Valores conhecidos suportados pelo serviçohtml_strip: Um filtro de caracteres que tenta remover construções HTML. Visualizar https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Define valores para CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Contém os possíveis casos para CognitiveServicesAccount. |
ComplexDataType |
Define valores para ComplexDataType. Os valores possíveis incluem: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Opções para executar a operação de contagem no índice. |
CreateDataSourceConnectionOptions |
Opções para criar operação de fonte de dados. |
CreateIndexOptions |
Opções para criar operação de índice. |
CreateIndexerOptions |
Opções para criar operação de indexador. |
CreateSkillsetOptions |
Opções para criar operação de conjunto de habilidades. |
CreateSynonymMapOptions |
Opções para criar operação de mapa de sinônimos. |
CustomEntityLookupSkillLanguage | |
DataChangeDetectionPolicy |
Contém os casos possíveis para DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Contém os casos possíveis para DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Opções para a operação de exclusão de documentos. |
EdgeNGramTokenFilterSide |
Define valores para EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage | |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetorial. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Opções para obter a operação da fonte de dados. |
GetIndexOptions |
Opções para obter operação de índice. |
GetIndexStatisticsOptions |
Opções para obter a operação de estatísticas de índice. |
GetIndexerOptions |
Opções para obter a operação do indexador. |
GetIndexerStatusOptions |
Opções para obter a operação de status do indexador. |
GetServiceStatisticsOptions |
Opções para obter a operação de estatísticas de serviço. |
GetSkillSetOptions |
Opções para obter operação skillset. |
GetSynonymMapsOptions |
Opções para obter operação de mapas de sinônimos. |
HnswAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo de vizinhos aproximados mais próximos hnsw usado durante o tempo de indexação. |
ImageAnalysisSkillLanguage | |
ImageDetail | |
IndexActionType |
Define valores para IndexActionType. |
IndexDocumentsAction |
Representa uma ação de índice que opera em um documento. |
IndexIterator |
Um iterador para listar os índices existentes no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
IndexNameIterator |
Um iterador para listar os índices existentes no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
IndexProjectionMode |
Define valores para IndexProjectionMode. Valores conhecidos suportados pelo serviço
skipIndexingParentDocuments: O documento de origem será ignorado da gravação no índice de destino do indexador. |
IndexerExecutionEnvironment | |
IndexerExecutionStatus |
Define valores para IndexerExecutionStatus. |
IndexerStatus |
Define valores para IndexerStatus. |
KeyPhraseExtractionSkillLanguage | |
LexicalAnalyzer |
Contém os casos possíveis para o Analyzer. |
LexicalAnalyzerName |
Define valores para LexicalAnalyzerName. Valores conhecidos suportados pelo serviço
ar.microsoft: Microsoft analyzer para árabe. |
LexicalTokenizer |
Contém os casos possíveis para Tokenizer. |
LexicalTokenizerName |
Define valores para LexicalTokenizerName. Valores conhecidos suportados pelo serviço
clássico : tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Opções para uma operação de fontes de dados de lista. |
ListIndexersOptions |
Opções para uma operação de indexadores de lista. |
ListIndexesOptions |
Opções para uma operação de índices de lista. |
ListSkillsetsOptions |
Opções para uma operação de conjunto de habilidades de lista. |
ListSynonymMapsOptions |
Opções para uma operação de lista synonymMaps. |
MergeDocumentsOptions |
Opções para a operação de mesclagem de documentos. |
MergeOrUploadDocumentsOptions |
Opções para a operação de mesclagem ou upload de documentos. |
MicrosoftStemmingTokenizerLanguage |
Define valores para MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Define valores para MicrosoftTokenizerLanguage. |
NarrowedModel |
Restringe o tipo de modelo para incluir apenas os campos selecionados |
OcrLineEnding |
Define valores para OcrLineEnding. Valores conhecidos suportados pelo serviço
espaço: As linhas são separadas por um único caractere de espaço. |
OcrSkillLanguage | |
PIIDetectionSkillMaskingMode | |
PhoneticEncoder |
Define valores para PhoneticEncoder. |
QueryAnswer |
Um valor que especifica se as respostas devem ser retornadas como parte da resposta da pesquisa.
Este parâmetro só é válido se o tipo de consulta for 'semântico'. Se definido como |
QueryCaption |
Um valor que especifica se as legendas devem ser retornadas como parte da resposta da pesquisa. Este parâmetro só é válido se o tipo de consulta for 'semântico'. Se definida, a consulta retorna legendas extraídas de passagens importantes nos documentos mais bem classificados. Quando Legendas é 'extrativa', o realce é ativado por padrão. O padrão é 'nenhum'. |
QueryType |
Define valores para QueryType. |
RegexFlags | |
ResetIndexerOptions |
Opções para redefinir a operação do indexador. |
RunIndexerOptions |
Opções para executar a operação do indexador. |
ScoringFunction |
Contém os casos possíveis para ScoringFunction. |
ScoringFunctionAggregation |
Define valores para ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Define valores para ScoringFunctionInterpolation. |
ScoringStatistics |
Define valores para ScoringStatistics. |
SearchField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
SearchFieldArray |
Se |
SearchFieldDataType |
Define valores para SearchFieldDataType. Valores conhecidos suportados pelo serviço:Edm.String: Indica que um campo contém uma cadeia de caracteres. Edm.Int32: Indica que um campo contém um inteiro assinado de 32 bits. Edm.Int64: Indica que um campo contém um inteiro assinado de 64 bits. Edm.Double: Indica que um campo contém um número de ponto flutuante de precisão dupla IEEE. Edm.Boolean: Indica que um campo contém um valor booleano (true ou false). Edm.DateTimeOffset: Indica que um campo contém um valor de data/hora, incluindo informações de fuso horário. Edm.GeographyPoint: Indica que um campo contém uma geolocalização em termos de longitude e latitude. Edm.ComplexType: Indica que um campo contém um ou mais objetos complexos que, por sua vez, têm subcampos de outros tipos. Edm.Single: Indica que um campo contém um número de ponto flutuante de precisão única. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Single). Edm.Half: Indica que um campo contém um número de ponto flutuante de meia precisão. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Coleção (Edm.Half). Edm.Int16: Indica que um campo contém um inteiro assinado de 16 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Int16). Edm.SByte: Indica que um campo contém um inteiro assinado de 8 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Coleção (Edm.SByte). Edm.Byte: Indica que um campo contém um inteiro não assinado de 8 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Byte). |
SearchIndexerDataIdentity |
Contém os casos possíveis para SearchIndexerDataIdentity. |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Contém os casos possíveis para Habilidade. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opções para SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Opções para SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Opções para SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opções para SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Opções para SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Um iterador para resultados de pesquisa de uma consulta paticular. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
SearchMode |
Define valores para SearchMode. |
SearchOptions |
Opções para confirmar uma solicitação de pesquisa completa. |
SearchPick |
Escolha profundamente campos de T usando caminhos válidos de $select OData de Pesquisa Cognitiva. |
SearchRequestOptions |
Parâmetros para filtragem, classificação, facetagem, paginação e outros comportamentos de consulta de pesquisa. |
SearchRequestQueryTypeOptions | |
SearchResult |
Contém um documento encontrado por uma consulta de pesquisa, além de metadados associados. |
SelectArray |
Se |
SelectFields |
Produz uma união de Busca Cognitiva OData válida $select caminhos para T usando uma travessia pós-ordem da árvore de campo enraizada em T. |
SemanticErrorMode | |
SemanticErrorReason | |
SemanticSearchResultsType | |
SentimentSkillLanguage | |
SimilarityAlgorithm |
Contém os possíveis casos de Similaridade. |
SnowballTokenFilterLanguage |
Define valores para SnowballTokenFilterLanguage. |
SplitSkillLanguage | |
StemmerTokenFilterLanguage |
Define valores para StemmerTokenFilterLanguage. |
StopwordsList |
Define valores para StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Opções para recuperar sugestões com base no searchText. |
SuggestResult |
Um resultado que contém um documento encontrado por uma consulta de sugestão, além de metadados associados. |
TextSplitMode | |
TextTranslationSkillLanguage | |
TokenCharacterKind |
Define valores para TokenCharacterKind. |
TokenFilter |
Contém os casos possíveis para TokenFilter. |
TokenFilterName |
Define valores para TokenFilterName. Valores conhecidos suportados pelo serviço
arabic_normalization: Um filtro simbólico que aplica o normalizador árabe para normalizar a ortografia. Visualizar http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Opções para a operação de upload de documentos. |
VectorEncodingFormat |
Define valores para VectorEncodingFormat. Valores conhecidos suportados pelo serviçopackedBit: Formato de codificação que representa bits compactados em um tipo de dados mais amplo. |
VectorFilterMode | |
VectorQuery |
Os parâmetros de consulta para consultas de pesquisa vetoriais e híbridas. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric | |
VectorSearchCompression |
Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta. |
VectorSearchCompressionKind |
Define valores para VectorSearchCompressionKind. Valores conhecidos suportados pelo serviço
scalarQuantization: Quantização escalar, um tipo de método de compressão. Na quantização escalar, os valores dos vetores originais são compactados para um tipo mais estreito, discretizando e representando cada componente de um vetor usando um conjunto reduzido de valores quantizados, reduzindo assim o tamanho geral dos dados. |
VectorSearchCompressionTarget |
Define valores para VectorSearchCompressionTarget. Valores conhecidos suportados pelo serviçoint8 |
VectorSearchVectorizer |
Contém opções de configuração sobre como vetorizar consultas vetoriais de texto. |
VectorSearchVectorizerKind |
Define valores para VectorSearchVectorizerKind. Valores conhecidos suportados pelo serviço
azureOpenAI: gere incorporações usando um recurso do Azure OpenAI no momento da consulta. |
VisualFeature |
Enumerações
KnownAnalyzerNames |
Define valores para AnalyzerName. Visualizar https://docs.microsoft.com/rest/api/searchservice/Language-support |
KnownAzureOpenAIModelName |
Os valores conhecidos de AzureOpenAIModelName que o serviço aceita. |
KnownBlobIndexerDataToExtract |
Os valores conhecidos de BlobIndexerDataToExtract que o serviço aceita. |
KnownBlobIndexerImageAction |
Os valores conhecidos de BlobIndexerImageAction que o serviço aceita. |
KnownBlobIndexerPDFTextRotationAlgorithm |
Os valores conhecidos de BlobIndexerPDFTextRotationAlgorithm que o serviço aceita. |
KnownBlobIndexerParsingMode |
Os valores conhecidos de BlobIndexerParsingMode que o serviço aceita. |
KnownCharFilterNames |
Os valores conhecidos de CharFilterName que o serviço aceita. |
KnownCustomEntityLookupSkillLanguage |
Os valores conhecidos de CustomEntityLookupSkillLanguage que o serviço aceita. |
KnownEntityCategory |
Os valores conhecidos de EntityCategory que o serviço aceita. |
KnownEntityRecognitionSkillLanguage |
Os valores conhecidos de EntityRecognitionSkillLanguage que o serviço aceita. |
KnownImageAnalysisSkillLanguage |
Os valores conhecidos de ImageAnalysisSkillLanguage que o serviço aceita. |
KnownImageDetail |
Os valores conhecidos de ImageDetail que o serviço aceita. |
KnownIndexProjectionMode |
Os valores conhecidos de IndexProjectionMode que o serviço aceita. |
KnownIndexerExecutionEnvironment |
Os valores conhecidos de IndexerExecutionEnvironment que o serviço aceita. |
KnownKeyPhraseExtractionSkillLanguage |
Os valores conhecidos de KeyPhraseExtractionSkillLanguage que o serviço aceita. |
KnownOcrLineEnding |
Os valores conhecidos de OcrLineEnding que o serviço aceita. |
KnownOcrSkillLanguage |
Os valores conhecidos de OcrSkillLanguage que o serviço aceita. |
KnownPIIDetectionSkillMaskingMode |
Os valores conhecidos de PIIDetectionSkillMaskingMode que o serviço aceita. |
KnownRegexFlags |
Os valores conhecidos de RegexFlags que o serviço aceita. |
KnownSearchAudience |
Valores conhecidos para o Público de Pesquisa |
KnownSearchFieldDataType |
Os valores conhecidos de SearchFieldDataType que o serviço aceita. |
KnownSearchIndexerDataSourceType |
Os valores conhecidos de SearchIndexerDataSourceType que o serviço aceita. |
KnownSemanticErrorMode |
Os valores conhecidos de SemanticErrorMode que o serviço aceita. |
KnownSemanticErrorReason |
Os valores conhecidos de SemanticErrorReason que o serviço aceita. |
KnownSemanticSearchResultsType |
Os valores conhecidos de SemanticSearchResultsType que o serviço aceita. |
KnownSentimentSkillLanguage |
Os valores conhecidos de SentimentSkillLanguage que o serviço aceita. |
KnownSplitSkillLanguage |
Os valores conhecidos de SplitSkillLanguage que o serviço aceita. |
KnownTextSplitMode |
Os valores conhecidos de TextSplitMode que o serviço aceita. |
KnownTextTranslationSkillLanguage |
Os valores conhecidos de TextTranslationSkillLanguage que o serviço aceita. |
KnownTokenFilterNames |
Os valores conhecidos de TokenFilterName que o serviço aceita. |
KnownTokenizerNames |
Os valores conhecidos de LexicalTokenizerName que o serviço aceita. |
KnownVectorEncodingFormat |
Valores conhecidos de VectorEncodingFormat que o serviço aceita. |
KnownVectorFilterMode |
Os valores conhecidos de VectorFilterMode que o serviço aceita. |
KnownVectorQueryKind |
Os valores conhecidos de VectorQueryKind que o serviço aceita. |
KnownVectorSearchAlgorithmKind |
Os valores conhecidos de VectorSearchAlgorithmKind que o serviço aceita. |
KnownVectorSearchAlgorithmMetric |
Os valores conhecidos de VectorSearchAlgorithmMetric que o serviço aceita. |
KnownVectorSearchCompressionKind |
Os valores conhecidos de VectorSearchCompressionKind que o serviço aceita. |
KnownVectorSearchCompressionTarget |
Os valores conhecidos de VectorSearchCompressionTarget que o serviço aceita. |
KnownVectorSearchVectorizerKind |
Os valores conhecidos de VectorSearchVectorizerKind que o serviço aceita. |
KnownVisualFeature |
Os valores conhecidos de VisualFeature que o serviço aceita. |
Funções
create |
Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS. |
odata(Template |
Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Exemplo de uso:
Para obter mais informações sobre a sintaxe suportada, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Detalhes de Função
createSynonymMapFromFile(string, string)
Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parâmetros
- name
-
string
Nome do SynonymMap.
- filePath
-
string
Caminho do ficheiro que contém os Sinónimos (separados por novas linhas)
Devoluções
Promise<SynonymMap>
Objeto SynonymMap
odata(TemplateStringsArray, unknown[])
Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Exemplo de uso:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Para obter mais informações sobre a sintaxe suportada, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parâmetros
- strings
-
TemplateStringsArray
Matriz de cadeias de caracteres para a expressão
- values
-
unknown[]
Matriz de valores para a expressão
Devoluções
string