Azure.Search.Documents.Indexes.Models Namespace
Importante
Algumas informações se referem a produtos de pré-lançamento que podem ser substancialmente modificados antes do lançamento. A Microsoft não oferece garantias, expressas ou implícitas, das informações aqui fornecidas.
Classes
AnalyzedTokenInfo |
Informações sobre um token retornado por um analisador. |
AnalyzeTextOptions |
Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens. |
AsciiFoldingTokenFilter |
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico" em seus equivalentes ASCII, se esses equivalentes existirem. Esse filtro de token é implementado usando o Apache Lucene. |
AzureMachineLearningSkill |
A habilidade AML permite estender o enriquecimento de IA com um modelo AML (Azure Machine Learning) personalizado. Depois que um modelo AML é treinado e implantado, uma habilidade AML o integra ao enriquecimento de IA. |
AzureOpenAIEmbeddingSkill |
Permite gerar uma inserção de vetor para uma determinada entrada de texto usando o serviço Azure Open AI. |
AzureOpenAIParameters |
Contém os parâmetros específicos para usar um serviço de IA Aberta do Azure para vetorização no momento da consulta. |
AzureOpenAIVectorizer |
Contém os parâmetros específicos para usar um serviço de IA Aberta do Azure para vetorização no momento da consulta. |
BM25Similarity |
Função de classificação com base no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1'). |
CharFilter |
Tipo base para filtros de caracteres. CharFilter Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem MappingCharFilter e PatternReplaceCharFilter. |
CjkBigramTokenFilter |
Forma bigrams de termos CJK gerados do criador de token padrão. Esse filtro de token é implementado usando o Apache Lucene. |
ClassicSimilarity |
Algoritmo de similaridade herdado que usa a implementação lucene TFIDFSimilarity do TF-IDF. Essa variação do TF-IDF introduz a normalização de comprimento de documento estático, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas. |
ClassicTokenizer |
Criador de tokens baseado em gramática adequado para processar a maioria dos documentos em idioma europeu. Esse criador de tokens é implementado usando o Apache Lucene. |
CognitiveServicesAccount |
Tipo base para descrever qualquer recurso de serviço cognitivo anexado a um conjunto de habilidades. CognitiveServicesAccount Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem CognitiveServicesAccountKey e DefaultCognitiveServicesAccount. |
CognitiveServicesAccountKey |
Um recurso de serviço cognitivo provisionado com uma chave anexada a um conjunto de habilidades. |
CommonGramTokenFilter |
Construa bigramas para termos que ocorrem com frequência durante a indexação. Termos únicos ainda são indexados também, com bigramas sobrepostos. Esse filtro de token é implementado usando o Apache Lucene. |
ComplexField |
Um campo complexo ou uma coleção de campos complexos que contêm campos filho. Os campos filho podem ser SimpleField ou ComplexField. |
ConditionalSkill |
Uma habilidade que permite cenários que exigem uma operação booliana para determinar os dados a serem atribuídos a uma saída. |
CorsOptions |
Define opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para um índice. |
CustomAnalyzer |
Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizer predefinido e um ou mais filtros. O criador de token é responsável por dividir o texto em tokens e os filtros para modificar tokens emitidos pelo criador de tokens. |
CustomEntity |
Um objeto que contém informações sobre as correspondências encontradas e os metadados relacionados. |
CustomEntityAlias |
Um objeto complexo que pode ser usado para especificar ortografias ou sinônimos alternativos para o nome da entidade raiz. |
CustomEntityLookupSkill |
Uma habilidade procura texto de uma lista personalizada e definida pelo usuário de palavras e frases. |
CustomNormalizer |
Permite configurar a normalização para campos filtráveis, classificáveis e facetáveis, que, por padrão, operam com correspondência estrita. Essa é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado. |
CustomVectorizer |
Contém os parâmetros específicos para gerar inserções de vetor por meio de um ponto de extremidade personalizado. |
CustomVectorizerParameters |
Contém os parâmetros específicos para gerar inserções de vetor por meio de um ponto de extremidade personalizado. |
DataChangeDetectionPolicy |
Tipo base para políticas de detecção de alterações de dados. DataChangeDetectionPolicy Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem HighWaterMarkChangeDetectionPolicy e SqlIntegratedChangeTrackingPolicy. |
DataDeletionDetectionPolicy |
Tipo base para políticas de detecção de exclusão de dados. DataDeletionDetectionPolicy Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem NativeBlobSoftDeleteDeletionDetectionPolicy e SoftDeleteColumnDeletionDetectionPolicy. |
DefaultCognitiveServicesAccount |
Um objeto vazio que representa o recurso de serviço cognitivo padrão para um conjunto de habilidades. |
DictionaryDecompounderTokenFilter |
Decompõe palavras compostas encontradas em muitos idiomas germânicos. Esse filtro de token é implementado usando o Apache Lucene. |
DistanceScoringFunction |
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica. |
DistanceScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de distância. |
DocumentExtractionSkill |
Uma habilidade que extrai conteúdo de um arquivo dentro do pipeline de enriquecimento. |
EdgeNGramTokenFilter |
Gera n-gramas dos tamanhos fornecidos começando na frente ou na parte traseira de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene. |
EdgeNGramTokenizer |
Tokeniza a entrada de uma borda em n-gramas dos tamanhos fornecidos. Esse criador de tokens é implementado usando o Apache Lucene. |
ElisionTokenFilter |
Remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Esse filtro de token é implementado usando o Apache Lucene. |
EntityLinkingSkill |
Usando a API Análise de Texto, extrai entidades vinculadas do texto. |
EntityRecognitionSkill |
Essa habilidade foi preterida. Use a V3. Em vez disso, EntityRecognitionSkill. |
ExhaustiveKnnParameters |
Contém os parâmetros específicos para o algoritmo KNN exaustivo. |
ExhaustiveKnnVectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice de vetor. |
FieldMapping |
Define um mapeamento entre um campo em uma fonte de dados e um campo de destino em um índice. |
FieldMappingFunction |
Representa uma função que transforma um valor de uma fonte de dados antes da indexação. |
FreshnessScoringFunction |
Define uma função que aumenta as pontuações com base no valor de um campo de data e hora. |
FreshnessScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de atualização. |
HighWaterMarkChangeDetectionPolicy |
Define uma política de detecção de alteração de dados que captura alterações com base no valor de uma coluna de marca d'água alta. |
HnswParameters |
Contém os parâmetros específicos do algoritmo hnsw. |
HnswVectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo de vizinhos mais próximos aproximados do hnsw usado durante a indexação e a consulta. O algoritmo hnsw oferece uma compensação ajustável entre a velocidade e a precisão da pesquisa. |
ImageAnalysisSkill |
Uma habilidade que analisa arquivos de imagem. Ele extrai um conjunto avançado de recursos visuais com base no conteúdo da imagem. |
IndexerChangeTrackingState |
Representa o estado de controle de alterações durante a execução de um indexador. |
IndexerExecutionResult |
Representa o resultado de uma execução individual do indexador. |
IndexerState |
Representa todo o estado que define e determina a execução atual do indexador. |
IndexingParameters |
Representa os parâmetros de execução do indexador. |
IndexingParametersConfiguration |
Um dicionário de propriedades de configuração específicas do indexador. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
IndexingSchedule |
Representa uma agenda para a execução do indexador. |
InputFieldMappingEntry |
Mapeamento de campo de entrada para uma habilidade. |
KeepTokenFilter |
Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Esse filtro de token é implementado usando o Apache Lucene. |
KeyPhraseExtractionSkill |
Uma habilidade que usa a análise de texto para extração de frases-chave. |
KeywordMarkerTokenFilter |
Marca termos como palavras-chave. Esse filtro de token é implementado usando o Apache Lucene. |
KeywordTokenizer |
Emite a entrada inteira como um único token. Esse criador de tokens é implementado usando o Apache Lucene. |
KnowledgeStore |
Definição de projeções adicionais para blob, tabela ou arquivos do Azure de dados enriquecidos. |
KnowledgeStoreFileProjectionSelector |
Definição de projeção para quais dados armazenar em Arquivos do Azure. |
KnowledgeStoreObjectProjectionSelector |
Definição de projeção para quais dados armazenar no Blob do Azure. |
KnowledgeStoreProjection |
Objeto container para vários seletores de projeção. |
KnowledgeStoreProjectionSelector |
Classe abstrata para compartilhar propriedades entre seletores concretos. |
KnowledgeStoreStorageProjectionSelector |
Classe abstrata para compartilhar propriedades entre seletores concretos. |
KnowledgeStoreTableProjectionSelector |
Descrição de quais dados armazenar nas Tabelas do Azure. |
LanguageDetectionSkill |
Uma habilidade que detecta o idioma do texto de entrada e relata um único código de idioma para cada documento enviado na solicitação. O código de idioma é emparelhado com uma pontuação que indica a confiança da análise. |
LengthTokenFilter |
Remove palavras muito longas ou muito curtas. Esse filtro de token é implementado usando o Apache Lucene. |
LexicalAnalyzer |
Tipo base para analisadores. LexicalAnalyzer Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem CustomAnalyzer, LuceneStandardAnalyzerPatternAnalyzere StopAnalyzer. |
LexicalAnalyzerName.Values |
Os valores de todas as propriedades declaradas LexicalAnalyzerName como constantes de cadeia de caracteres. Elas podem ser usadas em e em SearchableFieldAttribute qualquer outro lugar são necessárias constantes. |
LexicalNormalizer |
Tipo base para normalizadores. LexicalNormalizer Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem CustomNormalizer. |
LexicalNormalizerName.Values |
Os valores de todas as propriedades declaradas LexicalNormalizerName como constantes de cadeia de caracteres. Elas podem ser usadas em e SearchableFieldAttribute em SimpleFieldAttributequalquer outro lugar são necessárias constantes. |
LexicalTokenizer |
Tipo base para criadores de token. LexicalTokenizer Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem ClassicTokenizer, , KeywordTokenizerEdgeNGramTokenizer, KeywordTokenizer, MicrosoftLanguageStemmingTokenizer, MicrosoftLanguageTokenizer, NGramTokenizer, PatternTokenizerPathHierarchyTokenizer, , LuceneStandardTokenizerLuceneStandardTokenizere UaxUrlEmailTokenizer. |
LimitTokenFilter |
Limita o número de tokens durante a indexação. Esse filtro de token é implementado usando o Apache Lucene. |
LuceneStandardAnalyzer |
Analisador Standard do Apache Lucene; Composto pelo tokenizer padrão, filtro em minúsculas e filtro de parada. |
LuceneStandardTokenizer |
Quebra o texto seguindo as regras de Segmentação de Texto Unicode. Esse criador de tokens é implementado usando o Apache Lucene. |
MagnitudeScoringFunction |
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico. |
MagnitudeScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de magnitude. |
MappingCharFilter |
Um filtro de caracteres que aplica mapeamentos definidos com a opção de mapeamentos. A correspondência é gananciosa (a correspondência de padrões mais longa em um determinado ponto vence). A substituição é permitida como a cadeia de caracteres vazia. Esse filtro de caractere é implementado usando o Apache Lucene. |
MergeSkill |
Uma habilidade para mesclar duas ou mais cadeias de caracteres em uma única cadeia de caracteres unificada, com um delimitador opcional definido pelo usuário separando cada parte do componente. |
MicrosoftLanguageStemmingTokenizer |
Divide o texto usando regras específicas de idioma e reduz palavras para seus formulários base. |
MicrosoftLanguageTokenizer |
Divide o texto usando regras específicas de idioma. |
NativeBlobSoftDeleteDeletionDetectionPolicy |
Define uma política de detecção de exclusão de dados utilizando o recurso de exclusão reversível nativa do Armazenamento de Blobs do Azure para detecção de exclusão. |
NGramTokenFilter |
Gera n-gramas de determinados tamanhos. Esse filtro de token é implementado usando o Apache Lucene. |
NGramTokenizer |
Cria tokens de entrada em n-gramas de determinados tamanhos. Esse criador de tokens é implementado usando o Apache Lucene. |
OcrSkill |
Uma habilidade que extrai texto de arquivos de imagem. |
OutputFieldMappingEntry |
Mapeamento de campo de saída para uma habilidade. |
PathHierarchyTokenizer |
Criador de token para hierarquias de caminho. Esse criador de tokens é implementado usando o Apache Lucene. |
PatternAnalyzer |
Separa texto em termos de forma flexível por meio de um padrão de expressão regular. Esse analisador é implementado usando o Apache Lucene. |
PatternCaptureTokenFilter |
Usa regexes Java para emitir vários tokens – um para cada grupo de captura em um ou mais padrões. Esse filtro de token é implementado usando o Apache Lucene. |
PatternReplaceCharFilter |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres para substituir. Por exemplo, considerando o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de caractere é implementado usando o Apache Lucene. |
PatternReplaceTokenFilter |
Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres para substituir. Por exemplo, considerando o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de token é implementado usando o Apache Lucene. |
PatternTokenizer |
Criador de token que usa a correspondência de padrões regex para construir tokens distintos. Esse criador de tokens é implementado usando o Apache Lucene. |
PhoneticTokenFilter |
Crie tokens para correspondências fonéticas. Esse filtro de token é implementado usando o Apache Lucene. |
PiiDetectionSkill |
Usando a API Análise de Texto, extrai informações pessoais de um texto de entrada e oferece a opção de mascaramento. |
PrioritizedFields |
Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, realces e respostas. |
ScoringFunction |
Tipo base para funções que podem modificar as pontuações do documento durante a classificação. ScoringFunction Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem DistanceScoringFunction, MagnitudeScoringFunctionFreshnessScoringFunctione TagScoringFunction. |
ScoringProfile |
Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa. |
SearchableField |
Um String campo "Coleção(Cadeia de Caracteres)" que pode ser pesquisado. |
SearchAlias |
Representa um alias de índice, que descreve um mapeamento do nome do alias para um índice. O nome do alias pode ser usado no lugar do nome do índice para operações com suporte. |
SearchField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
SearchFieldTemplate |
Tipo de campo base para classes auxiliares para criar mais facilmente um SearchIndex. |
SearchIndex |
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice. |
SearchIndexer |
Representa um indexador. |
SearchIndexerCache |
O SearchIndexerCache. |
SearchIndexerDataContainer |
Representa informações sobre a entidade (como SQL do Azure tabela ou coleção CosmosDB) que serão indexadas. |
SearchIndexerDataIdentity |
Tipo base abstrato para identidades de dados. SearchIndexerDataIdentity Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem SearchIndexerDataNoneIdentity e SearchIndexerDataUserAssignedIdentity. |
SearchIndexerDataNoneIdentity |
Limpa a propriedade de identidade de uma fonte de dados. |
SearchIndexerDataSourceConnection |
Representa uma definição de fonte de dados, que pode ser usada para configurar um indexador. |
SearchIndexerDataUserAssignedIdentity |
Especifica a identidade de uma fonte de dados a ser usada. |
SearchIndexerError |
Representa um erro de indexação no nível do item ou documento. |
SearchIndexerIndexProjections |
Definição de projeções adicionais para índices de pesquisa secundários. |
SearchIndexerIndexProjectionSelector |
Descrição de quais dados armazenar no índice de pesquisa designado. |
SearchIndexerIndexProjectionsParameters |
Um dicionário de propriedades de configuração específicas da projeção de índice. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
SearchIndexerKnowledgeStoreParameters |
Um dicionário de propriedades de configuração específicas do repositório de conhecimento. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
SearchIndexerLimits |
The SearchIndexerLimits. |
SearchIndexerSkill |
Tipo base para habilidades. SearchIndexerSkill Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem AzureMachineLearningSkill, , , AzureOpenAIEmbeddingSkill, CustomEntityLookupSkill, EntityRecognitionSkillKeyPhraseExtractionSkill, MergeSkillPiiDetectionSkillLanguageDetectionSkillSentimentSkill, SplitSkill, TextTranslationSkill, , Azure.Search.Documents.Indexes.Models.EntityRecognitionSkillV3EntityLinkingSkill, , Azure.Search.Documents.Indexes.Models.SentimentSkillV3, ConditionalSkill, DocumentExtractionSkill, ShaperSkille . ImageAnalysisSkillOcrSkillWebApiSkill |
SearchIndexerSkillset |
Uma lista de habilidades. |
SearchIndexerStatus |
Representa o histórico de execução e do status atual de um indexador. |
SearchIndexerWarning |
Representa um aviso no nível do item. |
SearchIndexStatistics |
Estatísticas para um determinado índice. As estatísticas são coletadas periodicamente e não têm garantia de estar sempre atualizadas. |
SearchResourceCounter |
Representa o uso e a cota de um recurso. |
SearchResourceEncryptionKey |
Uma chave de criptografia gerenciada pelo cliente no Azure Key Vault. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados inativos em Azure Cognitive Search, como índices e mapas de sinônimos. |
SearchServiceCounters |
Representa cotas e contadores de recursos no nível do serviço. |
SearchServiceLimits |
Representa vários limites de nível de serviço. |
SearchServiceStatistics |
Resposta de uma solicitação obter estatísticas de serviço. Se for bem-sucedido, ele inclui contadores e limites de nível de serviço. |
SearchSuggester |
Define como a API de Sugestão deve ser aplicada a um grupo de campos no índice. |
SemanticConfiguration |
Define uma configuração específica a ser usada no contexto de recursos semânticos. |
SemanticField |
Um campo usado como parte da configuração semântica. |
SemanticSettings |
Define parâmetros para um índice de pesquisa que influenciam as funcionalidades semânticas. |
SentimentSkill |
Essa habilidade foi preterida. Use a V3. SentimentSkill em vez disso. |
ShaperSkill |
Uma habilidade para remodelar as saídas. Ele cria um tipo complexo para dar suporte a campos compostos (também conhecidos como campos de várias partes). |
ShingleTokenFilter |
Cria combinações de tokens como um único token. Esse filtro de token é implementado usando o Apache Lucene. |
SimilarityAlgorithm |
Tipo base para algoritmos de similaridade. Algoritmos de similaridade são usados para calcular pontuações que vinculam consultas a documentos. Quanto maior a pontuação, mais relevante será o documento para essa consulta específica. Essas pontuações são usadas para classificar os resultados da pesquisa. SimilarityAlgorithm Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem BM25Similarity e ClassicSimilarity. |
SimpleField |
Um campo simples usando um tipo primitivo ou uma coleção de um tipo primitivo. |
SnowballTokenFilter |
Um filtro que deriva palavras usando um lematizador gerado por Bola de Neve. Esse filtro de token é implementado usando o Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Define uma política de detecção de exclusão de dados que implementa uma estratégia de exclusão reversível. Ele determina se um item deve ser excluído com base no valor de uma coluna "exclusão reversível" designada. |
SplitSkill |
Uma habilidade para dividir uma cadeia de caracteres em partes de texto. |
SqlIntegratedChangeTrackingPolicy |
Define uma política de detecção de alteração de dados que captura alterações usando o recurso Controle de Alterações Integrado do Banco de Dados SQL do Azure. |
StemmerOverrideTokenFilter |
Fornece a capacidade de substituir outros filtros de lematização com lematização personalizada baseada em dicionário. Quaisquer termos com lematização de dicionário serão marcados como palavras-chave para que não sejam decorrentes de lematizadores na cadeia. Deve ser colocado antes de qualquer filtro de lematização. Esse filtro de token é implementado usando o Apache Lucene. |
StemmerTokenFilter |
Filtro de lematização específico da linguagem. Esse filtro de token é implementado usando o Apache Lucene. |
StopAnalyzer |
Divide o texto em não letras; Aplica os filtros de token de letras minúsculas e palavras irrelevantes. Esse analisador é implementado usando o Apache Lucene. |
StopwordsTokenFilter |
Remove palavras irrelevantes de um fluxo de tokens. Esse filtro de token é implementado usando o Apache Lucene. |
SynonymMap |
Representa uma definição de mapa de sinônimo. |
SynonymTokenFilter |
Corresponde a sinônimos de palavra única ou múltipla em um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene. |
TagScoringFunction |
Define uma função que aumenta as pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de marcas. |
TagScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de marca. |
TextTranslationSkill |
Uma habilidade para traduzir texto de um idioma para outro. |
TextWeights |
Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa. |
TokenFilter |
Tipo base para filtros de token. TokenFilter Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem AsciiFoldingTokenFilter, , CjkBigramTokenFilter, CommonGramTokenFilter, DictionaryDecompounderTokenFilterEdgeNGramTokenFilter, EdgeNGramTokenFilter, ElisionTokenFilter, KeywordMarkerTokenFilterKeepTokenFilter, LengthTokenFilterNGramTokenFilterLimitTokenFilter, PhoneticTokenFilterNGramTokenFilterPatternCaptureTokenFilterPatternReplaceTokenFilter, ShingleTokenFilterSnowballTokenFilterStemmerOverrideTokenFilter, StemmerTokenFilter, StopwordsTokenFilter, , SynonymTokenFilter, , TruncateTokenFiltere . UniqueTokenFilterWordDelimiterTokenFilter |
TruncateTokenFilter |
Trunca os termos para um comprimento específico. Esse filtro de token é implementado usando o Apache Lucene. |
UaxUrlEmailTokenizer |
Cria tokens de urls e emails como um único token. Esse criador de tokens é implementado usando o Apache Lucene. |
UniqueTokenFilter |
Filtra os tokens com o mesmo texto como o token anterior. Esse filtro de token é implementado usando o Apache Lucene. |
VectorSearch |
Contém opções de configuração relacionadas à pesquisa de vetor. |
VectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta. VectorSearchAlgorithmConfiguration Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem ExhaustiveKnnVectorSearchAlgorithmConfiguration e HnswVectorSearchAlgorithmConfiguration. |
VectorSearchProfile |
Define uma combinação de configurações a serem usadas com a pesquisa de vetor. |
VectorSearchVectorizer |
Contém detalhes específicos para um método de vetorização a ser usado durante o tempo de consulta. VectorSearchVectorizer Observe que é a classe base. De acordo com o cenário, uma classe derivada da classe base pode precisar ser atribuída aqui ou essa propriedade precisa ser convertida em uma das classes derivadas possíveis. As classes derivadas disponíveis incluem AzureOpenAIVectorizer e CustomVectorizer. |
WebApiSkill |
Uma habilidade que pode chamar um ponto de extremidade da API Web, permitindo que você estenda um conjunto de habilidades fazendo com que ele chame seu código personalizado. |
WordDelimiterTokenFilter |
Divide as palavras em subpalavras e realiza transformações opcionais em grupos de subpalavras. Esse filtro de token é implementado usando o Apache Lucene. |
Estruturas
BlobIndexerDataToExtract |
Especifica os dados a serem extraídos do armazenamento de blobs do Azure e informa ao indexador quais dados extrair do conteúdo da imagem quando "imageAction" é definido como um valor diferente de "none". Isso se aplica ao conteúdo da imagem inserida em um .PDF ou outro aplicativo, ou arquivos de imagem, como .jpg e .png, em blobs do Azure. |
BlobIndexerImageAction |
Determina como processar imagens inseridas e arquivos de imagem no Armazenamento de Blobs do Azure. Definir a configuração "imageAction" como qualquer valor diferente de "none" requer que um conjunto de habilidades também seja anexado a esse indexador. |
BlobIndexerParsingMode |
Representa o modo de análise para indexação de uma fonte de dados de blob do Azure. |
BlobIndexerPdfTextRotationAlgorithm |
Determina o algoritmo para extração de texto de arquivos PDF no Armazenamento de Blobs do Azure. |
CharFilterName |
Define os nomes de todos os filtros de caracteres compatíveis com Azure Cognitive Search. |
CustomEntityLookupSkillLanguage |
Os códigos de idioma com suporte para texto de entrada por CustomEntityLookupSkill. |
EntityCategory |
Uma cadeia de caracteres que indica quais categorias de entidade devem ser retornadas. |
EntityRecognitionSkill.SkillVersion |
Representa informações de versão do serviço de um EntityRecognitionSkill. |
EntityRecognitionSkillLanguage |
Preterido. Os códigos de idioma com suporte para texto de entrada por EntityRecognitionSkill. |
ImageAnalysisSkillLanguage |
Os códigos de idioma com suporte para entrada por ImageAnalysisSkill. |
ImageDetail |
Uma cadeia de caracteres que indica quais detalhes específicos do domínio devem ser retornados. |
IndexerExecutionEnvironment |
Especifica o ambiente no qual o indexador deve ser executado. |
IndexerExecutionStatusDetail |
Detalha o status de uma execução individual do indexador. |
IndexingMode |
Representa o modo no qual o indexador está sendo executado. |
IndexProjectionMode |
Define o comportamento das projeções de índice em relação ao restante do indexador. |
KeyPhraseExtractionSkillLanguage |
Os códigos de idioma com suporte para texto de entrada por KeyPhraseExtractionSkill. |
LexicalAnalyzerName |
Define os nomes de todos os analisadores de texto compatíveis com Azure Cognitive Search. |
LexicalNormalizerName |
Define os nomes de todos os normalizadores de texto compatíveis com Azure Cognitive Search. |
LexicalTokenizerName |
Define os nomes de todos os tokenizers compatíveis com Azure Cognitive Search. |
LineEnding |
Define a sequência de caracteres a ser usada entre as linhas de texto reconhecidas pela habilidade de OCR. O valor padrão é "space". |
OcrSkillLanguage |
Os códigos de idioma com suporte para entrada pelo OcrSkill. |
PiiDetectionSkillMaskingMode |
Uma cadeia de caracteres que indica qual maskingMode usar para mascarar as informações pessoais detectadas no texto de entrada. |
RegexFlag |
Define sinalizadores que podem ser combinados para controlar como as expressões regulares são usadas no analisador de padrões e no criador de tokens de padrão. |
SearchFieldDataType |
Define o tipo de dados de um campo em um índice de pesquisa. |
SearchIndexerDataSourceType |
Define o tipo de uma fonte de dados. |
SentimentSkill.SkillVersion |
Representa informações de versão do serviço de um SentimentSkill. |
SentimentSkillLanguage |
Preterido. Os códigos de idioma com suporte para texto de entrada pelo SentimentSkill. |
SplitSkillLanguage |
Os códigos de idioma com suporte para texto de entrada por SplitSkill. |
TextSplitMode |
Um valor que indica qual modo de divisão executar. |
TextTranslationSkillLanguage |
Os códigos de idioma com suporte para texto de entrada por TextTranslationSkill. |
TokenFilterName |
Define os nomes de todos os filtros de token compatíveis com Azure Cognitive Search. |
VectorSearchAlgorithmKind |
O algoritmo usado para indexação e consulta. |
VectorSearchAlgorithmMetric |
A métrica de similaridade a ser usada para comparações de vetor. |
VectorSearchVectorizerKind |
O método de vetorização a ser usado durante o tempo de consulta. |
VisualFeature |
As cadeias de caracteres que indicam quais tipos de recursos visuais devem ser retornados. |
Enumerações
CjkBigramTokenFilterScripts |
Scripts que podem ser ignorados por CjkBigramTokenFilter. |
EdgeNGramTokenFilterSide |
Especifica de qual lado da entrada um n-gram deve ser gerado. |
IndexerExecutionStatus |
Representa o status de uma execução do indexador individual. |
IndexerStatus |
Representa o status geral do indexador. |
MicrosoftStemmingTokenizerLanguage |
Lista os idiomas compatíveis com o criador de tokens de lematização de idioma da Microsoft. |
MicrosoftTokenizerLanguage |
Lista os idiomas compatíveis com o criador de token de idioma da Microsoft. |
PhoneticEncoder |
Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter. |
ScoringFunctionAggregation |
Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação. |
ScoringFunctionInterpolation |
Define a função usada para interpolar o aumento de pontuação em um intervalo de documentos. |
SnowballTokenFilterLanguage |
O idioma a ser usado para um filtro de token bola de neve. |
StemmerTokenFilterLanguage |
O idioma a ser usado para um filtro de token de lematizador. |
StopwordsList |
Identifica uma lista predefinida de palavras irrelevantes específicas do idioma. |
TokenCharacterKind |
Representa classes de caracteres nos quais um filtro de token pode operar. |