Partilhar via


@azure/search-documents package

Classes

AzureKeyCredential

Uma credencial baseada em chave estática que oferece suporte à atualização do valor da chave subjacente.

GeographyPoint

Representa um ponto geográfico em coordenadas globais.

IndexDocumentsBatch

Classe usada para executar operações em lote com vários documentos para o índice.

KnowledgeRetrievalClient

Classe usada para realizar operações contra uma base de conhecimento.

SearchClient

Classe usada para executar operações em um índice de pesquisa, incluindo consultar documentos no índice, bem como adicioná-los, atualizá-los e removê-los.

SearchIndexClient

Classe para executar operações para gerenciar (criar, atualizar, listar/excluir) índices, & sinônimos de mapas.

SearchIndexerClient

Classe para executar operações para gerenciar (criar, atualizar, listar/excluir) indexadores, fontes de dados & conjuntos de habilidades.

SearchIndexingBufferedSender

Classe usada para executar operações em buffer em um índice de pesquisa, incluindo adição, atualização e remoção delas.

Interfaces

AIServices

Parâmetros para a fonte de conhecimento do Armazenamento de Blobs do Azure.

AIServicesAccountIdentity

A conta de várias regiões de um recurso de serviço de IA do Azure anexado a um conjunto de habilidades.

AIServicesAccountKey

A chave de conta de um recurso de serviço de IA do Azure anexado a um conjunto de habilidades, a ser usado com o subdomínio do recurso.

AIServicesVisionParameters

Especifica os parâmetros do AI Services Vision para vetorizar uma imagem ou texto de consulta.

AIServicesVisionVectorizer

Especifica os parâmetros do AI Services Vision para vetorizar uma imagem ou texto de consulta.

AnalyzeRequest

Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens.

AnalyzeResult

O resultado do teste de um analisador em texto.

AnalyzedTokenInfo

Informações sobre um token retornado por um analisador.

AsciiFoldingTokenFilter

Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Este filtro de token é implementado usando Apache Lucene.

AutocompleteItem

O resultado das solicitações de preenchimento automático.

AutocompleteRequest

Parâmetros para correspondência difusa e outros comportamentos de consulta de preenchimento automático.

AutocompleteResult

O resultado da consulta de preenchimento automático.

AzureActiveDirectoryApplicationCredentials

Credenciais de um aplicativo registrado criado para seu serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Cofre de Chaves do Azure.

AzureBlobKnowledgeSource

Configuração para a fonte de conhecimento do Armazenamento de Blobs do Azure.

AzureBlobKnowledgeSourceParameters

Parâmetros para a fonte de conhecimento do Armazenamento de Blobs do Azure.

AzureBlobKnowledgeSourceParams

Especifica parâmetros de tempo de execução para uma fonte de conhecimento azure blob

AzureMachineLearningSkill

A habilidade AML permite estender o enriquecimento da IA com um modelo personalizado do Azure Machine Learning (AML). Uma vez que um modelo de AML é treinado e implantado, uma habilidade de AML o integra no enriquecimento de IA.

AzureMachineLearningVectorizer

Especifica um ponto de extremidade do Azure Machine Learning implantado por meio do Catálogo de Modelo do Azure AI Foundry para gerar a incorporação vetorial de uma cadeia de caracteres de consulta.

AzureOpenAIEmbeddingSkill

Permite gerar uma incorporação vetorial para uma determinada entrada de texto usando o recurso Azure OpenAI.

AzureOpenAIParameters

Especifica os parâmetros para se conectar ao recurso OpenAI do Azure.

AzureOpenAITokenizerParameters
AzureOpenAIVectorizer

Contém os parâmetros específicos para usar um serviço Azure Open AI para vetorização no momento da consulta.

BM25Similarity

Função de classificação baseada no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1').

BaseAzureMachineLearningVectorizerParameters

Especifica as propriedades comuns entre todos os tipos de autenticação do vetorizador AML.

BaseCharFilter

Tipo de base para filtros de caracteres.

BaseCognitiveServicesAccount

Tipo base para descrever qualquer recurso de serviço de IA do Azure anexado a um conjunto de habilidades.

BaseDataChangeDetectionPolicy

Tipo de base para políticas de deteção de alterações de dados.

BaseDataDeletionDetectionPolicy

Tipo de base para políticas de deteção de exclusão de dados.

BaseKnowledgeBaseActivityRecord

Tipo de base para registos de atividade.

BaseKnowledgeBaseMessageContent

Especifica o tipo de conteúdo da mensagem.

BaseKnowledgeBaseModel

Especifica os parâmetros de conexão para o modelo a ser usado para o planejamento de consultas.

BaseKnowledgeBaseReference

Tipo de base para referências.

BaseKnowledgeBaseRetrievalActivityRecord

Representa um registro de atividade de recuperação.

BaseKnowledgeRetrievalReasoningEffort
BaseKnowledgeSource

Representa uma definição de fonte de conhecimento.

BaseKnowledgeSourceParams
BaseKnowledgeSourceVectorizer

Especifica o método de vetorização a ser usado para o modelo de imersão de fontes de conhecimento, com nome opcional.

BaseLexicalAnalyzer

Tipo de base para analisadores.

BaseLexicalNormalizer

Tipo de base para normalizadores.

BaseLexicalTokenizer

Tipo de base para tokenizadores.

BaseScoringFunction

Tipo base para funções que podem modificar pontuações de documentos durante a classificação.

BaseSearchIndexerDataIdentity

Tipo de base abstrata para identidades de dados.

BaseSearchIndexerSkill

Tipo de base para competências.

BaseSearchRequestOptions

Parâmetros para filtragem, classificação, facetagem, paginação e outros comportamentos de consulta de pesquisa.

BaseTokenFilter

Tipo base para filtros de token.

BaseVectorQuery

Os parâmetros de consulta para consultas de pesquisa vetoriais e híbridas.

BaseVectorSearchAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta.

BaseVectorSearchCompression

Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta.

BaseVectorSearchVectorizer

Contém detalhes específicos para um método de vetorização a ser usado durante o tempo de consulta.

BaseVectorThreshold

O limite usado para consultas vetoriais.

BinaryQuantizationCompression

Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e consulta.

ChatCompletionResponseFormat

Determina como a resposta do modelo de linguagem deve ser serializada. O padrão é 'texto'.

ChatCompletionResponseFormatJsonSchemaProperties

Um dicionário aberto para propriedades estendidas. Obrigatório se 'tipo' == 'json_schema'

ChatCompletionSchema

Objeto que define o esquema personalizado que o modelo usará para estruturar sua saída.

ChatCompletionSkill

Uma habilidade que chama um modelo de linguagem por meio do ponto de extremidade Conclusão de Chat do Azure AI Foundry.

CjkBigramTokenFilter

Forma bigramas de termos CJK que são gerados a partir do tokenizador padrão. Este filtro de token é implementado usando Apache Lucene.

ClassicSimilarity

Algoritmo de similaridade legado que usa a implementação Lucene TFIDFSimilarity do TF-IDF. Esta variação de TF-IDF introduz a normalização estática do comprimento do documento, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas.

ClassicTokenizer

Tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Este tokenizador é implementado usando Apache Lucene.

CognitiveServicesAccountKey

A chave de conta de várias regiões de um recurso de serviço de IA do Azure anexado a um conjunto de habilidades.

CommonGramTokenFilter

Construa bigramas para termos frequentes durante a indexação. Os termos isolados também continuam indexados, com bigramas sobrepostos. Este filtro de token é implementado usando Apache Lucene.

CommonModelParameters

Parâmetros de modelo de linguagem comum para Conclusão de Chat. Se omitidos, os valores padrão são usados.

CompletedSynchronizationState

Representa o estado concluído da última sincronização.

ComplexField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

ConditionalSkill

Uma habilidade que permite que cenários que exigem uma operação booleana determinem os dados a serem atribuídos a uma saída.

ContentUnderstandingSkill

Uma habilidade que aproveita o Azure AI Content Understanding para processar e extrair insights estruturados de documentos, permitindo conteúdo enriquecido e pesquisável para indexação e recuperação de documentos aprimoradas

ContentUnderstandingSkillChunkingProperties

Controla a cardinalidade para fragmentar o conteúdo.

CorsOptions

Define opções para controlar o CORS (Cross-Origin Resource Sharing) para um índice.

CreateKnowledgeBaseOptions
CreateKnowledgeSourceOptions
CreateOrUpdateAliasOptions

Opções para criar ou atualizar a operação de alias.

CreateOrUpdateIndexOptions

Opções para a operação de criação/atualização do índice.

CreateOrUpdateKnowledgeBaseOptions
CreateOrUpdateKnowledgeSourceOptions
CreateOrUpdateSkillsetOptions

Opções para criar/atualizar a operação do conjunto de habilidades.

CreateOrUpdateSynonymMapOptions

Opções para criar/atualizar operação de mapa de sinônimos.

CreateorUpdateDataSourceConnectionOptions

Opções para a operação de criação/atualização da fonte de dados.

CreateorUpdateIndexerOptions

Opções para a operação do indexador de criação/atualização.

CustomAnalyzer

Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizador predefinido e um ou mais filtros. O tokenizador é responsável por dividir o texto em tokens, e os filtros para modificar tokens emitidos pelo tokenizador.

CustomEntity

Um objeto que contém informações sobre as correspondências encontradas e metadados relacionados.

CustomEntityAlias

Um objeto complexo que pode ser usado para especificar grafias alternativas ou sinônimos para o nome da entidade raiz.

CustomEntityLookupSkill

Uma habilidade procura texto a partir de uma lista personalizada e definida pelo usuário de palavras e frases.

CustomNormalizer

Permite configurar a normalização para campos filtráveis, classificáveis e facetable, que, por padrão, operam com correspondência estrita. Esta é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado.

DebugInfo

Contém informações de depuração que podem ser usadas para explorar ainda mais os resultados da pesquisa.

DefaultCognitiveServicesAccount

Um objeto vazio que representa o recurso de serviço de IA padrão do Azure para um conjunto de habilidades.

DeleteAliasOptions

Opções para a operação de alias de exclusão.

DeleteDataSourceConnectionOptions

Opções para a operação de exclusão da fonte de dados.

DeleteIndexOptions

Opções para operação de índice de exclusão.

DeleteIndexerOptions

Opções para a operação do indexador de exclusão.

DeleteKnowledgeBaseOptions
DeleteKnowledgeSourceOptions
DeleteSkillsetOptions

Opções para excluir skillset operaion.

DeleteSynonymMapOptions

Opções para excluir operação de mapa de sinônimos.

DictionaryDecompounderTokenFilter

Decompõe palavras compostas encontradas em muitas línguas germânicas. Este filtro de token é implementado usando Apache Lucene.

DistanceScoringFunction

Define uma função que aumenta as pontuações com base na distância de uma localização geográfica.

DistanceScoringParameters

Fornece valores de parâmetros para uma função de pontuação de distância.

DocumentDebugInfo

Contém informações de depuração que podem ser usadas para explorar ainda mais os resultados da pesquisa.

DocumentExtractionSkill

Uma habilidade que extrai conteúdo de um arquivo dentro do pipeline de enriquecimento.

DocumentIntelligenceLayoutSkill

Uma habilidade que extrai conteúdo e informações de layout (como markdown), por meio dos Serviços de IA do Azure, de arquivos dentro do pipeline de enriquecimento.

DocumentIntelligenceLayoutSkillChunkingProperties

Controla a cardinalidade para fragmentar o conteúdo.

EdgeNGramTokenFilter

Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Este filtro de token é implementado usando Apache Lucene.

EdgeNGramTokenizer

Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) determinado(s). Este tokenizador é implementado usando Apache Lucene.

ElisionTokenFilter

Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Este filtro de token é implementado usando Apache Lucene.

EntityLinkingSkill

Usando a API de Análise de Texto, extrai entidades vinculadas do texto.

EntityRecognitionSkill

Reconhecimento de entidades de análise de texto.

EntityRecognitionSkillV3

Usando a API de Análise de Texto, extrai entidades de diferentes tipos do texto.

ExhaustiveKnnParameters

Contém os parâmetros específicos para o algoritmo KNN exaustivo.

ExtractiveQueryAnswer

Extrai os candidatos de resposta do conteúdo dos documentos devolvidos em resposta a uma consulta expressa como uma pergunta em linguagem natural.

ExtractiveQueryCaption

Extrai legendas dos documentos correspondentes que contêm passagens relevantes para a consulta de pesquisa.

FacetResult

Um único bucket de um resultado de consulta de faceta. Relata o número de documentos com um valor de campo dentro de um intervalo específico ou com um determinado valor ou intervalo.

FieldMapping

Define um mapeamento entre um campo em uma fonte de dados e um campo de destino em um índice.

FieldMappingFunction

Representa uma função que transforma um valor de uma fonte de dados antes da indexação.

FreshnessScoringFunction

Define uma função que aumenta as pontuações com base no valor de um campo de data e hora.

FreshnessScoringParameters

Fornece valores de parâmetro para uma função de pontuação de frescor.

GenerativeQueryRewrites

Gere termos de consulta alternativos para aumentar a recuperação de uma solicitação de pesquisa.

GetDocumentOptions

Opções para recuperar um único documento.

GetIndexStatsSummaryOptionalParams

Parâmetros opcionais.

GetIndexStatsSummaryOptions
GetKnowledgeBaseOptions
GetKnowledgeSourceOptions
GetKnowledgeSourceStatusOptions
HighWaterMarkChangeDetectionPolicy

Define uma política de deteção de alteração de dados que captura as alterações com base no valor de uma coluna de marca d'água alta.

HnswParameters

Contém os parâmetros específicos do algoritmo hnsw.

HybridSearchOptions

Parâmetros de consulta para configurar comportamentos de pesquisa híbridos.

ImageAnalysisSkill

Uma habilidade que analisa arquivos de imagem. Ele extrai um rico conjunto de recursos visuais com base no conteúdo da imagem.

IndexDocumentsClient

Cliente de documentos de índice

IndexDocumentsOptions

Opções para a operação de lote de índice de modificação.

IndexDocumentsResult

Resposta contendo o status das operações para todos os documentos na solicitação de indexação.

IndexStatisticsSummary

Estatísticas para um determinado índice. As estatísticas são recolhidas periodicamente e não é garantido que estejam sempre up-todata.

IndexedOneLakeKnowledgeSource

Configuração para a fonte de conhecimento do OneLake.

IndexedOneLakeKnowledgeSourceParameters

Parâmetros para a fonte de conhecimento OneLake.

IndexedOneLakeKnowledgeSourceParams

Especifica parâmetros de tempo de execução para uma fonte de conhecimento OneLake indexada

IndexedSharePointKnowledgeSource

Configuração para fonte de conhecimento do SharePoint.

IndexedSharePointKnowledgeSourceParameters

Parâmetros para a fonte de conhecimento do SharePoint.

IndexedSharePointKnowledgeSourceParams

Especifica parâmetros de tempo de execução para uma fonte de conhecimento do SharePoint indexada

IndexerExecutionResult

Representa o resultado de uma execução de indexador individual.

IndexerRuntime

Representa o consumo cumulativo de tempo de execução do indexador no serviço.

IndexerState

Representa todo o estado que define e dita a execução atual do indexador.

IndexersResyncOptionalParams

Parâmetros opcionais.

IndexingParameters

Representa parâmetros para execução do indexador.

IndexingParametersConfiguration

Um dicionário de propriedades de configuração específicas do indexador. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo.

IndexingResult

Status de uma operação de indexação para um único documento.

IndexingSchedule

Representa uma agenda para a execução do indexador.

InputFieldMappingEntry

Mapeamento de campo de entrada para uma habilidade.

KeepTokenFilter

Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Este filtro de token é implementado usando Apache Lucene.

KeyAuthAzureMachineLearningVectorizerParameters

Especifica as propriedades para se conectar a um vetorizador AML com uma chave de autenticação.

KeyPhraseExtractionSkill

Uma habilidade que usa análise de texto para extração de frases-chave.

KeywordMarkerTokenFilter

Marca termos como palavras-chave. Este filtro de token é implementado usando Apache Lucene.

KeywordTokenizer

Emite toda a entrada como um único token. Este tokenizador é implementado usando Apache Lucene.

KnowledgeBase
KnowledgeBaseAgenticReasoningActivityRecord

Representa um registro de atividade de raciocínio agentico.

KnowledgeBaseAzureBlobActivityArguments

Representa os argumentos com os quais a atividade de recuperação de blob azure foi executada.

KnowledgeBaseAzureBlobActivityRecord

Representa um registro de atividade de recuperação de blob azure.

KnowledgeBaseAzureBlobReference

Representa uma referência de documento do Armazenamento de Blobs do Azure.

KnowledgeBaseAzureOpenAIModel

Especifica o recurso OpenAI do Azure usado para fazer o planejamento de consultas.

KnowledgeBaseErrorAdditionalInfo

O erro de gerenciamento de recursos informações adicionais.

KnowledgeBaseErrorDetail

Os detalhes do erro.

KnowledgeBaseIndexedOneLakeActivityArguments

Representa os argumentos com que foi conduzida a atividade de recuperação indexada do OneLake.

KnowledgeBaseIndexedOneLakeActivityRecord

Representa um registo indexado de atividade de recuperação do OneLake.

KnowledgeBaseIndexedOneLakeReference

Representa uma referência de documento do Armazenamento de Blobs do Azure.

KnowledgeBaseIndexedSharePointActivityArguments

Representa os argumentos com que a atividade indexada de recuperação do SharePoint foi executada.

KnowledgeBaseIndexedSharePointActivityRecord

Representa um registo indexado de atividade de recuperação do SharePoint.

KnowledgeBaseIndexedSharePointReference

Representa uma referência de documento do Armazenamento de Blobs do Azure.

KnowledgeBaseMessage

O objeto de estilo de mensagem em linguagem natural.

KnowledgeBaseMessageImageContent

Tipo de mensagem de texto.

KnowledgeBaseMessageImageContentImage
KnowledgeBaseMessageTextContent

Tipo de mensagem de texto.

KnowledgeBaseModelAnswerSynthesisActivityRecord

Representa um registro de atividade de síntese de resposta LLM.

KnowledgeBaseModelQueryPlanningActivityRecord

Representa um registro de atividade de planejamento de consulta LLM.

KnowledgeBaseRemoteSharePointActivityArguments

Representa os argumentos com que a atividade remota de recuperação do SharePoint foi executada.

KnowledgeBaseRemoteSharePointActivityRecord

Representa um registo de atividade de recuperação remota do SharePoint.

KnowledgeBaseRemoteSharePointReference

Representa uma referência de documento remoto do SharePoint.

KnowledgeBaseRetrievalRequest

O contrato de entrada para a solicitação de recuperação.

KnowledgeBaseRetrievalResponse

O contrato de saída para a resposta de recuperação.

KnowledgeBaseSearchIndexActivityArguments

Representa os argumentos com os quais a atividade de recuperação do índice de pesquisa foi executada.

KnowledgeBaseSearchIndexActivityRecord

Representa um registro de atividade de recuperação de índice de pesquisa.

KnowledgeBaseSearchIndexFieldReference
KnowledgeBaseSearchIndexReference

Representa uma referência de documento da Pesquisa do Azure.

KnowledgeBaseWebActivityArguments

Representa os argumentos com que a atividade de recuperação da web foi conduzida.

KnowledgeBaseWebActivityRecord

Representa um registo de atividade de recuperação web.

KnowledgeBaseWebReference

Representa uma referência de documento web.

KnowledgeRetrievalClientOptions

Opções de cliente usadas para configurar solicitações de API de Pesquisa Cognitiva.

KnowledgeRetrievalIntent

Uma consulta destinada a ser executada sem planeamento de consultas de modelo.

KnowledgeRetrievalLowReasoningEffort

Execute a recuperação de conhecimento com baixo esforço de raciocínio.

KnowledgeRetrievalMediumReasoningEffort

Execute a recuperação de conhecimento com esforço de raciocínio médio.

KnowledgeRetrievalMinimalReasoningEffort

Execute a recuperação de conhecimento com o mínimo esforço de raciocínio.

KnowledgeRetrievalReasoningEffort
KnowledgeRetrievalSemanticIntent

Uma consulta destinada a ser executada sem planeamento de consultas de modelo.

KnowledgeSourceAzureOpenAIVectorizer

Especifica o recurso do Azure OpenAI usado para vetorizar uma cadeia de caracteres de consulta.

KnowledgeSourceIngestionParameters

Consolida todas as configurações gerais de ingestão para fontes de conhecimento.

KnowledgeSourceReference
KnowledgeSourceStatistics

Informações estatísticas sobre o histórico de sincronização da fonte de conhecimento.

KnowledgeSourceStatus

Representa o status e o histórico de sincronização de uma fonte de conhecimento.

LanguageDetectionSkill

Uma habilidade que deteta o idioma do texto de entrada e relata um único código de idioma para cada documento enviado na solicitação. O código da linguagem é emparelhado com uma pontuação que indica a confiança da análise.

LengthTokenFilter

Remove palavras muito longas ou curtas. Este filtro de token é implementado usando Apache Lucene.

LimitTokenFilter

Limita o número de tokens durante a indexação. Este filtro de token é implementado usando Apache Lucene.

ListIndexStatsSummary

Resposta de uma solicitação para recuperar o resumo de estatísticas de todos os índices. Se for bem-sucedido, inclui as estatísticas de cada índice no serviço.

ListKnowledgeBasesOptions
ListKnowledgeSourcesOptions
ListSearchResultsPageSettings

Argumentos para recuperar a próxima página de resultados da pesquisa.

LuceneStandardAnalyzer

Analisador Apache Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop.

LuceneStandardTokenizer

Quebra o texto seguindo as regras de segmentação de texto Unicode. Este tokenizador é implementado usando Apache Lucene.

MagnitudeScoringFunction

Define uma função que aumenta as pontuações com base na magnitude de um campo numérico.

MagnitudeScoringParameters

Fornece valores de parâmetros para uma função de pontuação de magnitude.

MappingCharFilter

Um filtro de caracteres que aplica mapeamentos definidos com a opção mapeamentos. A correspondência é gananciosa (a correspondência de padrão mais longa em um determinado ponto vence). A substituição pode ser a cadeia de caracteres vazia. Este filtro de caracteres é implementado usando Apache Lucene.

MergeSkill

Uma habilidade para mesclar duas ou mais cadeias de caracteres em uma única cadeia de caracteres unificada, com um delimitador opcional definido pelo usuário separando cada parte do componente.

MicrosoftLanguageStemmingTokenizer

Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base.

MicrosoftLanguageTokenizer

Divide o texto usando regras específicas do idioma.

NGramTokenFilter

Gera n-gramas do(s) tamanho(s) fornecido(s). Este filtro de token é implementado usando Apache Lucene.

NGramTokenizer

Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Este tokenizador é implementado usando Apache Lucene.

NativeBlobSoftDeleteDeletionDetectionPolicy

Define uma política de deteção de exclusão de dados utilizando o recurso nativo de exclusão suave do Armazenamento de Blob do Azure para deteção de exclusão.

NoAuthAzureMachineLearningVectorizerParameters

Especifica as propriedades para se conectar a um vetorizador AML sem autenticação.

OcrSkill

Uma habilidade que extrai texto de arquivos de imagem.

OutputFieldMappingEntry

Mapeamento de campo de saída para uma habilidade.

PIIDetectionSkill

Usando a API de Análise de Texto, extrai informações pessoais de um texto de entrada e oferece a opção de mascará-lo.

PathHierarchyTokenizer

Tokenizador para hierarquias semelhantes a caminhos. Este tokenizador é implementado usando Apache Lucene.

PatternAnalyzer

Separa o texto de forma flexível em termos através de um padrão de expressão regular. Este analisador é implementado usando Apache Lucene.

PatternCaptureTokenFilter

Usa regexes Java para emitir vários tokens - um para cada grupo de captura em um ou mais padrões. Este filtro de token é implementado usando Apache Lucene.

PatternReplaceCharFilter

Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de caracteres é implementado usando Apache Lucene.

PatternReplaceTokenFilter

Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Este filtro de token é implementado usando Apache Lucene.

PatternTokenizer

Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Este tokenizador é implementado usando Apache Lucene.

PhoneticTokenFilter

Crie tokens para correspondências fonéticas. Este filtro de token é implementado usando Apache Lucene.

QueryAnswerResult

Uma resposta é uma passagem de texto extraída do conteúdo dos documentos mais relevantes que correspondem à consulta. As respostas são extraídas dos principais resultados da pesquisa. Os candidatos às respostas são pontuados e as melhores respostas são selecionadas.

QueryCaptionResult

As legendas são as passagens mais representativas do documento em relação à consulta de pesquisa. São frequentemente utilizados como resumo de documentos. As legendas só são retornadas para consultas do tipo semantic.

QueryResultDocumentInnerHit

Informações detalhadas de pontuação para um elemento individual de uma coleção complexa.

QueryResultDocumentRerankerInput

As cadeias de caracteres concatenadas brutas que foram enviadas para o processo de enriquecimento semântico.

QueryResultDocumentSemanticField

Descrição dos campos que foram enviados para o processo de enriquecimento semântico, bem como como foram utilizados

QueryResultDocumentSubscores

A divisão de subpontuações entre os componentes de consulta de texto e vetor da consulta de pesquisa para este documento. Cada consulta vetorial é mostrada como um objeto separado na mesma ordem em que foram recebidas.

QueryRewritesDebugInfo

Contém informações de depuração específicas para regravações de consulta.

QueryRewritesValuesDebugInfo

Contém informações de depuração específicas para regravações de consulta.

RemoteSharePointKnowledgeSource

Configuração para fonte de conhecimento remota do SharePoint.

RemoteSharePointKnowledgeSourceParameters

Parâmetros para fonte de conhecimento remota do SharePoint.

RemoteSharePointKnowledgeSourceParams

Especifica parâmetros de tempo de execução para uma fonte de conhecimento remota do SharePoint

RescoringOptions

Contém as opções para pontuação.

ResetDocumentsOptions

Opções para redefinir a operação de documentos.

ResetSkillsOptions

Opções para redefinir a operação de habilidades.

ResourceCounter

Representa o uso e a cota de um recurso.

RetrieveKnowledgeOptions
ScalarQuantizationCompression

Contém opções de configuração específicas para o método de compressão de quantização escalar usado durante a indexação e consulta.

ScalarQuantizationParameters

Contém os parâmetros específicos da Quantização Escalar.

ScoringProfile

Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa.

SearchAlias

Representa um alias de índice, que descreve um mapeamento do nome do alias para um índice. O nome do alias pode ser usado no lugar do nome do índice para operações suportadas.

SearchClientOptions

Opções de cliente usadas para configurar solicitações de API de pesquisa de IA.

SearchDocumentsPageResult

Resposta que contém resultados de página de pesquisa de um índice.

SearchDocumentsResult

Resposta que contém resultados de pesquisa de um índice.

SearchDocumentsResultBase

Resposta que contém resultados de pesquisa de um índice.

SearchIndex

Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice.

SearchIndexClientOptions

Opções de cliente usadas para configurar solicitações de API de pesquisa de IA.

SearchIndexFieldReference
SearchIndexKnowledgeSource

Fonte de conhecimento direcionada a um índice de pesquisa.

SearchIndexKnowledgeSourceParameters

Parâmetros para a fonte de conhecimento do índice de pesquisa.

SearchIndexKnowledgeSourceParams

Especifica parâmetros de tempo de execução para uma fonte de conhecimento de índice de pesquisa

SearchIndexStatistics

Estatísticas para um determinado índice. As estatísticas são recolhidas periodicamente e não é garantido que estejam sempre up-todata.

SearchIndexer

Representa um indexador.

SearchIndexerCache
SearchIndexerClientOptions

Opções de cliente usadas para configurar solicitações de API de pesquisa de IA.

SearchIndexerDataContainer

Representa informações sobre a entidade (como a tabela SQL do Azure ou a coleção CosmosDB) que será indexada.

SearchIndexerDataNoneIdentity

Limpa a propriedade identity de uma fonte de dados.

SearchIndexerDataSourceConnection

Representa uma definição de fonte de dados, que pode ser usada para configurar um indexador.

SearchIndexerDataUserAssignedIdentity

Especifica a identidade a ser usada por uma fonte de dados.

SearchIndexerError

Representa um erro de indexação no nível de item ou documento.

SearchIndexerIndexProjection

Definição de projeções adicionais para índices de pesquisa secundários.

SearchIndexerIndexProjectionParameters

Um dicionário de propriedades de configuração específicas de projeção de índice. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo.

SearchIndexerIndexProjectionSelector

Descrição dos dados a armazenar no índice de pesquisa designado.

SearchIndexerKnowledgeStore

Definição de projeções adicionais para azure blob, tabela ou arquivos, de dados enriquecidos.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Classe abstrata para compartilhar propriedades entre seletores concretos.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definição de projeção para quais dados armazenar nos Arquivos do Azure.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definição de projeção para quais dados armazenar no Blob do Azure.

SearchIndexerKnowledgeStoreParameters

Um dicionário de propriedades de configuração específicas do repositório de conhecimento. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo.

SearchIndexerKnowledgeStoreProjection

Objeto de contêiner para vários seletores de projeção.

SearchIndexerKnowledgeStoreProjectionSelector

Classe abstrata para compartilhar propriedades entre seletores concretos.

SearchIndexerKnowledgeStoreTableProjectionSelector

Descrição dos dados a armazenar nas Tabelas do Azure.

SearchIndexerLimits
SearchIndexerSkillset

Uma lista de competências.

SearchIndexerStatus

Representa o status atual e o histórico de execução de um indexador.

SearchIndexerWarning

Representa um aviso no nível do item.

SearchIndexingBufferedSenderOptions

Opções para SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Uma chave de criptografia gerenciada pelo cliente no Cofre de Chaves do Azure. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso no Azure AI Search, como índices e mapas de sinônimos.

SearchScoreThreshold

Os resultados da consulta vetorial serão filtrados com base no valor '@search.score'. Observe que este é o @search.score retornado como parte da resposta da pesquisa. A direção do limiar será escolhida para @search.scoresuperiores.

SearchServiceStatistics

Resposta de uma solicitação de estatísticas de serviço get. Se for bem-sucedido, inclui contadores e limites de nível de serviço.

SearchSuggester

Define como a API Sugerir deve ser aplicada a um grupo de campos no índice.

SemanticConfiguration

Define uma configuração específica a ser usada no contexto de recursos semânticos.

SemanticDebugInfo

Opções de depuração para consultas de pesquisa semântica.

SemanticField

Um campo que é usado como parte da configuração semântica.

SemanticPrioritizedFields

Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, destaques e respostas.

SemanticSearch

Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos.

SemanticSearchOptions

Define opções para consultas de pesquisa semântica

SentimentSkill

Análise de sentimento positivo-negativo de análise de texto, pontuada como um valor de ponto flutuante em um intervalo de zero a 1.

SentimentSkillV3

Usando a API de Análise de Texto, avalia texto não estruturado e, para cada registro, fornece rótulos de sentimento (como "negativo", "neutro" e "positivo") com base na pontuação de confiança mais alta encontrada pelo serviço em nível de frase e documento.

ServiceCounters

Representa contadores de recursos e cotas de nível de serviço.

ServiceLimits

Representa vários limites de nível de serviço.

ShaperSkill

Uma habilidade para remodelar os resultados. Ele cria um tipo complexo para suportar campos compostos (também conhecidos como campos de várias partes).

SharePointSensitivityLabelInfo

Informação sobre o rótulo de sensibilidade aplicado a um documento do SharePoint.

ShingleTokenFilter

Cria combinações de tokens como um único token. Este filtro de token é implementado usando Apache Lucene.

Similarity

Tipo de base para algoritmos de semelhança. Algoritmos de semelhança são usados para calcular pontuações que vinculam consultas a documentos. Quanto maior a pontuação, mais relevante é o documento para aquela consulta específica. Essas pontuações são usadas para classificar os resultados da pesquisa.

SimpleField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

SingleVectorFieldResult

Um único resultado de campo vetorial. Os valores de semelhança @search.score e vetorial são retornados. A semelhança vetorial está relacionada à @search.score por uma equação.

SnowballTokenFilter

Um filtro que deriva palavras usando um lematizador gerado por Bola-de-Neve. Este filtro de token é implementado usando Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Define uma política de deteção de exclusão de dados que implementa uma estratégia de exclusão suave. Determina se um item deve ser excluído com base no valor de uma coluna designada de 'exclusão suave'.

SplitSkill

Uma habilidade para dividir uma cadeia de caracteres em pedaços de texto.

SqlIntegratedChangeTrackingPolicy

Define uma política de deteção de alterações de dados que captura alterações usando o recurso Controle Integrado de Alterações do Banco de Dados SQL do Azure.

StemmerOverrideTokenFilter

Fornece a capacidade de substituir outros filtros de derivação com derivação personalizada baseada em dicionário. Quaisquer termos dicionários serão marcados como palavras-chave para que não sejam engessados com lematizadores ao longo da cadeia. Deve ser colocado antes de quaisquer filtros de derivação. Este filtro de token é implementado usando Apache Lucene.

StemmerTokenFilter

Filtro de derivação específico da linguagem. Este filtro de token é implementado usando Apache Lucene.

StopAnalyzer

Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Este analisador é implementado usando Apache Lucene.

StopwordsTokenFilter

Remove palavras de parada de um fluxo de token. Este filtro de token é implementado usando Apache Lucene.

SuggestDocumentsResult

Resposta contendo resultados de consulta de sugestão de um índice.

SuggestRequest

Parâmetros para filtragem, classificação, correspondência difusa e outros comportamentos de consulta de sugestões.

SynchronizationState

Representa o estado atual de uma sincronização contínua que abrange várias execuções de indexador.

SynonymMap

Representa uma definição de mapa de sinônimo.

SynonymTokenFilter

Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Este filtro de token é implementado usando Apache Lucene.

TagScoringFunction

Define uma função que aumenta pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de tags.

TagScoringParameters

Fornece valores de parâmetro para uma função de pontuação de tag.

TextResult

A pontuação BM25 ou Classic para a parte de texto da consulta.

TextTranslationSkill

Uma habilidade para traduzir texto de um idioma para outro.

TextWeights

Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa.

TokenAuthAzureMachineLearningVectorizerParameters

Especifica as propriedades para se conectar a um vetorizador AML com uma identidade gerenciada.

TruncateTokenFilter

Trunca os termos até um comprimento específico. Este filtro de token é implementado usando Apache Lucene.

UaxUrlEmailTokenizer

Tokeniza urls e e-mails como um token. Este tokenizador é implementado usando Apache Lucene.

UniqueTokenFilter

Filtra tokens com o mesmo texto do token anterior. Este filtro de token é implementado usando Apache Lucene.

VectorSearch

Contém opções de configuração relacionadas à pesquisa vetorial.

VectorSearchOptions

Define opções para consultas de pesquisa vetorial

VectorSearchProfile

Define uma combinação de configurações a serem usadas com a pesquisa vetorial.

VectorSimilarityThreshold

Os resultados da consulta vetorial serão filtrados com base na métrica de semelhança vetorial. Note que esta é a definição canônica de métrica de semelhança, não a versão 'distância'. A direção do limite (maior ou menor) será escolhida automaticamente de acordo com a métrica usada pelo campo.

VectorizableImageBinaryQuery

Os parâmetros de consulta a serem usados para pesquisa vetorial quando um binário codificado de base 64 de uma imagem que precisa ser vetorizada é fornecido.

VectorizableImageUrlQuery

Os parâmetros de consulta a serem usados para pesquisa vetorial quando uma url que representa um valor de imagem que precisa ser vetorizado é fornecida.

VectorizableTextQuery

Os parâmetros de consulta a serem usados para pesquisa vetorial quando um valor de texto que precisa ser vetorizado é fornecido.

VectorizedQuery

Os parâmetros de consulta a serem usados para pesquisa vetorial quando um valor vetorial bruto é fornecido.

VectorsDebugInfo
VisionVectorizeSkill

Permite gerar uma incorporação vetorial para uma determinada entrada de imagem ou texto usando a API de Vetorização de Visão dos Serviços de IA do Azure.

WebApiParameters

Especifica as propriedades para conexão a um vetorizador definido pelo usuário.

WebApiSkill

Uma habilidade que pode chamar um ponto de extremidade de API da Web, permitindo que você estenda um conjunto de habilidades fazendo com que ele chame seu código personalizado.

WebApiVectorizer

Especifica um vetorizador definido pelo usuário para gerar a incorporação vetorial de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface personalizada da API Web de um conjunto de habilidades.

WebKnowledgeSource

Fonte de conhecimento direcionada para resultados da Web.

WebKnowledgeSourceDomain

Configuração para domínio de origem de conhecimento web.

WebKnowledgeSourceDomains

Configuração de domínio permitir/bloquear para a fonte de conhecimento web.

WebKnowledgeSourceParameters

Parâmetros para a fonte de conhecimento web.

WebKnowledgeSourceParams

Especifica parâmetros de tempo de execução para uma fonte de conhecimento da Web

WordDelimiterTokenFilter

Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras. Este filtro de token é implementado usando Apache Lucene.

Alias de Tipo

AIFoundryModelCatalogName

Define valores para AIFoundryModelCatalogName.
KnownAIFoundryModelCatalogName pode ser usado de forma intercambiável com AIFoundryModelCatalogName, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32
OpenAI-CLIP-Imagem-Texto-Embeddings-ViT-Large-Patch14-336
Facebook-DinoV2-Imagem-Embeddings-ViT-Base
Facebook-DinoV2-Imagem-Embeddings-ViT-Giant
Cohere-embed-v3-English
Cohere-embed-v3-multilingual
Cohere-embed-v4: Cohere embed v4 model para gerar incorporações a partir de texto e imagens.

AliasIterator

Um iterador para listar os aliases existentes no serviço de Pesquisa. Isso fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

AnalyzeTextOptions

Opções para analisar operação de texto.

AutocompleteMode

Define valores para AutocompleteMode.

AutocompleteOptions

Opções para recuperar texto de conclusão para um searchText parcial.

AzureMachineLearningVectorizerParameters

Especifica as propriedades para conexão a um vetorizador AML.

AzureOpenAIModelName

Define valores para AzureOpenAIModelName.
KnownAzureOpenAIModelName pode ser usado de forma intercambiável com AzureOpenAIModelName, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

text-embedding-ada-002
incorporação de texto-3-grande
text-embedding-3-small
GPT-4O
GPT-4O-Mini
GPT-4,1
GPT-4.1-mini
GPT-4.1-nano
GPT-5
GPT-5-Mini
GPT-5-nano

BaseKnowledgeRetrievalIntent
BaseKnowledgeRetrievalOutputMode

Define valores para KnowledgeRetrievalOutputMode.
KnowKnowledgeRetrievalOutputMode pode ser usado de forma intercambiável com KnowledgeRetrievalOutputMode, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

extractiveData: Retorna dados das fontes de conhecimento diretamente, sem alteração generativa.
answerSynthesis: Sintetize uma resposta para a carga útil da resposta.

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Contém os casos possíveis para CharFilter.

CharFilterName

Define valores para CharFilterName.
<xref:KnownCharFilterName> pode ser usado de forma intercambiável com CharFilterName, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

html_strip: Um filtro de caracteres que tenta remover construções HTML. Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

ChatCompletionExtraParametersBehavior

Define valores para ChatCompletionExtraParametersBehavior.
KnownChatCompletionExtraParametersBehavior pode ser usado de forma intercambiável com ChatCompletionExtraParametersBehavior, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

passThrough: Passa quaisquer parâmetros extras diretamente para o modelo.
drop: Descarta todos os parâmetros extras.
error: gera um erro se algum parâmetro extra estiver presente.

ChatCompletionResponseFormatType

Define valores para ChatCompletionResponseFormatType.
KnownChatCompletionResponseFormatType pode ser usado de forma intercambiável com ChatCompletionResponseFormatType, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

texto
jsonObjeto
jsonSchema

CjkBigramTokenFilterScripts

Define valores para CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Contém os possíveis casos para CognitiveServicesAccount.

ComplexDataType

Define valores para ComplexDataType. Os valores possíveis incluem: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

ContentUnderstandingSkillChunkingUnit

Define valores para ContentSUnderstandingSkillChunkingUnit.
<xref:KnownContentUnderstandingSkillChunkingUnit> pode ser usado de forma intercambiável com ContentUnderstandingSkillChunkingUnit, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

caracteres: especifica bloco por caracteres.

ContentUnderstandingSkillExtractionOptions

Define valores para ContentUnderstandingSkillExtractionOptions.
<xref:KnownContentUnderstandingSkillExtractionOptions> pode ser usado de forma intercambiável com ContentUnderstandingSkillExtractionOptions, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

imagens: especifique que o conteúdo da imagem deve ser extraído do documento.
locationMetadata: especifique que os metadados de localização devem ser extraídos do documento.

CountDocumentsOptions

Opções para executar a operação de contagem no índice.

CreateAliasOptions

Opções para criar operação de alias.

CreateDataSourceConnectionOptions

Opções para criar operação de fonte de dados.

CreateIndexOptions

Opções para criar operação de índice.

CreateIndexerOptions

Opções para criar operação de indexador.

CreateSkillsetOptions

Opções para criar operação de conjunto de habilidades.

CreateSynonymMapOptions

Opções para criar operação de mapa de sinônimos.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Contém os casos possíveis para DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contém os casos possíveis para DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opções para a operação de exclusão de documentos.

DocumentIntelligenceLayoutSkillChunkingUnit

Define valores para DocumentIntelligenceLayoutSkillChunkingUnit.
KnownDocumentIntelligenceLayoutSkillChunkingUnit pode ser usado de forma intercambiável com DocumentIntelligenceLayoutSkillChunkingUnit, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

caracteres: especifica bloco por caracteres.

DocumentIntelligenceLayoutSkillExtractionOptions

Define valores para DocumentIntelligenceLayoutSkillExtractionOptions.
KnownDocumentIntelligenceLayoutSkillExtractionOptions pode ser usado de forma intercambiável com DocumentIntelligenceLayoutSkillExtractionOptions, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

imagens: especifique que o conteúdo da imagem deve ser extraído do documento.
locationMetadata: especifique que os metadados de localização devem ser extraídos do documento.

DocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Define valores para DocumentIntelligenceLayoutSkillMarkdownHeaderDepth.
KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth pode ser usado de forma intercambiável com DocumentIntelligenceLayoutSkillMarkdownHeaderDepth, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

h1: Cabeçalho nível 1.
h2: Nível de cabeçalho 2.
h3: Cabeçalho nível 3.
h4: Nível de cabeçalho 4.
h5: Nível de cabeçalho 5.
h6: Nível de cabeçalho 6.

DocumentIntelligenceLayoutSkillOutputFormat

Define valores para DocumentIntelligenceLayoutSkillOutputFormat.
KnownDocumentIntelligenceLayoutSkillOutputFormat pode ser usado de forma intercambiável com DocumentIntelligenceLayoutSkillOutputFormat, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

text: especifique o formato da saída como texto.
markdown: especifique o formato da saída como markdown.

DocumentIntelligenceLayoutSkillOutputMode

Define valores para DocumentIntelligenceLayoutSkillOutputMode.
KnownDocumentIntelligenceLayoutSkillOutputMode pode ser usado de forma intercambiável com DocumentIntelligenceLayoutSkillOutputMode, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

oneToMany: especifique que a saída deve ser analisada como 'oneToMany'.

EdgeNGramTokenFilterSide

Define valores para EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetorial.

ExtractDocumentKey
GetAliasOptions

Opções para obter a operação de alias.

GetDataSourceConnectionOptions

Opções para obter a operação da fonte de dados.

GetIndexOptions

Opções para obter operação de índice.

GetIndexStatisticsOptions

Opções para obter a operação de estatísticas de índice.

GetIndexStatsSummaryResponse

Contém dados de resposta para a operação getIndexStatsSummary.

GetIndexerOptions

Opções para obter a operação do indexador.

GetIndexerStatusOptions

Opções para obter a operação de status do indexador.

GetServiceStatisticsOptions

Opções para obter a operação de estatísticas de serviço.

GetSkillSetOptions

Opções para obter operação skillset.

GetSynonymMapsOptions

Opções para obter operação de mapas de sinônimos.

HnswAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo de vizinhos aproximados mais próximos hnsw usado durante o tempo de indexação.

HybridCountAndFacetMode

Define valores para HybridCountAndFacetMode.
KnownHybridCountAndFacetMode pode ser usado de forma intercambiável com HybridCountAndFacetMode, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

countRetrievableResults: inclua apenas documentos que foram correspondidos dentro da janela de recuperação 'maxTextRecallSize' ao calcular 'count' e 'facets'.
countAllResults: Inclua todos os documentos que foram correspondidos pela consulta de pesquisa ao calcular 'count' e 'facets', independentemente de esses documentos estarem ou não dentro da janela de recuperação 'maxTextRecallSize'.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Define valores para IndexActionType.

IndexDocumentsAction

Representa uma ação de índice que opera em um documento.

IndexIterator

Um iterador para listar os índices existentes no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

IndexNameIterator

Um iterador para listar os índices existentes no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

IndexProjectionMode

Define valores para IndexProjectionMode.
KnownIndexProjectionMode pode ser usado de forma intercambiável com IndexProjectionMode, esse enum contém os valores conhecidos suportados pelo serviço.

Valores conhecidos suportados pelo serviço

skipIndexingParentDocuments: O documento de origem será ignorado da gravação no índice de destino do indexador.
includeIndexingParentDocuments: O documento de origem será gravado no índice de destino do indexador. Este é o padrão padrão.

IndexStatisticsSummaryIterator

Um iterador para resumos estatísticos para cada índice no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

IndexedSharePointContainerName

Define valores para IndexedSharePointContainerName.
<xref:KnownIndexedSharePointContainerName> pode ser usado de forma intercambiável com IndexedSharePointContainerName, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

defaultSiteLibrary: Indexar o conteúdo da biblioteca de documentos padrão do site.
allSiteLibraries: Indexar o conteúdo de todas as bibliotecas de documentos do site.
useQuery: Indexe apenas conteúdos que correspondam à consulta especificada na fonte de conhecimento.

IndexerExecutionEnvironment
IndexerExecutionStatus

Define valores para IndexerExecutionStatus.

IndexerExecutionStatusDetail

Define valores para IndexerExecutionStatusDetail.
KnownIndexerExecutionStatusDetail pode ser usado de forma intercambiável com IndexerExecutionStatusDetail, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

resetDocs: indica que a redefinição que ocorreu foi para uma chamada para ResetDocs.
resync: indica para ressincronizar seletivamente com base na(s) opção(ões) da fonte de dados.

IndexerPermissionOption

Define valores para IndexerPermissionOption.
KnownIndexerPermissionOption pode ser usado de forma intercambiável com IndexerPermissionOption, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

userIds: indexador para ingerir userIds da ACL da fonte de dados para o índice.
groupIds: indexador para ingerir ACL groupIds da fonte de dados para o índice.
rbacScope: indexador para ingerir o escopo do Azure RBAC da fonte de dados para o índice.

IndexerResyncOption

Define valores para IndexerResyncOption.
KnownIndexerResyncOption pode ser usado de forma intercambiável com IndexerResyncOption, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

permissões: indexador para re-ingest dados de permissões pré-selecionadas da fonte de dados para o índice.

IndexerStatus

Define valores para IndexerStatus.

IndexingMode

Define valores para IndexingMode.
KnownIndexingMode pode ser usado de forma intercambiável com IndexingMode, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

indexingAllDocs: O indexador está indexando todos os documentos na fonte de dados.
indexingResetDocs: O indexador está indexando seletivamente, redefinindo documentos na fonte de dados. Os documentos que estão sendo indexados são definidos no status do indexador.
indexingResync: O indexador está ressincronizando e indexando a(s) opção(ões) seletiva(s) da fonte de dados.

KeyPhraseExtractionSkillLanguage
KnowledgeBaseActivityRecord
KnowledgeBaseIterator

Um iterador para listar as bases de conhecimento que existem no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

KnowledgeBaseMessageContent
KnowledgeBaseModel
KnowledgeBaseReference
KnowledgeBaseRetrievalActivityRecord
KnowledgeRetrievalOutputMode

Define valores para KnowledgeRetrievalOutputMode.
KnowKnowledgeRetrievalOutputMode pode ser usado de forma intercambiável com KnowledgeRetrievalOutputMode, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

extractiveData: Retorna dados das fontes de conhecimento diretamente, sem alteração generativa.
answerSynthesis: Sintetize uma resposta para a carga útil da resposta.

KnowledgeRetrievalReasoningEffortUnion
KnowledgeSource
KnowledgeSourceContentExtractionMode

Define valores para KnowledgeSourceContentExtractionMode.
<xref:KnownKnowledgeSourceContentExtractionMode> pode ser usado de forma intercambiável com KnowledgeSourceContentExtractionMode, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

mínimo: Extrai apenas metadados essenciais, adiando a maior parte do processamento de conteúdo.
padrão: Executa o pipeline completo de extração de conteúdo por defeito.

KnowledgeSourceIngestionPermissionOption

Define valores para KnowledgeSourceIngestionPermissionOption.
<xref:KnownKnowledgeSourceIngestionPermissionOption> pode ser usado de forma intercambiável com KnowledgeSourceIngestionPermissionOption, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

userIds: Ingerir identificadores explícitos de utilizador juntamente com o conteúdo do documento.
groupIds: Ingerir identificadores de grupo juntamente com o conteúdo do documento.
rbacScope: Ingerir a informação do âmbito do RBAC juntamente com o conteúdo do documento.

KnowledgeSourceIterator

Um iterador para listar as fontes de conhecimento que existem no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

KnowledgeSourceKind

Define valores para KnowledgeSourceKind.
KnownKnowledgeSourceKind pode ser usado de forma intercambiável com KnowledgeSourceKind, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

searchIndex: Uma fonte de conhecimento que recupera dados de um Índice de Pesquisa.
azureBlob: Uma fonte de conhecimento que recupera e ingere dados do Azure Blob Storage para um Índice de Pesquisa.
Web: Uma fonte de conhecimento que recupera dados da web.
remoteSharePoint: Uma fonte de conhecimento que recupera dados de um endpoint SharePoint remoto.
indexedSharePoint: Uma fonte de conhecimento que recupera e ingere dados do SharePoint para um Índice de Pesquisa.
indexedOneLake: Uma fonte de conhecimento que recupera e ingere dados do OneLake para um Índice de Pesquisa.

KnowledgeSourceParams
KnowledgeSourceSynchronizationStatus

Define valores para KnowledgeSourceSynchronizationStatus.
<xref:KnownKnowledgeSourceSynchronizationStatus> pode ser usado de forma intercambiável com KnowledgeSourceSynchronizationStatus, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

criação: A fonte de conhecimento está a ser provisionada.
ativo: A fonte de conhecimento está ativa e estão a ocorrer execuções de sincronização.
eliminação: A fonte de conhecimento está a ser eliminada e a sincronização está pausada.

KnowledgeSourceVectorizer
LexicalAnalyzer

Contém os casos possíveis para o Analyzer.

LexicalAnalyzerName

Define valores para LexicalAnalyzerName.
KnownLexicalAnalyzerName pode ser usado de forma intercambiável com LexicalAnalyzerName, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

ar.microsoft: Microsoft analyzer para árabe.
ar.lucene: Analisador de Lucene para árabe.
hy.lucene: Analisador de Lucene para armênio.
bn.microsoft: Microsoft analyzer para Bangla.
eu.lucene: Analisador Lucene para basco.
bg.microsoft: Microsoft analyzer para búlgaro.
bg.lucene: Analisador Lucene para búlgaro.
ca.microsoft: Microsoft analyzer para catalão.
ca.lucene: Lucene analisador para catalão.
zh-Hans.microsoft: Microsoft analyzer para chinês (simplificado).
zh-Hans.lucene: Analisador Lucene para chinês (simplificado).
zh-Hant.microsoft: Microsoft analyzer para chinês (tradicional).
zh-Hant.lucene: Analisador Lucene para chinês (tradicional).
hr.microsoft: Microsoft analyzer para croata.
cs.microsoft: Microsoft analyzer para checo.
cs.lucene: Lucene analisador para checo.
da.microsoft: Microsoft analyzer para dinamarquês.
da.lucene: Lucene analisador para dinamarquês.
nl.microsoft: Microsoft analyzer para holandês.
nl.lucene: Analisador Lucene para holandês.
pt.microsoft: Microsoft analyzer para inglês.
pt.lucene: Lucene analyzer for English.
et.microsoft: Microsoft analyzer para estónio.
fi.microsoft: Microsoft analyzer para finlandês.
fi.lucene: Analisador de Lucene para finlandês.
fr.microsoft: Microsoft analyzer para francês.
fr.lucene: Lucene analisador para francês.
gl.lucene: Analisador Lucene para galego.
de.microsoft: Microsoft analyzer para alemão.
de.lucene: Lucene analyzer para alemão.
el.microsoft: Microsoft analyzer para grego.
el.lucene: Analisador de Lucene para grego.
gu.microsoft: Microsoft analyzer para Gujarati.
he.microsoft: Microsoft analyzer para hebraico.
hi.microsoft: Microsoft analyzer para Hindi.
hi.lucene: Analisador de Lucene para hindi.
hu.microsoft: Microsoft analyzer para húngaro.
hu.lucene: Analisador Lucene para húngaro.
is.microsoft: Microsoft analyzer para islandês.
id.microsoft: Microsoft analyzer para indonésio (Bahasa).
id.lucene: Lucene analisador para indonésio.
ga.lucene: Lucene analisador para irlandês.
it.microsoft: Microsoft analyzer para italiano.
it.lucene: Lucene analisador para italiano.
ja.microsoft: Microsoft analyzer para japonês.
ja.lucene: Analisador Lucene para japonês.
kn.microsoft: Microsoft analyzer para Kannada.
ko.microsoft: Microsoft analyzer para coreano.
ko.lucene: Analisador Lucene para coreano.
lv.microsoft: Microsoft analyzer para letão.
lv.lucene: Analisador Lucene para letão.
lt.microsoft: Microsoft analyzer para lituano.
ml.microsoft: Microsoft analyzer para Malayalam.
ms.microsoft: Microsoft analyzer para malaio (latim).
mr.microsoft: Microsoft analyzer para Marathi.
nb.microsoft: Microsoft analyzer para norueguês (Bokmål).
no.lucene: Analisador Lucene para norueguês.
fa.lucene: Analisador de Lucene para persa.
pl.microsoft: Microsoft analyzer para polonês.
pl.lucene: Analisador Lucene para polaco.
pt-BR.microsoft: Microsoft analyzer para Português (Brasil).
pt-BR.lucene: Analisador de Lucene para Português (Brasil).
pt-PT.microsoft: Microsoft analyzer para Português (Portugal).
pt-PT.lucene: Analisador de Lucene para Português (Portugal).
pa.microsoft: Microsoft analyzer para Punjabi.
ro.microsoft: Microsoft analyzer para romeno.
ro.lucene: Analisador Lucene para romeno.
ru.microsoft: Microsoft analyzer para russo.
ru.lucene: Analisador Lucene para russo.
sr-cyrillic.microsoft: Microsoft analyzer para sérvio (cirílico).
sr-latin.microsoft: Microsoft analyzer para sérvio (latim).
sk.microsoft: Microsoft analyzer para eslovaco.
sl.microsoft: Microsoft analyzer para esloveno.
es.microsoft: Microsoft analyzer para espanhol.
es.lucene: Analisador Lucene para espanhol.
sv.microsoft: Microsoft analyzer para sueco.
sv.lucene: Lucene analyzer para sueco.
ta.microsoft: Microsoft analyzer para Tamil.
te.microsoft: Microsoft analyzer para Telugu.
th.microsoft: Microsoft analyzer para tailandês.
th.lucene: Lucene analisador para tailandês.
tr.microsoft: Microsoft analyzer para turco.
tr.lucene: Analisador Lucene para turco.
uk.microsoft: Microsoft analyzer para ucraniano.
your.microsoft: Microsoft analyzer para Urdu.
vi.microsoft: Microsoft analyzer para vietnamita.
standard.lucene: Analisador Lucene padrão.
standardasciifolding.lucene: Analisador Lucene dobrável ASCII padrão. Veja https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
palavra-chave: trata todo o conteúdo de um campo como um único token. Isso é útil para dados como códigos postais, ids e alguns nomes de produtos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
padrão: Separa o texto de forma flexível em termos através de um padrão de expressão regular. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
simples: Divide o texto em letras não escritas e converte-as em minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
parar: Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
espaço em branco: Um analisador que usa o tokenizador de espaço em branco. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizer

Contém os possíveis casos para LexicalNormalizer.

LexicalNormalizerName

Define valores para LexicalNormalizerName.
KnownLexicalNormalizerName pode ser usado de forma intercambiável com LexicalNormalizerName, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

asciifolding : Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
elisão: Remove elisions. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
minúsculas: normaliza o texto do token para minúsculas. Veja https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
padrão: normalizador padrão, que consiste em minúsculas e asciifolding. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
maiúsculas: normaliza o texto do token para maiúsculas. Veja https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizer

Contém os casos possíveis para Tokenizer.

LexicalTokenizerName

Define valores para LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> pode ser usado de forma intercambiável com LexicalTokenizerName, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

clássico : tokenizador baseado em gramática que é adequado para processar a maioria dos documentos em língua europeia. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) fornecido(s). Veja https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: Emite toda a entrada como um único token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
letra: Divide o texto em não-letras. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
minúsculas : Divide o texto em letras não letras e converte-as em minúsculas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: Divide o texto usando regras específicas do idioma.
microsoft_language_stemming_tokenizer: Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas base.
nGram: Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizador para hierarquias semelhantes a caminhos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
padrão: Tokenizador que usa a correspondência de padrões regex para construir tokens distintos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Analisador Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro stop. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokeniza urls e e-mails como um token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
espaço em branco: Divide o texto no espaço em branco. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListAliasesOptions

Opções para operação de aliases de lista.

ListDataSourceConnectionsOptions

Opções para uma operação de fontes de dados de lista.

ListIndexersOptions

Opções para uma operação de indexadores de lista.

ListIndexesOptions

Opções para uma operação de índices de lista.

ListSkillsetsOptions

Opções para uma operação de conjunto de habilidades de lista.

ListSynonymMapsOptions

Opções para uma operação de lista synonymMaps.

MarkdownHeaderDepth

Define valores para MarkdownHeaderDepth.
KnownMarkdownHeaderDepth pode ser usado de forma intercambiável com MarkdownHeaderDepth, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

h1: Indica que cabeçalhos até um nível de h1 serão considerados ao agrupar o conteúdo de markdown.
h2: Indica que cabeçalhos até um nível de h2 serão considerados ao agrupar o conteúdo de markdown.
h3: Indica que cabeçalhos até um nível de h3 serão considerados ao agrupar o conteúdo de markdown.
h4: Indica que cabeçalhos até um nível de h4 serão considerados ao agrupar o conteúdo de markdown.
h5: Indica que cabeçalhos até um nível de h5 serão considerados ao agrupar o conteúdo de markdown.
h6: Indica que cabeçalhos até um nível de h6 serão considerados ao agrupar o conteúdo de markdown. Este é o padrão.

MarkdownParsingSubmode

Define valores para MarkdownParsingSubmode.
KnownMarkdownParsingSubmode pode ser usado de forma intercambiável com MarkdownParsingSubmode, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

oneToMany: indica que cada seção do arquivo de marcação (até uma profundidade especificada) será analisada em documentos de pesquisa individuais. Isso pode resultar em um único arquivo de marcação produzindo vários documentos de pesquisa. Este é o submodo padrão.
oneToOne: indica que cada arquivo de marcação será analisado em um único documento de pesquisa.

MergeDocumentsOptions

Opções para a operação de mesclagem de documentos.

MergeOrUploadDocumentsOptions

Opções para a operação de mesclagem ou upload de documentos.

MicrosoftStemmingTokenizerLanguage

Define valores para MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Define valores para MicrosoftTokenizerLanguage.

NarrowedModel

Restringe o tipo de modelo para incluir apenas os campos selecionados

OcrLineEnding

Define valores para OcrLineEnding.
KnownOcrLineEnding pode ser usado de forma intercambiável com OcrLineEnding, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

espaço: As linhas são separadas por um único caractere de espaço.
carriageReturn: As linhas são separadas por um caractere de retorno de carro ('\r').
lineFeed: As linhas são separadas por um único caractere de alimentação de linha ('\n').
carriageReturnLineFeed: As linhas são separadas por um retorno de carro e um caractere de alimentação de linha ('\r\n').

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PermissionFilter

Define valores para PermissionFilter.
KnownPermissionFilter pode ser usado de forma intercambiável com PermissionFilter, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

userIds: Field representa IDs de usuário que devem ser usados para filtrar o acesso a documentos em consultas.
groupIds: Field representa IDs de grupo que devem ser usados para filtrar o acesso a documentos em consultas.
rbacScope: Field representa um escopo RBAC que deve ser usado para filtrar o acesso a documentos em consultas.

PhoneticEncoder

Define valores para PhoneticEncoder.

QueryAnswer

Um valor que especifica se as respostas devem ser retornadas como parte da resposta da pesquisa. Este parâmetro só é válido se o tipo de consulta for 'semântico'. Se definido como extractive, a consulta retorna respostas extraídas de passagens importantes nos documentos mais bem classificados.

QueryCaption

Um valor que especifica se as legendas devem ser retornadas como parte da resposta da pesquisa. Este parâmetro só é válido se o tipo de consulta for 'semântico'. Se definida, a consulta retorna legendas extraídas de passagens importantes nos documentos mais bem classificados. Quando Legendas é 'extrativa', o realce é ativado por padrão. O padrão é 'nenhum'.

QueryDebugMode

Define valores para QueryDebugMode.
KnownQueryDebugMode pode ser usado de forma intercambiável com QueryDebugMode, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

disabled: Nenhuma informação de depuração de consulta será retornada.
semântica: Permite que o usuário explore ainda mais seus resultados reclassificados.
vetor: Permite que o usuário explore ainda mais seus resultados de consulta híbrida e vetorial.
queryRewrites: Permite que o usuário explore a lista de regravações de consulta geradas para sua solicitação de pesquisa.
innerHits: Permite que o usuário recupere informações de pontuação sobre vetores correspondentes dentro de uma coleção de tipos complexos.
all: ative todas as opções de depuração.

QueryLanguage

Define valores para QueryLanguage.
KnownQueryLanguage pode ser usado de forma intercambiável com QueryLanguage, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

none: Linguagem de consulta não especificada.
en-us: Valor do idioma de consulta para inglês (Estados Unidos).
en-gb: Valor do idioma de consulta para inglês (Grã-Bretanha).
en-in: Valor do idioma de consulta para inglês (Índia).
en-ca: Valor do idioma de consulta para inglês (Canadá).
en-au: Valor do idioma de consulta para inglês (Austrália).
fr-fr: Valor da linguagem de consulta para francês (França).
fr-ca: Valor do idioma de consulta para francês (Canadá).
de-de: Valor do idioma de consulta para alemão (Alemanha).
es-es: Valor do idioma de consulta para espanhol (Espanha).
es-mx: Valor do idioma de consulta para espanhol (México).
zh-cn: Valor do idioma de consulta para chinês (China).
zh-tw: Valor do idioma de consulta para chinês (Taiwan).
pt-br: Valor do idioma de consulta para Português (Brasil).
pt-pt: Valor do idioma de consulta para Português (Portugal).
it-it: Valor do idioma de consulta para italiano (Itália).
ja-jp: Valor do idioma de consulta para japonês (Japão).
ko-kr: Valor do idioma de consulta para coreano (Coreia).
ru-ru: Valor do idioma de consulta para russo (Rússia).
cs-cz: Valor do idioma de consulta para checo (República Checa).
nl-be: Valor do idioma de consulta para holandês (Bélgica).
nl-nl: Valor do idioma de consulta para holandês (Holanda).
hu-hu: Valor da linguagem de consulta para húngaro (Hungria).
pl-pl: Valor do idioma de consulta para polonês (Polônia).
sv-se: Valor do idioma de consulta para sueco (Suécia).
tr-tr: Valor do idioma de consulta para turco (Turquia).
hi-in: Valor do idioma de consulta para Hindi (Índia).
ar-sa: Valor do idioma de consulta para árabe (Arábia Saudita).
ar-eg: Valor do idioma de consulta para árabe (Egito).
ar-ma: Valor do idioma de consulta para árabe (Marrocos).
ar-kw: Valor do idioma de consulta para árabe (Kuwait).
ar-jo: Valor do idioma de consulta para árabe (Jordânia).
da-dk: Valor do idioma de consulta para dinamarquês (Dinamarca).
no-no: Valor do idioma de consulta para norueguês (Noruega).
bg-bg: Valor do idioma de consulta para búlgaro (Bulgária).
hr-hr: Valor do idioma de consulta para croata (Croácia).
hr-ba: Valor do idioma de consulta para croata (Bósnia e Herzegovina).
ms-my: Valor do idioma de consulta para malaio (Malásia).
ms-bn: Valor da linguagem de consulta para malaio (Brunei Darussalam).
sl-sl: Valor da língua de consulta para esloveno (Eslovénia).
ta-in: Valor da linguagem de consulta para tâmil (Índia).
vi-vn: Valor da linguagem de consulta para vietnamita (Vietname).
el-gr: Valor da linguagem de consulta para grego (Grécia).
ro-ro: Valor do idioma de consulta para romeno (Roménia).
is-is: Valor do idioma de consulta para islandês (Islândia).
id-id: Valor do idioma de consulta para indonésio (Indonésia).
th-th: Valor do idioma de consulta para tailandês (Tailândia).
lt-lt: Valor da língua de consulta para lituano (Lituânia).
uk-ua: Valor do idioma de consulta para ucraniano (Ucrânia).
lv-lv: Valor da linguagem de consulta para letão (Letónia).
et-ee: Valor do idioma de consulta para estónio (Estónia).
ca-es: Valor do idioma de consulta para catalão.
fi-fi: Valor da língua de consulta para finlandês (Finlândia).
sr-ba: Valor do idioma de consulta para sérvio (Bósnia e Herzegovina).
sr-me: Valor do idioma de consulta para sérvio (Montenegro).
sr-rs: Valor do idioma de consulta para sérvio (Sérvia).
sk-sk: Valor da linguagem de consulta para eslovaco (Eslováquia).
nb-no: Valor do idioma de consulta para norueguês (Noruega).
hy-am: Valor da linguagem de consulta para armênio (Armênia).
bn-in: Valor da linguagem de consulta para Bengali (Índia).
eu-es: Valor da linguagem de consulta para basco.
gl-es: Valor da linguagem de consulta para galego.
gu-in: Valor da linguagem de consulta para Gujarati (Índia).
he-il: Valor do idioma de consulta para Hebraico (Israel).
ga-ie: Valor da linguagem de consulta para irlandês (Irlanda).
kn-in: Valor da linguagem de consulta para Kannada (Índia).
ml-in: Valor do idioma de consulta para Malayalam (Índia).
mr-in: Valor da linguagem de consulta para Marathi (Índia).
fa-ae: Valor da linguagem de consulta para persa (E.U.A.).
pa-in: Valor da linguagem de consulta para Punjabi (Índia).
te-in: Valor da linguagem de consulta para Telugu (Índia).
ur-pk: Valor da linguagem de consulta para Urdu (Paquistão).

QueryRewrites

Define opções para regravações de consulta.

QuerySpeller

Define valores para QuerySpellerType.
<xref:KnownQuerySpellerType> pode ser usado de forma intercambiável com QuerySpellerType, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

nenhum: Ortografia não ativada.
léxico: O Speller corrige termos de consulta individuais usando um léxico estático para o idioma especificado pelo parâmetro queryLanguage.

QueryType

Define valores para QueryType.

RankingOrder

Define valores para RankingOrder.
KnownRankingOrder pode ser usado de forma intercambiável com RankingOrder, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

BoostedRerankerScore: define a ordem de classificação como BoostedRerankerScore
RerankerScore: define a ordem de classificação como ReRankerScore

RegexFlags
ResetIndexerOptions

Opções para redefinir a operação do indexador.

RunIndexerOptions

Opções para executar a operação do indexador.

ScoringFunction

Contém os casos possíveis para ScoringFunction.

ScoringFunctionAggregation

Define valores para ScoringFunctionAggregation.

ScoringFunctionInterpolation

Define valores para ScoringFunctionInterpolation.

ScoringStatistics

Define valores para ScoringStatistics.

SearchField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

SearchFieldArray

Se TModel for um objeto sem tipo, uma matriz de cadeia de caracteres sem tipo Caso contrário, os campos delimitados por barra de TModel.

SearchFieldDataType

Define valores para SearchFieldDataType.

Valores conhecidos suportados pelo serviço:

Edm.String: Indica que um campo contém uma cadeia de caracteres.

Edm.Int32: Indica que um campo contém um inteiro assinado de 32 bits.

Edm.Int64: Indica que um campo contém um inteiro assinado de 64 bits.

Edm.Double: Indica que um campo contém um número de ponto flutuante de precisão dupla IEEE.

Edm.Boolean: Indica que um campo contém um valor booleano (true ou false).

Edm.DateTimeOffset: Indica que um campo contém um valor de data/hora, incluindo informações de fuso horário.

Edm.GeographyPoint: Indica que um campo contém uma geolocalização em termos de longitude e latitude.

Edm.ComplexType: Indica que um campo contém um ou mais objetos complexos que, por sua vez, têm subcampos de outros tipos.

Edm.Single: Indica que um campo contém um número de ponto flutuante de precisão única. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Single).

Edm.Half: Indica que um campo contém um número de ponto flutuante de meia precisão. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Coleção (Edm.Half).

Edm.Int16: Indica que um campo contém um inteiro assinado de 16 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Int16).

Edm.SByte: Indica que um campo contém um inteiro assinado de 8 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Coleção (Edm.SByte).

Edm.Byte: Indica que um campo contém um inteiro não assinado de 8 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Byte).

SearchIndexAlias

Objeto Alias de pesquisa.

SearchIndexPermissionFilterOption

Define valores para SearchIndexPermissionFilterOption.
KnownSearchIndexPermissionFilterOption pode ser usado de forma intercambiável com SearchIndexPermissionFilterOption, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

ativado
deficientes

SearchIndexerDataIdentity

Contém os casos possíveis para SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Contém os casos possíveis para Habilidade.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opções para SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opções para SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opções para SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opções para SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opções para SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Um iterador para resultados de pesquisa de uma consulta paticular. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração.

SearchMode

Define valores para SearchMode.

SearchOptions

Opções para confirmar uma solicitação de pesquisa completa.

SearchPick

Escolha profundamente campos de T usando caminhos de $select OData de pesquisa de IA válidos.

SearchRequestOptions

Parâmetros para filtragem, classificação, facetagem, paginação e outros comportamentos de consulta de pesquisa.

SearchRequestQueryTypeOptions
SearchResult

Contém um documento encontrado por uma consulta de pesquisa, além de metadados associados.

SelectArray

Se TFields nunca for, uma matriz de cadeia de caracteres sem tipo Caso contrário, um tipo de Fields[] restrito a ser usado em outro lugar no tipo consumidor.

SelectFields

Produz uma união de caminhos válidos de pesquisa de IA OData $select para T usando uma travessia pós-ordem da árvore de campo enraizada em T.

SemanticErrorMode
SemanticErrorReason
SemanticFieldState

Define valores para SemanticFieldState.
KnownSemanticFieldState pode ser usado de forma intercambiável com SemanticFieldState, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

utilizado: O campo foi totalmente utilizado para enriquecimento semântico.
não utilizado: O campo não foi utilizado para enriquecimento semântico.
parcial: O campo foi parcialmente utilizado para enriquecimento semântico.

SemanticQueryRewritesResultType

Define valores para SemanticQueryRewritesResultType.
KnownSemanticQueryRewritesResultType pode ser usado de forma intercambiável com SemanticQueryRewritesResultType, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

originalQueryOnly: As regravações de consulta não foram geradas com êxito para essa solicitação. Apenas a consulta original foi usada para recuperar os resultados.

SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

Contém os possíveis casos de Similaridade.

SnowballTokenFilterLanguage

Define valores para SnowballTokenFilterLanguage.

SplitSkillEncoderModelName

Define valores para SplitSkillEncoderModelName.
KnownSplitSkillEncoderModelName pode ser usado de forma intercambiável com SplitSkillEncoderModelName, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

r50k_base: Refere-se a um modelo base treinado com um vocabulário de 50.000 tokens, frequentemente usado em tarefas gerais de processamento de linguagem natural.
p50k_base: Um modelo base com um vocabulário de 50.000 tokens, otimizado para tarefas baseadas em prompts.
p50k_edit: Semelhante ao p50k_base mas ajustado para tarefas de edição ou reformulação com um vocabulário de 50.000 tokens.
cl100k_base: Um modelo base com um vocabulário de 100.000 tokens.

SplitSkillLanguage
SplitSkillUnit

Define valores para SplitSkillUnit.
KnownSplitSkillUnit pode ser usado de forma intercambiável com SplitSkillUnit, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

caracteres: O comprimento será medido por caractere.
azureOpenAITokens: O comprimento será medido por um tokenizador AzureOpenAI da biblioteca tiktoken.

StemmerTokenFilterLanguage

Define valores para StemmerTokenFilterLanguage.

StopwordsList

Define valores para StopwordsList.

SuggestNarrowedModel
SuggestOptions

Opções para recuperar sugestões com base no searchText.

SuggestResult

Um resultado que contém um documento encontrado por uma consulta de sugestão, além de metadados associados.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Define valores para TokenCharacterKind.

TokenFilter

Contém os casos possíveis para TokenFilter.

TokenFilterName

Define valores para TokenFilterName.
<xref:KnownTokenFilterName> pode ser usado de forma intercambiável com TokenFilterName, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

arabic_normalization: Um filtro simbólico que aplica o normalizador árabe para normalizar a ortografia. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apóstrofo: Retira todos os caracteres após um apóstrofo (incluindo o próprio apóstrofo). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding : Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Basic Latin") em seus equivalentes ASCII, se tais equivalentes existirem. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: Forma bigramas de termos CJK que são gerados a partir do tokenizador padrão. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: Normaliza as diferenças de largura do CJK. Dobra variantes ASCII de largura total no latim básico equivalente e variantes Katakana de meia largura no Kana equivalente. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
clássico: Remove possessivos ingleses e pontos de siglas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: Construa bigramas para termos frequentes durante a indexação. Os termos isolados também continuam indexados, com bigramas sobrepostos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: Gera n-gramas do(s) tamanho(s) determinado(s) a partir da frente ou do verso de um token de entrada. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elisão: Remove elisions. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Normaliza caracteres alemães de acordo com a heurística do algoritmo de bola de neve German2. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: Normaliza o texto em hindi para remover algumas diferenças nas variações ortográficas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: Normaliza a representação Unicode de texto em idiomas indianos. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: Emite cada token recebido duas vezes, uma como palavra-chave e outra como não-palavra-chave. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: Um filtro kstem de alto desempenho para inglês. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
comprimento: Remove palavras que são muito longas ou muito curtas. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limite: Limita o número de tokens durante a indexação. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
minúsculas : Normaliza o texto do token para minúsculas. Veja https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: Gera n-gramas do(s) tamanho(s) dado(s). Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Aplica normalização para persa. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonética : Crie tokens para correspondências fonéticas. Veja https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: Usa o algoritmo de derivação de Porter para transformar o fluxo de token. Veja http://tartarus.org/~martin/PorterStemmer
reverso : Inverte a cadeia de caracteres do token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Normaliza o uso dos caracteres escandinavos intercambiáveis. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Dobra caracteres escandinavos åÅäæÄÆ->a e öÖøØ->o. Também discrimina o uso de vogais duplas aa, ae, ao, oe e oo, deixando apenas a primeira. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle: Cria combinações de tokens como um único token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
bola de neve: Um filtro que deriva palavras usando um lematizador gerado por bola de neve. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: Normaliza a representação Unicode do texto Sorani. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: Filtro de derivação específico da linguagem. Veja https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
stopwords: Remove palavras de parada de um fluxo de token. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
de corte: Corta espaços em branco à esquerda e à direita de tokens. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
truncar: Trunca os termos até um comprimento específico. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
exclusivo : Filtra tokens com o mesmo texto do token anterior. Veja http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
maiúsculas: normaliza o texto do token para maiúsculas. Veja https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras.

UnionToIntersection
UploadDocumentsOptions

Opções para a operação de upload de documentos.

VectorEncodingFormat

Define valores para VectorEncodingFormat.
KnownVectorEncodingFormat pode ser usado de forma intercambiável com VectorEncodingFormat, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

packedBit: Formato de codificação que representa bits compactados em um tipo de dados mais amplo.

VectorFilterMode
VectorQuery

Os parâmetros de consulta para consultas de pesquisa vetoriais e híbridas.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta.

VectorSearchCompressionKind

Define valores para VectorSearchCompressionKind.
KnownVectorSearchCompressionKind pode ser usado de forma intercambiável com VectorSearchCompressionKind, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

scalarQuantization: Quantização escalar, um tipo de método de compressão. Na quantização escalar, os valores dos vetores originais são compactados para um tipo mais estreito, discretizando e representando cada componente de um vetor usando um conjunto reduzido de valores quantizados, reduzindo assim o tamanho geral dos dados.
binaryQuantization: Binary Quantization, um tipo de método de compressão. Na quantização binária, os valores dos vetores originais são compactados para o tipo binário mais estreito, discretizando e representando cada componente de um vetor usando valores binários, reduzindo assim o tamanho geral dos dados.

VectorSearchCompressionRescoreStorageMethod

Define valores para VectorSearchCompressionRescoreStorageMethod.
KnownVectorSearchCompressionRescoreStorageMethod pode ser usado de forma intercambiável com VectorSearchCompressionRescoreStorageMethod, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

preserveOriginals: Esta opção preserva os vetores originais de precisão total. Escolha esta opção para obter a máxima flexibilidade e a mais alta qualidade de resultados de pesquisa compactados. Isso consome mais armazenamento, mas permite a remarcação e a sobreamostragem.
discardOriginals: Esta opção descarta os vetores originais de precisão total. Escolha esta opção para obter o máximo de economia de armazenamento. Uma vez que esta opção não permite a reclassificação e a sobreamostragem, provocará frequentemente reduções ligeiras a moderadas na qualidade.

VectorSearchCompressionTarget

Define valores para VectorSearchCompressionTarget.
KnownVectorSearchCompressionTarget pode ser usado de forma intercambiável com VectorSearchCompressionTarget, esse enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

int8

VectorSearchVectorizer

Contém opções de configuração sobre como vetorizar consultas vetoriais de texto.

VectorSearchVectorizerKind

Define valores para VectorSearchVectorizerKind.
KnownVectorSearchVectorizerKind pode ser usado de forma intercambiável com VectorSearchVectorizerKind, este enum contém os valores conhecidos que o serviço suporta.

Valores conhecidos suportados pelo serviço

azureOpenAI: gere incorporações usando um recurso do Azure OpenAI no momento da consulta.
customWebApi: gere incorporações usando um ponto de extremidade da Web personalizado no momento da consulta.
aiServicesVision: gere incorporações para uma entrada de imagem ou texto no momento da consulta usando a API de Vetorização de Visão dos Serviços de IA do Azure.
aml: gere incorporações usando um ponto de extremidade do Azure Machine Learning implantado por meio do Catálogo de Modelo do Azure AI Foundry no momento da consulta.

VectorThreshold

O limite usado para consultas vetoriais.

VisualFeature
WebApiSkills

Enums

KnownAIFoundryModelCatalogName

Valores conhecidos de AIFoundryModelCatalogName que o serviço aceita.

KnownAnalyzerNames

Define valores para AnalyzerName. Veja https://learn.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Os valores conhecidos de AzureOpenAIModelName que o serviço aceita.

KnownBlobIndexerDataToExtract

Os valores conhecidos de BlobIndexerDataToExtract que o serviço aceita.

KnownBlobIndexerImageAction

Os valores conhecidos de BlobIndexerImageAction que o serviço aceita.

KnownBlobIndexerPDFTextRotationAlgorithm

Os valores conhecidos de BlobIndexerPDFTextRotationAlgorithm que o serviço aceita.

KnownBlobIndexerParsingMode

Os valores conhecidos de BlobIndexerParsingMode que o serviço aceita.

KnownCharFilterNames

Define valores para CharFilterName.

KnownChatCompletionExtraParametersBehavior

Valores conhecidos de ChatCompletionExtraParametersBehavior que o serviço aceita.

KnownChatCompletionResponseFormatType

Valores conhecidos de ChatCompletionResponseFormatType que o serviço aceita.

KnownCustomEntityLookupSkillLanguage

Os valores conhecidos de CustomEntityLookupSkillLanguage que o serviço aceita.

KnownDocumentIntelligenceLayoutSkillChunkingUnit

Valores conhecidos de DocumentIntelligenceLayoutSkillChunkingUnit que o serviço aceita.

KnownDocumentIntelligenceLayoutSkillExtractionOptions

Valores conhecidos de DocumentIntelligenceLayoutSkillExtractionOptions que o serviço aceita.

KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Valores conhecidos de DocumentIntelligenceLayoutSkillMarkdownHeaderDepth que o serviço aceita.

KnownDocumentIntelligenceLayoutSkillOutputFormat

Valores conhecidos de DocumentIntelligenceLayoutSkillOutputFormat que o serviço aceita.

KnownDocumentIntelligenceLayoutSkillOutputMode

Valores conhecidos de DocumentIntelligenceLayoutSkillOutputMode que o serviço aceita.

KnownEntityCategory

Os valores conhecidos de EntityCategory que o serviço aceita.

KnownEntityRecognitionSkillLanguage

Os valores conhecidos de EntityRecognitionSkillLanguage que o serviço aceita.

KnownHybridCountAndFacetMode

Valores conhecidos de HybridCountAndFacetMode que o serviço aceita.

KnownImageAnalysisSkillLanguage

Os valores conhecidos de ImageAnalysisSkillLanguage que o serviço aceita.

KnownImageDetail

Os valores conhecidos de ImageDetail que o serviço aceita.

KnownIndexProjectionMode

Os valores conhecidos de IndexProjectionMode que o serviço aceita.

KnownIndexerExecutionEnvironment

Os valores conhecidos de IndexerExecutionEnvironment que o serviço aceita.

KnownIndexerExecutionStatusDetail

Valores conhecidos de IndexerExecutionStatusDetail que o serviço aceita.

KnownIndexerPermissionOption

Valores conhecidos de IndexerPermissionOption que o serviço aceita.

KnownIndexerResyncOption

Valores conhecidos de IndexerResyncOption que o serviço aceita.

KnownIndexingMode

Os valores conhecidos de IndexingMode que o serviço aceita.

KnownKeyPhraseExtractionSkillLanguage

Os valores conhecidos de KeyPhraseExtractionSkillLanguage que o serviço aceita.

KnownKnowledgeBaseModelKind

Valores conhecidos de KnownKnowledgeBaseModelKind que o serviço aceita.

KnownKnowledgeRetrievalOutputMode

Valores conhecidos do KnowledgeRetrievalOutputMode que o serviço aceita.

KnownKnowledgeSourceKind

Valores conhecidos de KnowledgeSourceKind que o serviço aceita.

KnownLexicalAnalyzerName

Valores conhecidos de LexicalAnalyzerName que o serviço aceita.

KnownLexicalNormalizerName

Valores conhecidos de LexicalNormalizerName que o serviço aceita.

KnownMarkdownHeaderDepth

Valores conhecidos de MarkdownHeaderDepth que o serviço aceita.

KnownMarkdownParsingSubmode

Valores conhecidos de MarkdownParsingSubmode que o serviço aceita.

KnownOcrLineEnding

Os valores conhecidos de OcrLineEnding que o serviço aceita.

KnownOcrSkillLanguage

Os valores conhecidos de OcrSkillLanguage que o serviço aceita.

KnownPIIDetectionSkillMaskingMode

Os valores conhecidos de PIIDetectionSkillMaskingMode que o serviço aceita.

KnownPermissionFilter

Valores conhecidos de PermissionFilter que o serviço aceita.

KnownQueryDebugMode

Valores conhecidos de QueryDebugMode que o serviço aceita.

KnownQueryLanguage

Valores conhecidos de QueryLanguage que o serviço aceita.

KnownQuerySpeller

Valores conhecidos de <xref:QuerySpellerType> que o serviço aceita.

KnownRankingOrder

Valores conhecidos de RankingOrder que o serviço aceita.

KnownRegexFlags

Os valores conhecidos de RegexFlags que o serviço aceita.

KnownSearchAudience

Valores conhecidos para o Público de Pesquisa

KnownSearchFieldDataType

Os valores conhecidos de SearchFieldDataType que o serviço aceita.

KnownSearchIndexPermissionFilterOption

Valores conhecidos de SearchIndexPermissionFilterOption que o serviço aceita.

KnownSearchIndexerDataSourceType

Os valores conhecidos de SearchIndexerDataSourceType que o serviço aceita.

KnownSemanticErrorMode

Os valores conhecidos de SemanticErrorMode que o serviço aceita.

KnownSemanticErrorReason

Os valores conhecidos de SemanticErrorReason que o serviço aceita.

KnownSemanticFieldState

Valores conhecidos de SemanticFieldState que o serviço aceita.

KnownSemanticQueryRewritesResultType

Valores conhecidos de SemanticQueryRewritesResultType que o serviço aceita.

KnownSemanticSearchResultsType

Os valores conhecidos de SemanticSearchResultsType que o serviço aceita.

KnownSentimentSkillLanguage

Os valores conhecidos de SentimentSkillLanguage que o serviço aceita.

KnownSplitSkillEncoderModelName

Valores conhecidos de SplitSkillEncoderModelName que o serviço aceita.

KnownSplitSkillLanguage

Os valores conhecidos de SplitSkillLanguage que o serviço aceita.

KnownSplitSkillUnit

Valores conhecidos de SplitSkillUnit que o serviço aceita.

KnownTextSplitMode

Os valores conhecidos de TextSplitMode que o serviço aceita.

KnownTextTranslationSkillLanguage

Os valores conhecidos de TextTranslationSkillLanguage que o serviço aceita.

KnownTokenFilterNames

Define valores para TokenFilterName.

KnownTokenizerNames

Define valores para TokenizerName.

KnownVectorEncodingFormat

Valores conhecidos de VectorEncodingFormat que o serviço aceita.

KnownVectorFilterMode

Os valores conhecidos de VectorFilterMode que o serviço aceita.

KnownVectorQueryKind

Os valores conhecidos de VectorQueryKind que o serviço aceita.

KnownVectorSearchAlgorithmKind

Os valores conhecidos de VectorSearchAlgorithmKind que o serviço aceita.

KnownVectorSearchAlgorithmMetric

Os valores conhecidos de VectorSearchAlgorithmMetric que o serviço aceita.

KnownVectorSearchCompressionKind

Os valores conhecidos de VectorSearchCompressionKind que o serviço aceita.

KnownVectorSearchCompressionRescoreStorageMethod

Valores conhecidos de VectorSearchCompressionRescoreStorageMethod que o serviço aceita.

KnownVectorSearchCompressionTarget

Os valores conhecidos de VectorSearchCompressionTarget que o serviço aceita.

KnownVectorSearchVectorizerKind

Os valores conhecidos de VectorSearchVectorizerKind que o serviço aceita.

KnownVectorThresholdKind

Valores conhecidos de KnownVectorThresholdKind que o serviço aceita.

KnownVisualFeature

Os valores conhecidos de VisualFeature que o serviço aceita.

Funções

createSynonymMapFromFile(string, string)

Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS.

odata(TemplateStringsArray, unknown[])

Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Exemplo de uso:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obter mais informações sobre a sintaxe suportada, consulte: https://learn.microsoft.com/azure/search/search-query-odata-filter

Variáveis

DEFAULT_BATCH_SIZE

Tamanho padrão do lote

DEFAULT_FLUSH_WINDOW

Intervalo padrão de flush da janela

DEFAULT_RETRY_COUNT

Número padrão de vezes para tentar novamente.

Detalhes da Função

createSynonymMapFromFile(string, string)

Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parâmetros

name

string

Nome do SynonymMap.

filePath

string

Caminho do ficheiro que contém os Sinónimos (separados por novas linhas)

Regressos

Promise<SynonymMap>

Objeto SynonymMap

odata(TemplateStringsArray, unknown[])

Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Exemplo de uso:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obter mais informações sobre a sintaxe suportada, consulte: https://learn.microsoft.com/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parâmetros

strings

TemplateStringsArray

Matriz de cadeias de caracteres para a expressão

values

unknown[]

Matriz de valores para a expressão

Regressos

string

Variable Details

DEFAULT_BATCH_SIZE

Tamanho padrão do lote

DEFAULT_BATCH_SIZE: number

Tipo

number

DEFAULT_FLUSH_WINDOW

Intervalo padrão de flush da janela

DEFAULT_FLUSH_WINDOW: number

Tipo

number

DEFAULT_RETRY_COUNT

Número padrão de vezes para tentar novamente.

DEFAULT_RETRY_COUNT: number

Tipo

number