Compartir a través de


@azure/search-documents package

Clases

AzureKeyCredential

Credencial basada en clave estática que admite la actualización del valor de clave subyacente.

GeographyPoint

Representa un punto geográfico en coordenadas globales.

IndexDocumentsBatch

Clase que se usa para realizar operaciones por lotes con varios documentos en el índice.

SearchClient

Clase que se usa para realizar operaciones en un índice de búsqueda, incluida la consulta de documentos en el índice, así como agregarlos, actualizarlos y quitarlos.

SearchIndexClient

Clase para realizar operaciones para administrar índices (crear, actualizar, enumerar y eliminar), & mapas de sinónimos.

SearchIndexerClient

Clase para realizar operaciones para administrar indexadores (crear, actualizar, enumerar y eliminar), orígenes de datos & conjuntos de aptitudes.

SearchIndexingBufferedSender

Clase que se usa para realizar operaciones almacenadas en búfer en un índice de búsqueda, incluida la adición, actualización y eliminación de ellos.

Interfaces

AnalyzeRequest

Especifica algunos componentes de texto y análisis que se usan para dividir ese texto en tokens.

AnalyzeResult

Resultado de probar un analizador en el texto.

AnalyzedTokenInfo

Información sobre un token devuelto por un analizador.

AsciiFoldingTokenFilter

Convierte caracteres alfabéticos, numéricos y simbólicos Unicode que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Básico latino") en sus equivalentes ASCII, si existen dichos equivalentes. Este filtro de token se implementa mediante Apache Lucene.

AutocompleteItem

Resultado de las solicitudes autocompletar.

AutocompleteRequest

Parámetros para la coincidencia aproximada y otros comportamientos de consulta de autocompletar.

AutocompleteResult

Resultado de la consulta Autocompletar.

AzureActiveDirectoryApplicationCredentials

Credenciales de una aplicación registrada creada para el servicio de búsqueda, que se usa para el acceso autenticado a las claves de cifrado almacenadas en Azure Key Vault.

AzureOpenAIEmbeddingSkill

Permite generar una inserción de vectores para una entrada de texto determinada mediante el recurso de Azure OpenAI.

AzureOpenAIParameters

Contiene los parámetros específicos del uso de un servicio Azure Open AI para la vectorización en el momento de la consulta.

AzureOpenAIVectorizer

Contiene los parámetros específicos del uso de un servicio Azure Open AI para la vectorización en el momento de la consulta.

BM25Similarity

Función de clasificación basada en el algoritmo de similitud okapi BM25. BM25 es un algoritmo similar a TF-IDF que incluye la normalización de longitud (controlada por el parámetro 'b'), así como la saturación de frecuencia de términos (controlada por el parámetro 'k1').

BaseCharFilter

Tipo base para filtros de caracteres.

BaseCognitiveServicesAccount

Tipo base para describir cualquier recurso de servicio de Azure AI asociado a un conjunto de aptitudes.

BaseDataChangeDetectionPolicy

Tipo base para las directivas de detección de cambios de datos.

BaseDataDeletionDetectionPolicy

Tipo base para directivas de detección de eliminación de datos.

BaseLexicalAnalyzer

Tipo base para analizadores.

BaseLexicalTokenizer

Tipo base para tokenizadores.

BaseScoringFunction

Tipo base para funciones que pueden modificar las puntuaciones de documentos durante la clasificación.

BaseSearchIndexerDataIdentity

Tipo base abstracto para identidades de datos.

BaseSearchIndexerSkill

Tipo base para aptitudes.

BaseSearchRequestOptions

Parámetros para filtrar, ordenar, facetar, paginar y otros comportamientos de consulta de búsqueda.

BaseTokenFilter

Tipo base para filtros de token.

BaseVectorQuery

Los parámetros de consulta para las consultas de búsqueda híbrida y vectorial.

BaseVectorSearchAlgorithmConfiguration

Contiene opciones de configuración específicas del algoritmo utilizado durante la indexación o consulta.

BaseVectorSearchCompression

Contiene opciones de configuración específicas del método de compresión utilizado durante la indexación o consulta.

BaseVectorSearchVectorizer

Contiene detalles específicos de un método de vectorización que se usará durante el tiempo de consulta.

BinaryQuantizationCompression

Contiene opciones de configuración específicas del método de compresión de cuantificación binaria que se usa durante la indexación y la consulta.

CjkBigramTokenFilter

Forma bigrams de términos de CJK que se generan a partir del tokenizador estándar. Este filtro de token se implementa mediante Apache Lucene.

ClassicSimilarity

Algoritmo de similitud heredado que usa la implementación de TFIDFSimilarity de Lucene de TF-IDF. Esta variación de TF-IDF introduce la normalización estática de la longitud del documento, así como la coordinación de factores que penalizan los documentos que solo coinciden parcialmente con las consultas buscadas.

ClassicTokenizer

Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Este tokenizador se implementa mediante Apache Lucene.

CognitiveServicesAccountKey

Clave de cuenta de varias regiones de un recurso de servicio de Azure AI que está asociado a un conjunto de aptitudes.

CommonGramTokenFilter

Construya bigrams para términos que se producen con frecuencia durante la indexación. Los términos únicos todavía se indexan también, con bigrams superpuestos. Este filtro de token se implementa mediante Apache Lucene.

ComplexField

Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo.

ConditionalSkill

Aptitud que permite escenarios que requieren una operación booleana para determinar los datos que se van a asignar a una salida.

CorsOptions

Define las opciones para controlar el uso compartido de recursos entre orígenes (CORS) para un índice.

CreateOrUpdateIndexOptions

Opciones para la operación de creación o actualización del índice.

CreateOrUpdateSkillsetOptions

Opciones para la operación de creación o actualización del conjunto de aptitudes.

CreateOrUpdateSynonymMapOptions

Opciones para crear o actualizar la operación de mapa de sinónimos.

CreateorUpdateDataSourceConnectionOptions

Opciones para la operación de creación o actualización del origen de datos.

CreateorUpdateIndexerOptions

Opciones para la operación de creación o actualización del indexador.

CustomAnalyzer

Permite tomar el control sobre el proceso de conversión de texto en tokens indexables o que se pueden buscar. Se trata de una configuración definida por el usuario que consta de un único tokenizador predefinido y uno o varios filtros. El tokenizador es responsable de dividir texto en tokens y los filtros para modificar los tokens emitidos por el tokenizador.

CustomEntity

Objeto que contiene información sobre las coincidencias que se encontraron y metadatos relacionados.

CustomEntityAlias

Objeto complejo que se puede usar para especificar ortografías o sinónimos alternativos al nombre de la entidad raíz.

CustomEntityLookupSkill

Una aptitud busca texto de una lista personalizada definida por el usuario de palabras y frases.

DefaultCognitiveServicesAccount

Objeto vacío que representa el recurso de servicio de Azure AI predeterminado para un conjunto de aptitudes.

DeleteDataSourceConnectionOptions

Opciones para eliminar la operación del origen de datos.

DeleteIndexOptions

Opciones para eliminar la operación de índice.

DeleteIndexerOptions

Opciones para eliminar la operación del indexador.

DeleteSkillsetOptions

Opciones para eliminar la operación del conjunto de aptitudes.

DeleteSynonymMapOptions

Opciones para eliminar la operación de mapa de sinónimos.

DictionaryDecompounderTokenFilter

Descompone palabras compuestas encontradas en muchos idiomas alemanes. Este filtro de token se implementa mediante Apache Lucene.

DistanceScoringFunction

Define una función que aumenta las puntuaciones en función de la distancia desde una ubicación geográfica.

DistanceScoringParameters

Proporciona valores de parámetro a una función de puntuación de distancia.

DocumentExtractionSkill

Aptitud que extrae el contenido de un archivo dentro de la canalización de enriquecimiento.

EdgeNGramTokenFilter

Genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Este filtro de token se implementa mediante Apache Lucene.

EdgeNGramTokenizer

Tokeniza la entrada de un borde en n gramos de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene.

ElisionTokenFilter

Quita las elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Este filtro de token se implementa mediante Apache Lucene.

EntityLinkingSkill

Con Text Analytics API, extrae entidades vinculadas del texto.

EntityRecognitionSkill

Reconocimiento de entidades de Text Analytics.

EntityRecognitionSkillV3

Con Text Analytics API, extrae entidades de diferentes tipos de texto.

ExhaustiveKnnParameters

Contiene los parámetros específicos del algoritmo KNN exhaustivo.

ExtractiveQueryAnswer

Extrae candidatos de respuesta del contenido de los documentos devueltos en respuesta a una consulta expresada como una pregunta en lenguaje natural.

ExtractiveQueryCaption

Extrae títulos de los documentos coincidentes que contienen pasajes relevantes para la consulta de búsqueda.

FacetResult

Un único cubo de un resultado de consulta de faceta. Informa del número de documentos con un valor de campo que se encuentra dentro de un intervalo determinado o que tiene un valor o intervalo determinado.

FieldMapping

Define una asignación entre un campo de un origen de datos y un campo de destino en un índice.

FieldMappingFunction

Representa una función que transforma un valor de un origen de datos antes de la indexación.

FreshnessScoringFunction

Define una función que aumenta las puntuaciones en función del valor de un campo de fecha y hora.

FreshnessScoringParameters

Proporciona valores de parámetro a una función de puntuación de actualización.

GetDocumentOptions

Opciones para recuperar un único documento.

HighWaterMarkChangeDetectionPolicy

Define una directiva de detección de cambios de datos que captura los cambios en función del valor de una columna de marca de agua alta.

HnswParameters

Contiene los parámetros específicos del algoritmo hnsw.

ImageAnalysisSkill

Una aptitud que analiza los archivos de imagen. Extrae un amplio conjunto de características visuales basadas en el contenido de la imagen.

IndexDocumentsClient

Cliente de documentos de índice

IndexDocumentsOptions

Opciones para la operación modificar el lote de índice.

IndexDocumentsResult

Respuesta que contiene el estado de las operaciones de todos los documentos de la solicitud de indexación.

IndexerExecutionResult

Representa el resultado de una ejecución individual del indexador.

IndexingParameters

Representa parámetros para la ejecución del indexador.

IndexingParametersConfiguration

Diccionario de propiedades de configuración específicas del indexador. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo.

IndexingResult

Estado de una operación de indexación para un único documento.

IndexingSchedule

Representa una programación para la ejecución del indexador.

InputFieldMappingEntry

Asignación de campos de entrada para una aptitud.

KeepTokenFilter

Filtro de token que solo mantiene los tokens con texto contenido en una lista especificada de palabras. Este filtro de token se implementa mediante Apache Lucene.

KeyPhraseExtractionSkill

Aptitud que usa el análisis de texto para la extracción de frases clave.

KeywordMarkerTokenFilter

Marca los términos como palabras clave. Este filtro de token se implementa mediante Apache Lucene.

KeywordTokenizer

Emite toda la entrada como un solo token. Este tokenizador se implementa mediante Apache Lucene.

LanguageDetectionSkill

Una aptitud que detecta el idioma del texto de entrada e informa de un código de idioma único para cada documento enviado en la solicitud. El código de idioma se empareja con una puntuación que indica la confianza del análisis.

LengthTokenFilter

Quita las palabras que son demasiado largas o demasiado cortas. Este filtro de token se implementa mediante Apache Lucene.

LimitTokenFilter

Limita el número de tokens durante la indexación. Este filtro de token se implementa mediante Apache Lucene.

ListSearchResultsPageSettings

Argumentos para recuperar la página siguiente de los resultados de búsqueda.

LuceneStandardAnalyzer

Analizador estándar de Apache Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop.

LuceneStandardTokenizer

Interrumpe el texto siguiendo las reglas de segmentación de texto Unicode. Este tokenizador se implementa mediante Apache Lucene.

MagnitudeScoringFunction

Define una función que aumenta las puntuaciones en función de la magnitud de un campo numérico.

MagnitudeScoringParameters

Proporciona valores de parámetro a una función de puntuación de magnitud.

MappingCharFilter

Filtro de caracteres que aplica asignaciones definidas con la opción asignaciones. La coincidencia es expansa (la coincidencia de patrones más larga en un punto dado gana). El reemplazo puede ser la cadena vacía. Este filtro de caracteres se implementa mediante Apache Lucene.

MergeSkill

Aptitud para combinar dos o más cadenas en una sola cadena unificada, con un delimitador definido por el usuario opcional que separa cada parte de componente.

MicrosoftLanguageStemmingTokenizer

Divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formularios base.

MicrosoftLanguageTokenizer

Divide el texto mediante reglas específicas del idioma.

NGramTokenFilter

Genera n-gramas de los tamaños especificados. Este filtro de token se implementa mediante Apache Lucene.

NGramTokenizer

Tokeniza la entrada en n-gramas de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene.

OcrSkill

Aptitud que extrae texto de los archivos de imagen.

OutputFieldMappingEntry

Asignación de campos de salida para una aptitud.

PIIDetectionSkill

Con Text Analytics API, extrae información personal de un texto de entrada y le ofrece la opción de enmascararlo.

PathHierarchyTokenizer

Tokenizador para jerarquías similares a la ruta de acceso. Este tokenizador se implementa mediante Apache Lucene.

PatternAnalyzer

Separa de forma flexible el texto en términos a través de un patrón de expresión regular. Este analizador se implementa mediante Apache Lucene.

PatternCaptureTokenFilter

Usa expresiones regulares de Java para emitir varios tokens: uno para cada grupo de captura en uno o varios patrones. Este filtro de token se implementa mediante Apache Lucene.

PatternReplaceCharFilter

Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar secuencias de caracteres para conservar y un patrón de reemplazo para identificar los caracteres que se van a reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb aa#bb". Este filtro de caracteres se implementa mediante Apache Lucene.

PatternReplaceTokenFilter

Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar secuencias de caracteres para conservar y un patrón de reemplazo para identificar los caracteres que se van a reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb aa#bb". Este filtro de token se implementa mediante Apache Lucene.

PatternTokenizer

Tokenizer que usa la coincidencia de patrones regex para construir tokens distintos. Este tokenizador se implementa mediante Apache Lucene.

PhoneticTokenFilter

Cree tokens para coincidencias fonéticas. Este filtro de token se implementa mediante Apache Lucene.

QueryAnswerResult

Una respuesta es un pasaje de texto extraído del contenido de los documentos más relevantes que coinciden con la consulta. Las respuestas se extraen de los resultados principales de la búsqueda. Los candidatos de respuesta se puntuan y se seleccionan las principales respuestas.

QueryCaptionResult

Los títulos son los pasajes más representativos del documento relativamente a la consulta de búsqueda. A menudo se usan como resumen de documentos. Los títulos solo se devuelven para las consultas de tipo semantic.

ResourceCounter

Representa el uso y la cuota de un recurso.

ScalarQuantizationCompression

Contiene opciones de configuración específicas del método de compresión de cuantificación escalar que se usa durante la indexación y la consulta.

ScalarQuantizationParameters

Contiene los parámetros específicos de la cuantificación escalar.

ScoringProfile

Define parámetros para un índice de búsqueda que influye en la puntuación en las consultas de búsqueda.

SearchClientOptions

Opciones de cliente que se usan para configurar las solicitudes de Cognitive Search API.

SearchDocumentsPageResult

Respuesta que contiene los resultados de la página de búsqueda de un índice.

SearchDocumentsResult

Respuesta que contiene los resultados de búsqueda de un índice.

SearchDocumentsResultBase

Respuesta que contiene los resultados de búsqueda de un índice.

SearchIndex

Representa una definición de índice de búsqueda, que describe los campos y el comportamiento de búsqueda de un índice.

SearchIndexClientOptions

Opciones de cliente que se usan para configurar las solicitudes de Cognitive Search API.

SearchIndexStatistics

Estadísticas de un índice determinado. Las estadísticas se recopilan periódicamente y no se garantiza que siempre sean up-to-date.

SearchIndexer

Representa un indexador.

SearchIndexerClientOptions

Opciones de cliente que se usan para configurar las solicitudes de Cognitive Search API.

SearchIndexerDataContainer

Representa información sobre la entidad (como la tabla de Azure SQL o la colección cosmosDB) que se indexará.

SearchIndexerDataNoneIdentity

Borra la propiedad de identidad de un origen de datos.

SearchIndexerDataSourceConnection

Representa una definición de origen de datos, que se puede usar para configurar un indexador.

SearchIndexerDataUserAssignedIdentity

Especifica la identidad de un origen de datos que se va a usar.

SearchIndexerError

Representa un error de indexación de elemento o de nivel de documento.

SearchIndexerIndexProjection

Definición de proyecciones adicionales a índices de búsqueda secundarios.

SearchIndexerIndexProjectionParameters

Diccionario de propiedades de configuración específicas de proyección de índice. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo.

SearchIndexerIndexProjectionSelector

Descripción de los datos que se van a almacenar en el índice de búsqueda designado.

SearchIndexerKnowledgeStore

Definición de proyecciones adicionales en azure blob, tabla o archivos, de datos enriquecidos.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Clase abstracta para compartir propiedades entre selectores concretos.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definición de proyección para qué datos almacenar en Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definición de proyección de los datos que se van a almacenar en Azure Blob.

SearchIndexerKnowledgeStoreParameters

Diccionario de propiedades de configuración específicas del almacén de conocimiento. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo.

SearchIndexerKnowledgeStoreProjection

Objeto contenedor para varios selectores de proyección.

SearchIndexerKnowledgeStoreProjectionSelector

Clase abstracta para compartir propiedades entre selectores concretos.

SearchIndexerKnowledgeStoreTableProjectionSelector

Descripción de los datos que se van a almacenar en tablas de Azure.

SearchIndexerLimits
SearchIndexerSkillset

Lista de aptitudes.

SearchIndexerStatus

Representa el estado actual y el historial de ejecución de un indexador.

SearchIndexerWarning

Representa una advertencia de nivel de elemento.

SearchIndexingBufferedSenderOptions

Opciones para SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Una clave de cifrado administrada por el cliente en Azure Key Vault. Las claves que cree y administre se pueden usar para cifrar o descifrar datos en reposo en Azure Cognitive Search, como índices y mapas de sinónimos.

SearchServiceStatistics

Respuesta de una solicitud de obtención de estadísticas de servicio. Si se ejecuta correctamente, incluye contadores y límites de nivel de servicio.

SearchSuggester

Define cómo se debe aplicar la API suggest a un grupo de campos del índice.

SemanticConfiguration

Define una configuración específica que se usará en el contexto de las funcionalidades semánticas.

SemanticField

Campo que se usa como parte de la configuración semántica.

SemanticPrioritizedFields

Describe los campos de título, contenido y palabras clave que se usarán para la clasificación semántica, los subtítulos, los resaltados y las respuestas.

SemanticSearch

Define parámetros para un índice de búsqueda que influye en las funcionalidades semánticas.

SemanticSearchOptions

Define opciones para consultas de búsqueda semántica

SentimentSkill

Análisis de opiniones positivas y negativas del análisis de texto, puntuado como un valor de punto flotante en un intervalo de cero a 1.

SentimentSkillV3

Con Text Analytics API, evalúa texto no estructurado y, para cada registro, proporciona etiquetas de opinión (como "negativa", "neutral" y "positiva") en función de la puntuación de confianza más alta encontrada por el servicio en una oración y en el nivel de documento.

ServiceCounters

Representa contadores y cuotas de recursos de nivel de servicio.

ServiceLimits

Representa varios límites de nivel de servicio.

ShaperSkill

Aptitud para volver a dar forma a las salidas. Crea un tipo complejo para admitir campos compuestos (también conocidos como campos de varias partes).

ShingleTokenFilter

Crea combinaciones de tokens como un único token. Este filtro de token se implementa mediante Apache Lucene.

Similarity

Tipo base para algoritmos de similitud. Los algoritmos de similitud se usan para calcular puntuaciones que vinculan consultas a documentos. Cuanto mayor sea la puntuación, más relevante será el documento para esa consulta específica. Esas puntuaciones se usan para clasificar los resultados de la búsqueda.

SimpleField

Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo.

SnowballTokenFilter

Filtro que deriva las palabras mediante un lematizador generado por Snowball. Este filtro de token se implementa mediante Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Define una directiva de detección de eliminación de datos que implementa una estrategia de eliminación temporal. Determina si un elemento se debe eliminar en función del valor de una columna designada "eliminación temporal".

SplitSkill

Aptitud para dividir una cadena en fragmentos de texto.

SqlIntegratedChangeTrackingPolicy

Define una directiva de detección de cambios de datos que captura los cambios mediante la característica Seguimiento de cambios integrado de Azure SQL Database.

StemmerOverrideTokenFilter

Proporciona la capacidad de invalidar otros filtros de lematización con lematización personalizada basada en diccionarios. Cualquier término con lematización de diccionario se marcará como palabras clave para que no se lematice con lematizadores hacia abajo de la cadena. Debe colocarse antes de los filtros de lematización. Este filtro de token se implementa mediante Apache Lucene.

StemmerTokenFilter

Filtro de lematización específico del idioma. Este filtro de token se implementa mediante Apache Lucene.

StopAnalyzer

Divide el texto en letras no letras; Aplica los filtros de token en minúsculas y palabras irrelevantes. Este analizador se implementa mediante Apache Lucene.

StopwordsTokenFilter

Quita las palabras irrelevantes de una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene.

SuggestDocumentsResult

Respuesta que contiene los resultados de la consulta de sugerencias de un índice.

SuggestRequest

Parámetros para filtrar, ordenar, coincidencia aproximada y otros comportamientos de consulta de sugerencias.

SynonymMap

Representa una definición de mapa de sinónimos.

SynonymTokenFilter

Coincide con sinónimos de una o varias palabras en una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene.

TagScoringFunction

Define una función que aumenta las puntuaciones de documentos con valores de cadena que coinciden con una lista determinada de etiquetas.

TagScoringParameters

Proporciona valores de parámetro a una función de puntuación de etiquetas.

TextTranslationSkill

Aptitud para traducir texto de un idioma a otro.

TextWeights

Define pesos en campos de índice para los que las coincidencias deben aumentar la puntuación en las consultas de búsqueda.

TruncateTokenFilter

Trunca los términos a una longitud específica. Este filtro de token se implementa mediante Apache Lucene.

UaxUrlEmailTokenizer

Tokeniza las direcciones URL y los correos electrónicos como un token. Este tokenizador se implementa mediante Apache Lucene.

UniqueTokenFilter

Filtra los tokens con el mismo texto que el token anterior. Este filtro de token se implementa mediante Apache Lucene.

VectorSearch

Contiene opciones de configuración relacionadas con la búsqueda vectorial.

VectorSearchOptions

Define las opciones para las consultas de búsqueda vectorial.

VectorSearchProfile

Define una combinación de configuraciones que se van a usar con la búsqueda vectorial.

VectorizableTextQuery

Los parámetros de consulta que se van a usar para la búsqueda vectorial cuando se proporciona un valor de texto que debe vectorizarse.

VectorizedQuery

Parámetros de consulta que se usarán para la búsqueda vectorial cuando se proporciona un valor de vector sin formato.

WebApiParameters

Especifica las propiedades para conectarse a un vectorizador definido por el usuario.

WebApiSkill

Una aptitud que puede llamar a un punto de conexión de API web, lo que le permite ampliar un conjunto de aptitudes haciendo que llame al código personalizado.

WebApiVectorizer

Especifica un vectorizador definido por el usuario para generar la inserción de vectores de una cadena de consulta. La integración de un vectorizador externo se logra mediante la interfaz de API web personalizada de un conjunto de aptitudes.

WordDelimiterTokenFilter

Divide palabras en subpalabras y realiza transformaciones opcionales en grupos de subwords. Este filtro de token se implementa mediante Apache Lucene.

Alias de tipos

AnalyzeTextOptions

Opciones para analizar la operación de texto.

AutocompleteMode

Define valores para AutocompleteMode.

AutocompleteOptions

Opciones para recuperar el texto de finalización de un searchText parcial.

AzureOpenAIModelName

Define valores para AzureOpenAIModelName.
KnownAzureOpenAIModelName se puede usar indistintamente con AzureOpenAIModelName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

inserción de texto-ada-002
de inserción de texto de 3 grandes
de inserción de texto de 3 pequeños

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Contiene los posibles casos de CharFilter.

CharFilterName

Define valores para CharFilterName.
<xref:KnownCharFilterName> se puede usar indistintamente con CharFilterName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

html_strip: filtro de caracteres que intenta quitar construcciones HTML. Consulte https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Define valores para CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Contiene los posibles casos de CognitiveServicesAccount.

ComplexDataType

Define valores para ComplexDataType. Los valores posibles son: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Opciones para realizar la operación de recuento en el índice.

CreateDataSourceConnectionOptions

Opciones para crear una operación de origen de datos.

CreateIndexOptions

Opciones para crear la operación de índice.

CreateIndexerOptions

Opciones para crear la operación del indexador.

CreateSkillsetOptions

Opciones para crear la operación del conjunto de aptitudes.

CreateSynonymMapOptions

Opciones para crear la operación de mapa de sinónimos.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Contiene los posibles casos de DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contiene los posibles casos de DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opciones para la operación de eliminación de documentos.

EdgeNGramTokenFilterSide

Define valores para EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contiene opciones de configuración específicas del algoritmo KNN exhaustivo utilizado durante la consulta, que realizará la búsqueda por fuerza bruta en todo el índice vectorial.

ExtractDocumentKey
GetDataSourceConnectionOptions

Opciones para obtener la operación de origen de datos.

GetIndexOptions

Opciones para obtener la operación de índice.

GetIndexStatisticsOptions

Opciones para obtener la operación de obtención de estadísticas de índice.

GetIndexerOptions

Opciones para obtener la operación del indexador.

GetIndexerStatusOptions

Opciones para obtener la operación de estado del indexador.

GetServiceStatisticsOptions

Opciones para obtener la operación de estadísticas de servicio.

GetSkillSetOptions

Opciones para obtener la operación del conjunto de aptitudes.

GetSynonymMapsOptions

Opciones para obtener la operación de mapas de sinónimos.

HnswAlgorithmConfiguration

Contiene opciones de configuración específicas del algoritmo de vecinos más próximo que se usan durante el tiempo de indexación.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Define valores para IndexActionType.

IndexDocumentsAction

Representa una acción de índice que funciona en un documento.

IndexIterator

Iterador para enumerar los índices que existen en el servicio search. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración.

IndexNameIterator

Iterador para enumerar los índices que existen en el servicio search. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración.

IndexProjectionMode

Define valores para IndexProjectionMode.
KnownIndexProjectionMode se puede usar indistintamente con IndexProjectionMode, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

skipIndexingParentDocuments: el documento de origen se omitirá de escribir en el índice de destino del indexador.
includeIndexingParentDocuments: el documento de origen se escribirá en el índice de destino del indexador. Este es el patrón predeterminado.

IndexerExecutionEnvironment
IndexerExecutionStatus

Define valores para IndexerExecutionStatus.

IndexerStatus

Define valores para IndexerStatus.

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

Contiene los posibles casos para analyzer.

LexicalAnalyzerName

Define valores para LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> se puede usar indistintamente con LexicalAnalyzerName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

ar.microsoft: analizador de Microsoft para árabe.
ar.lucene: analizador de Lucene para árabe.
hy.lucene: analizador de Lucene para armenio.
bn.microsoft: Analizador de Microsoft para Bangla.
eu.lucene: analizador de Lucene para Euskera.
bg.microsoft: analizador de Microsoft para búlgaro.
bg.lucene: analizador de Lucene para búlgaro.
ca.microsoft: analizador de Microsoft para catalán.
ca.lucene: analizador de Lucene para catalán.
zh-Hans.microsoft: analizador de Microsoft para chino (simplificado).
zh-Hans.lucene: analizador de Lucene para chino (simplificado).
zh-Hant.microsoft: Analizador de Microsoft para chino (tradicional).
zh-Hant.lucene: analizador de Lucene para chino (tradicional).
hr.microsoft: analizador de Microsoft para croata.
cs.microsoft: analizador de Microsoft para Checo.
cs.lucene: analizador de Lucene para Checo.
da.microsoft: analizador de Microsoft para danés.
da.lucene: analizador de Lucene para danés.
nl.microsoft: analizador de Microsoft para neerlandés.
nl.lucene: analizador de Lucene para neerlandés.
en.microsoft: analizador de Microsoft para inglés.
en.lucene: analizador de Lucene para inglés.
et.microsoft: analizador de Microsoft para Estonia.
fi.microsoft: analizador de Microsoft para finés.
fi.lucene: analizador de Lucene para finés.
fr.microsoft: analizador de Microsoft para francés.
fr.lucene: analizador de Lucene para francés.
gl.lucene: analizador de Lucene para Gallega.
de.microsoft: analizador de Microsoft para alemán.
de.lucene: analizador de Lucene para alemán.
el.microsoft: analizador de Microsoft para griego.
el.lucene: analizador de Lucene para griego.
gu.microsoft: Analizador de Microsoft para Gujarati.
he.microsoft: Analizador de Microsoft para hebreo.
hi.microsoft: analizador de Microsoft para hindi.
hi.lucene: analizador de Lucene para hindi.
hu.microsoft: analizador de Microsoft para húngaro.
hu.lucene: analizador de Lucene para húngaro.
is.microsoft: Analizador de Microsoft para Islandés.
id.microsoft: Analizador de Microsoft para Indonesia (Bahasa).
id.lucene: analizador de Lucene para indonesia.
ga.lucene: analizador de Lucene para irlandés.
it.microsoft: analizador de Microsoft para italiano.
it.lucene: analizador de Lucene para italiano.
ja.microsoft: analizador de Microsoft para japonés.
ja.lucene: analizador de Lucene para japonés.
kn.microsoft: Analizador de Microsoft para Kannada.
ko.microsoft: analizador de Microsoft para coreano.
ko.lucene: analizador de Lucene para coreano.
lv.microsoft: analizador de Microsoft para letón.
lv.lucene: analizador de Lucene para letón.
lt.microsoft: analizador de Microsoft para Lituano.
ml.microsoft: analizador de Microsoft para Malayalam.
ms.microsoft: Analizador de Microsoft para malayo (latino).
mr.microsoft: Analizador de Microsoft para Marathi.
nb.microsoft: Analizador de Microsoft para noruego (Bokmål).
no.lucene: analizador de Lucene para noruego.
fa.lucene: analizador de Lucene para persa.
pl.microsoft: analizador de Microsoft para polaco.
pl.lucene: analizador de Lucene para polaco.
pt-BR.microsoft: Analizador de Microsoft para portugués (Brasil).
pt-BR.lucene: analizador de Lucene para portugués (Brasil).
pt-PT.microsoft: Analizador de Microsoft para portugués (Portugal).
pt-PT.lucene: analizador de Lucene para portugués (Portugal).
pa.microsoft: analizador de Microsoft para Punjabi.
ro.microsoft: analizador de Microsoft para rumano.
ro.lucene: analizador de Lucene para rumano.
ru.microsoft: analizador de Microsoft para ruso.
ru.lucene: analizador de Lucene para ruso.
sr-cyrillic.microsoft: analizador de Microsoft para serbio (cirílico).
sr-latin.microsoft: Analizador de Microsoft para serbio (latino).
sk.microsoft: analizador de Microsoft para eslovaco.
sl.microsoft: analizador de Microsoft para esloveno.
es.microsoft: Analizador de Microsoft para español.
es.lucene: analizador de Lucene para español.
sv.microsoft: analizador de Microsoft para sueco.
sv.lucene: analizador de Lucene para sueco.
ta.microsoft: Analizador de Microsoft para Tamil.
te.microsoft: Analizador de Microsoft para Telugu.
th.microsoft: analizador de Microsoft para tailandés.
th.lucene: analizador de Lucene para tailandés.
tr.microsoft: analizador de Microsoft para turco.
tr.lucene: analizador de Lucene para turco.
uk.microsoft: analizador de Microsoft para Ucrania.
your.microsoft: Analizador de Microsoft para Urdu.
vi.microsoft: analizador de Microsoft para vietnamitas.
standard.lucene: analizador estándar de Lucene.
standardasciifolding.lucene: analizador estándar de Lucene plegable ASCII. Consulte https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
palabra clave: trata todo el contenido de un campo como un solo token. Esto es útil para datos como códigos postales, identificadores y algunos nombres de producto. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
patrón: separa de forma flexible el texto en términos a través de un patrón de expresión regular. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
simple: divide el texto en letras y los convierte en minúsculas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
detener: divide el texto en letras no letras; Aplica los filtros de token en minúsculas y palabras irrelevantes. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
espacio en blanco: un analizador que usa el tokenizador de espacio en blanco. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Contiene los posibles casos de Tokenizer.

LexicalTokenizerName

Define valores para LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> se puede usar indistintamente con LexicalTokenizerName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

clásico: tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: tokeniza la entrada de un borde en n gramos de los tamaños especificados. Consulte https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: emite toda la entrada como un solo token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
letra: divide el texto en letras no letras. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
minúsculas: divide el texto en letras y los convierte en minúsculas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: divide el texto mediante reglas específicas del idioma.
microsoft_language_stemming_tokenizer: divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formularios base.
nGram: tokeniza la entrada en n gramos de los tamaños especificados. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: tokenizador para jerarquías de tipo ruta de acceso. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
patrón: tokenizador que usa la coincidencia de patrones regex para construir tokens distintos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: analizador estándar de Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: tokeniza las direcciones URL y los correos electrónicos como un token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
espacio en blanco: divide el texto en un espacio en blanco. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Opciones para una operación de orígenes de datos de lista.

ListIndexersOptions

Opciones para una operación de indexadores de lista.

ListIndexesOptions

Opciones para una operación de índices de lista.

ListSkillsetsOptions

Opciones para una operación de conjuntos de aptitudes de lista.

ListSynonymMapsOptions

Opciones para una operación synonymMaps de lista.

MergeDocumentsOptions

Opciones para la operación de combinación de documentos.

MergeOrUploadDocumentsOptions

Opciones para la operación de combinación o carga de documentos.

MicrosoftStemmingTokenizerLanguage

Define los valores de MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Define valores para MicrosoftTokenizerLanguage.

NarrowedModel

Limita el tipo de modelo para incluir solo los campos seleccionados.

OcrLineEnding

Define valores para OcrLineEnding.
KnownOcrLineEnding se puede usar indistintamente con OcrLineEnding, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

espacio: las líneas están separadas por un solo carácter de espacio.
carroReturn: las líneas están separadas por un carácter de retorno de carro ("\r').
lineFeed: las líneas están separadas por un carácter de fuente de línea única ("\n').
carroReturnLineFeed: las líneas están separadas por un retorno de carro y un carácter de avance de línea ("\r\n").

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Define valores para PhoneticEncoder.

QueryAnswer

Valor que especifica si las respuestas se deben devolver como parte de la respuesta de búsqueda. Este parámetro solo es válido si el tipo de consulta es "semántico". Si se establece en extractive, la consulta devuelve respuestas extraídas de los pasajes clave de los documentos clasificados más altos.

QueryCaption

Valor que especifica si se deben devolver títulos como parte de la respuesta de búsqueda. Este parámetro solo es válido si el tipo de consulta es "semántico". Si se establece, la consulta devuelve títulos extraídos de los pasajes clave de los documentos clasificados más altos. Cuando captions es "extractive", el resaltado está habilitado de forma predeterminada. El valor predeterminado es "none".

QueryType

Define valores para QueryType.

RegexFlags
ResetIndexerOptions

Opciones para restablecer la operación del indexador.

RunIndexerOptions

Opciones para ejecutar la operación del indexador.

ScoringFunction

Contiene los posibles casos de ScoringFunction.

ScoringFunctionAggregation

Define valores para ScoringFunctionAggregation.

ScoringFunctionInterpolation

Define valores para ScoringFunctionInterpolation.

ScoringStatistics

Define valores para ScoringStatistics.

SearchField

Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo.

SearchFieldArray

Si TModel es un objeto sin tipo, una matriz de cadenas sin tipo; de lo contrario, los campos delimitados por barras diagonales de TModel.

SearchFieldDataType

Define valores para SearchFieldDataType.

Valores conocidos admitidos por el servicio:

Edm.String: indica que un campo contiene una cadena.

Edm.Int32: indica que un campo contiene un entero de 32 bits con signo.

Edm.Int64: indica que un campo contiene un entero de 64 bits con signo.

Edm.Double: indica que un campo contiene un número de punto flotante de precisión doble IEEE.

Edm.Boolean : indica que un campo contiene un valor booleano (true o false).

Edm.DateTimeOffset: indica que un campo contiene un valor de fecha y hora, incluida la información de zona horaria.

Edm.GeographyPoint: indica que un campo contiene una ubicación geográfica en términos de longitud y latitud.

Edm.ComplexType: indica que un campo contiene uno o varios objetos complejos que, a su vez, tienen subcampos de otros tipos.

Edm.Single: indica que un campo contiene un número de punto flotante de precisión única. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.Single).

Edm.Half: indica que un campo contiene un número de punto flotante de precisión media. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.Half).

Edm.Int16: indica que un campo contiene un entero de 16 bits con signo. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.Int16).

Edm.SByte: indica que un campo contiene un entero de 8 bits con signo. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.SByte).

Edm.Byte: indica que un campo contiene un entero de 8 bits sin signo. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.Byte).

SearchIndexerDataIdentity

Contiene los posibles casos para SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Contiene los posibles casos para Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opciones para SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opciones para SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opciones para SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opciones para SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opciones para SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Iterador para los resultados de búsqueda de una consulta paticular. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración.

SearchMode

Define valores para SearchMode.

SearchOptions

Opciones para confirmar una solicitud de búsqueda completa.

SearchPick

Elija profundamente campos de T mediante rutas de acceso válidas de OData de Cognitive Search $select.

SearchRequestOptions

Parámetros para filtrar, ordenar, facetar, paginar y otros comportamientos de consulta de búsqueda.

SearchRequestQueryTypeOptions
SearchResult

Contiene un documento encontrado por una consulta de búsqueda, además de metadatos asociados.

SelectArray

Si TFields nunca es, una matriz de cadenas sin tipo; de lo contrario, un tipo de Fields[] restringido que se usará en otro lugar del tipo de consumo.

SelectFields

Genera una unión de rutas de acceso válidas de OData de Cognitive Search $select para T mediante un recorrido posterior al orden del árbol de campos que se basa en T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

Contiene los posibles casos de similitud.

SnowballTokenFilterLanguage

Define valores para SnowballTokenFilterLanguage.

SplitSkillLanguage
StemmerTokenFilterLanguage

Define valores para LematerTokenFilterLanguage.

StopwordsList

Define valores para StopwordsList.

SuggestNarrowedModel
SuggestOptions

Opciones para recuperar sugerencias basadas en searchText.

SuggestResult

Resultado que contiene un documento encontrado por una consulta de sugerencia, además de metadatos asociados.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Define valores para TokenCharacterKind.

TokenFilter

Contiene los posibles casos de TokenFilter.

TokenFilterName

Define valores para TokenFilterName.
<xref:KnownTokenFilterName> se puede usar indistintamente con TokenFilterName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

arabic_normalization: filtro de token que aplica el normalizador árabe para normalizar la ortografía. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apóstrofo: tira todos los caracteres después de un apóstrofo (incluido el apóstrofo en sí). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: convierte caracteres unicode alfabéticos, numéricos y simbólicos que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Básico latino") en sus equivalentes ASCII, si existen dichos equivalentes. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: forma bigrams de términos de CJK que se generan a partir del tokenizador estándar. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: normaliza las diferencias de ancho de CJK. Plega las variantes ASCII de fullwidth en el latino básico equivalente y las variantes katakana de ancho medio en el kana equivalente. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
clásico: quita los posesivos en inglés y los puntos de los acrónimos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: construya bigrams para términos que se producen con frecuencia durante la indexación. Los términos únicos todavía se indexan también, con bigrams superpuestos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: quita los elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: normaliza los caracteres alemanes según la heurística del algoritmo de bola de nieve alemán2. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: normaliza el texto en hindi para eliminar algunas diferencias en las variaciones ortográficas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normaliza la representación Unicode del texto en idiomas indios. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: emite cada token entrante dos veces, una como palabra clave y una como no palabra clave. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: un filtro kstem de alto rendimiento para inglés. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
longitud: quita las palabras que son demasiado largas o demasiado cortas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
límite: limita el número de tokens durante la indexación. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
minúsculas: normaliza el texto del token en minúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: genera n-gramas de los tamaños especificados. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: aplica la normalización para persas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonética: crear tokens para coincidencias fonéticas. Consulte https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: usa el algoritmo de lematización porter para transformar la secuencia de tokens. Consulte http://tartarus.org/~martin/PorterStemmer
inverso: invierte la cadena del token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: normaliza el uso de los caracteres escandinavos intercambiables. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: dobla caracteres escandinavos åÅäæÄÆ->a y öÖøØ->o. También discrimina el uso de vocales dobles aa, ae, ao, oe y oo, dejando solo el primero. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
de shingle: crea combinaciones de tokens como un solo token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
bola de nieve: un filtro que deriva las palabras mediante un lematizador generado por Snowball. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: normaliza la representación Unicode del texto Sorani. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
lematizador: filtro de lematización específico del idioma. Consulte https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
palabras irrelevantes: quita las palabras irrelevantes de una secuencia de tokens. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
recorte: recorta el espacio en blanco inicial y final de los tokens. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
truncar: trunca los términos a una longitud específica. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
único: filtra los tokens con el mismo texto que el token anterior. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
mayúsculas: normaliza el texto del token en mayúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: divide palabras en subpalabras y realiza transformaciones opcionales en los grupos de subwords.

UnionToIntersection
UploadDocumentsOptions

Opciones para la operación de carga de documentos.

VectorEncodingFormat

Define valores para VectorEncodingFormat.
KnownVectorEncodingFormat se puede usar indistintamente con VectorEncodingFormat, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

packedBit: formato de codificación que representa bits empaquetados en un tipo de datos más amplio.

VectorFilterMode
VectorQuery

Los parámetros de consulta para las consultas de búsqueda híbrida y vectorial.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contiene opciones de configuración específicas del algoritmo utilizado durante la indexación o consulta.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Contiene opciones de configuración específicas del método de compresión utilizado durante la indexación o consulta.

VectorSearchCompressionKind

Define valores para VectorSearchCompressionKind.
KnownVectorSearchCompressionKind se puede usar indistintamente con VectorSearchCompressionKind, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

scalarQuantization: Cuantificación escalar, un tipo de método de compresión. En la cuantificación escalar, los valores de vectores originales se comprimen en un tipo más estrecho al discretizar y representar cada componente de un vector mediante un conjunto reducido de valores cuantificados, lo que reduce el tamaño general de los datos.
binaryQuantization: Cuantificación binaria, un tipo de método de compresión. En la cuantificación binaria, los valores de vectores originales se comprimen al tipo binario más estrecho al discretizar y representar cada componente de un vector mediante valores binarios, lo que reduce el tamaño general de los datos.

VectorSearchCompressionTarget

Define valores para VectorSearchCompressionTarget.
KnownVectorSearchCompressionTarget se puede usar indistintamente con VectorSearchCompressionTarget, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

int8

VectorSearchVectorizer

Contiene opciones de configuración sobre cómo vectorizar consultas vectoriales de texto.

VectorSearchVectorizerKind

Define valores para VectorSearchVectorizerKind.
knownVectorSearchVectorizerKind se puede usar indistintamente con VectorSearchVectorizerKind, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

azureOpenAI: genere incrustaciones mediante un recurso de Azure OpenAI en el momento de la consulta.
customWebApi: genere incrustaciones mediante un punto de conexión web personalizado en el momento de la consulta.

VisualFeature

Enumeraciones

KnownAnalyzerNames

Define valores para AnalyzerName. Consulte https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Los valores conocidos de AzureOpenAIModelName que acepta el servicio.

KnownBlobIndexerDataToExtract

Los valores conocidos de BlobIndexerDataToExtract que acepta el servicio.

KnownBlobIndexerImageAction

Valores conocidos de BlobIndexerImageAction que acepta el servicio.

KnownBlobIndexerPDFTextRotationAlgorithm

Los valores conocidos de BlobIndexerPDFTextRotationAlgorithm que acepta el servicio.

KnownBlobIndexerParsingMode

Valores conocidos de blobIndexerParsingMode que acepta el servicio.

KnownCharFilterNames

Los valores conocidos de CharFilterName que acepta el servicio.

KnownCustomEntityLookupSkillLanguage

Los valores conocidos de CustomEntityLookupSkillLanguage que acepta el servicio.

KnownEntityCategory

Valores conocidos de EntityCategory que acepta el servicio.

KnownEntityRecognitionSkillLanguage

Los valores conocidos de EntityRecognitionSkillLanguage que acepta el servicio.

KnownImageAnalysisSkillLanguage

Los valores conocidos de ImageAnalysisSkillLanguage que acepta el servicio.

KnownImageDetail

Valores conocidos de ImageDetail que acepta el servicio.

KnownIndexProjectionMode

Valores conocidos de IndexProjectionMode que acepta el servicio.

KnownIndexerExecutionEnvironment

Valores conocidos de IndexerExecutionEnvironment que acepta el servicio.

KnownKeyPhraseExtractionSkillLanguage

Los valores conocidos de KeyPhraseExtractionSkillLanguage que acepta el servicio.

KnownOcrLineEnding

Valores conocidos de OcrLineEnding que acepta el servicio.

KnownOcrSkillLanguage

Los valores conocidos de OcrSkillLanguage que acepta el servicio.

KnownPIIDetectionSkillMaskingMode

Valores conocidos de PIIDetectionSkillMaskingMode que acepta el servicio.

KnownRegexFlags

Los valores conocidos de RegexFlags que acepta el servicio.

KnownSearchAudience

Valores conocidos para la audiencia de búsqueda

KnownSearchFieldDataType

Los valores conocidos de SearchFieldDataType que acepta el servicio.

KnownSearchIndexerDataSourceType

Valores conocidos de SearchIndexerDataSourceType que acepta el servicio.

KnownSemanticErrorMode

Los valores conocidos de SemanticErrorMode que acepta el servicio.

KnownSemanticErrorReason

Los valores conocidos de SemanticErrorReason que acepta el servicio.

KnownSemanticSearchResultsType

Valores conocidos de SemanticSearchResultsType que acepta el servicio.

KnownSentimentSkillLanguage

Los valores conocidos de SentimentSkillLanguage que acepta el servicio.

KnownSplitSkillLanguage

Los valores conocidos de SplitSkillLanguage que acepta el servicio.

KnownTextSplitMode

Los valores conocidos de TextSplitMode que acepta el servicio.

KnownTextTranslationSkillLanguage

Los valores conocidos de TextTranslationSkillLanguage que acepta el servicio.

KnownTokenFilterNames

Los valores conocidos de TokenFilterName que acepta el servicio.

KnownTokenizerNames

Los valores conocidos de LexicalTokenizerName que acepta el servicio.

KnownVectorEncodingFormat

Valores conocidos de VectorEncodingFormat que acepta el servicio.

KnownVectorFilterMode

Los valores conocidos de VectorFilterMode que acepta el servicio.

KnownVectorQueryKind

Valores conocidos de VectorQueryKind que acepta el servicio.

KnownVectorSearchAlgorithmKind

Valores conocidos de VectorSearchAlgorithmKind que acepta el servicio.

KnownVectorSearchAlgorithmMetric

Valores conocidos de VectorSearchAlgorithmMetric que acepta el servicio.

KnownVectorSearchCompressionKind

Valores conocidos de VectorSearchCompressionKind que acepta el servicio.

KnownVectorSearchCompressionTarget

Valores conocidos de VectorSearchCompressionTarget que acepta el servicio.

KnownVectorSearchVectorizerKind

Valores conocidos de VectorSearchVectorizerKind que acepta el servicio.

KnownVisualFeature

Valores conocidos de visualFeature que acepta el servicio.

Funciones

createSynonymMapFromFile(string, string)

Método auxiliar para crear un objeto SynonymMap. Se trata de un método solo NodeJS.

odata(TemplateStringsArray, unknown[])

Escape de una expresión de filtro de odata para evitar errores con literales de cadena entre comillas. Uso de ejemplo:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obtener más información sobre la sintaxis admitida, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Detalles de la función

createSynonymMapFromFile(string, string)

Método auxiliar para crear un objeto SynonymMap. Se trata de un método solo NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parámetros

name

string

Nombre del objeto SynonymMap.

filePath

string

Ruta de acceso del archivo que contiene los sinónimos (separados por nuevas líneas)

Devoluciones

Promise<SynonymMap>

SynonymMap (objeto)

odata(TemplateStringsArray, unknown[])

Escape de una expresión de filtro de odata para evitar errores con literales de cadena entre comillas. Uso de ejemplo:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obtener más información sobre la sintaxis admitida, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parámetros

strings

TemplateStringsArray

Matriz de cadenas para la expresión

values

unknown[]

Matriz de valores para la expresión

Devoluciones

string