@azure/search-documents package

Clases

AzureKeyCredential

Credencial basada en clave estática que admite la actualización del valor de clave subyacente.

GeographyPoint

Representa un punto geográfico en coordenadas globales.

IndexDocumentsBatch

Clase que se usa para realizar operaciones por lotes con varios documentos en el índice.

SearchClient

Clase que se usa para realizar operaciones en un índice de búsqueda, incluida la consulta de documentos en el índice, así como la adición, actualización y eliminación de ellos.

SearchIndexClient

Clase para realizar operaciones para administrar índices (crear, actualizar, enumerar o eliminar), & mapa de sinónimos.

SearchIndexerClient

Clase para realizar operaciones para administrar indexadores (crear, actualizar, enumerar o eliminar), orígenes de datos & conjuntos de aptitudes.

SearchIndexingBufferedSender

Clase usada para realizar operaciones almacenadas en búfer en un índice de búsqueda, incluida la adición, actualización y eliminación de ellos.

Interfaces

AnalyzeRequest

Especifica algunos componentes de texto y análisis que se usan para dividir ese texto en tokens.

AnalyzeResult

Resultado de la prueba de un analizador en texto.

AnalyzedTokenInfo

Información sobre un token devuelto por un analizador.

AsciiFoldingTokenFilter

Convierte caracteres alfabéticos, numéricos y simbólicos Unicode que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Básico latino") en sus equivalentes ASCII, si existen dichos equivalentes. Este filtro de token se implementa mediante Apache Lucene.

AutocompleteItem

Resultado de las solicitudes de Autocompletar.

AutocompleteRequest

Parámetros para la coincidencia aproximada y otros comportamientos de consulta de autocompletar.

AutocompleteResult

Resultado de la consulta Autocompletar.

AzureActiveDirectoryApplicationCredentials

Credenciales de una aplicación registrada creada para el servicio de búsqueda, que se usa para el acceso autenticado a las claves de cifrado almacenadas en Azure Key Vault.

BM25Similarity

Función de clasificación basada en el algoritmo de similitud Okapi BM25. BM25 es un algoritmo similar a TF-IDF que incluye la normalización de longitud (controlada por el parámetro 'b'), así como la saturación de la frecuencia de términos (controlada por el parámetro 'k1').

BaseCharFilter

Tipo base para filtros de caracteres.

BaseCognitiveServicesAccount

Tipo base para describir cualquier recurso de servicio de Azure AI asociado a un conjunto de aptitudes.

BaseDataChangeDetectionPolicy

Tipo base para las directivas de detección de cambios de datos.

BaseDataDeletionDetectionPolicy

Tipo base para las directivas de detección de eliminación de datos.

BaseLexicalAnalyzer

Tipo base para analizadores.

BaseLexicalTokenizer

Tipo base para tokenizadores.

BaseScoringFunction

Tipo base para funciones que pueden modificar las puntuaciones de documentos durante la clasificación.

BaseSearchIndexerSkill

Tipo base para aptitudes.

BaseSearchRequestOptions

Parámetros para filtrar, ordenar, facetar, paginar y otros comportamientos de consulta de búsqueda.

BaseTokenFilter

Tipo base para los filtros de token.

BaseVectorQuery

Los parámetros de consulta para las consultas de búsqueda híbrida y vectorial.

BaseVectorSearchAlgorithmConfiguration

Contiene opciones de configuración específicas del algoritmo utilizado durante la indexación o consulta.

CjkBigramTokenFilter

Forma bigrams de términos de CJK que se generan a partir del tokenizador estándar. Este filtro de token se implementa mediante Apache Lucene.

ClassicSimilarity

Algoritmo de similitud heredado que usa la implementación de TFIDFSimilarity de Lucene de TF-IDF. Esta variación de TF-IDF presenta la normalización estática de la longitud del documento, así como factores de coordinación que penalizan los documentos que solo coinciden parcialmente con las consultas buscadas.

ClassicTokenizer

Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Este tokenizador se implementa mediante Apache Lucene.

CognitiveServicesAccountKey

Un recurso de servicio de Azure AI aprovisionado con una clave que está asociada a un conjunto de aptitudes.

CommonGramTokenFilter

Construye bigramas para términos que se repiten con frecuencia durante la indexación. Los términos individuales también se indexan, con los bigramas superpuestos. Este filtro de token se implementa mediante Apache Lucene.

ComplexField

Representa un campo de una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo.

ConditionalSkill

Aptitud que permite escenarios que requieren una operación booleana para determinar los datos que se van a asignar a una salida.

CorsOptions

Define las opciones para controlar el uso compartido de recursos entre orígenes (CORS) para un índice.

CreateOrUpdateIndexOptions

Opciones para la operación de creación o actualización del índice.

CreateOrUpdateSkillsetOptions

Opciones para la operación de creación o actualización del conjunto de aptitudes.

CreateOrUpdateSynonymMapOptions

Opciones para la operación de creación o actualización del mapa de sinónimos.

CreateorUpdateDataSourceConnectionOptions

Opciones para la operación de creación o actualización del origen de datos.

CreateorUpdateIndexerOptions

Opciones para la operación de creación o actualización del indexador.

CustomAnalyzer

Permite tomar el control sobre el proceso de conversión de texto en tokens indexables o buscables. Se trata de una configuración definida por el usuario que consta de un único tokenizador predefinido y uno o varios filtros. El tokenizador es responsable de dividir el texto en tokens y de los filtros para modificar los tokens emitidos por el tokenizador.

CustomEntity

Objeto que contiene información sobre las coincidencias que se encontraron y metadatos relacionados.

CustomEntityAlias

Objeto complejo que se puede usar para especificar ortografías o sinónimos alternativos al nombre de la entidad raíz.

CustomEntityLookupSkill

Una aptitud busca texto de una lista personalizada definida por el usuario de palabras y frases.

DefaultCognitiveServicesAccount

Objeto vacío que representa el recurso de servicio de Azure AI predeterminado para un conjunto de aptitudes.

DeleteDataSourceConnectionOptions

Opciones para eliminar la operación de origen de datos.

DeleteIndexOptions

Opciones para la operación de eliminación de índices.

DeleteIndexerOptions

Opciones para la operación de eliminación del indexador.

DeleteSkillsetOptions

Opciones para eliminar la operación del conjunto de aptitudes.

DeleteSynonymMapOptions

Opciones para eliminar la operación de mapa de sinónimos.

DictionaryDecompounderTokenFilter

Descompone las palabras compuestas que se encuentran en muchas lenguas germánicas. Este filtro de token se implementa mediante Apache Lucene.

DistanceScoringFunction

Define una función que aumenta las puntuaciones en función de la distancia desde una ubicación geográfica.

DistanceScoringParameters

Proporciona valores de parámetro a una función de puntuación de distancia.

DocumentExtractionSkill

Aptitud que extrae contenido de un archivo dentro de la canalización de enriquecimiento.

EdgeNGramTokenFilter

Genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Este filtro de token se implementa mediante Apache Lucene.

EdgeNGramTokenizer

Tokeniza la entrada de un borde en n-gramas de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene.

ElisionTokenFilter

Quita las elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Este filtro de token se implementa mediante Apache Lucene.

EntityLinkingSkill

Con la API de Text Analytics, extrae entidades vinculadas del texto.

EntityRecognitionSkill

Reconocimiento de entidades de Text Analytics.

EntityRecognitionSkillV3

Con la API de Text Analytics, extrae entidades de diferentes tipos de texto.

ExhaustiveKnnParameters

Contiene los parámetros específicos del algoritmo KNN exhaustivo.

ExtractiveQueryAnswer

Extrae candidatos de respuesta del contenido de los documentos devueltos en respuesta a una consulta expresada como una pregunta en lenguaje natural.

ExtractiveQueryCaption

Extrae títulos de los documentos coincidentes que contienen pasajes relevantes para la consulta de búsqueda.

FacetResult

Un único cubo de un resultado de consulta de faceta. Notifica el número de documentos con un valor de campo que se encuentra dentro de un intervalo determinado o que tiene un valor o intervalo determinado.

FieldMapping

Define una asignación entre un campo de un origen de datos y un campo de destino en un índice.

FieldMappingFunction

Representa una función que transforma un valor de un origen de datos antes de la indexación.

FreshnessScoringFunction

Define una función que aumenta las puntuaciones en función del valor de un campo de fecha y hora.

FreshnessScoringParameters

Proporciona valores de parámetro a una función de puntuación de actualización.

GetDocumentOptions

Opciones para recuperar un único documento.

HighWaterMarkChangeDetectionPolicy

Define una directiva de detección de cambios de datos que captura los cambios en función del valor de una columna de marca de agua alta.

HnswParameters

Contiene los parámetros específicos del algoritmo hnsw.

ImageAnalysisSkill

Aptitud que analiza los archivos de imagen. Extrae un amplio conjunto de características visuales basadas en el contenido de la imagen.

IndexDocumentsClient

Indexar el cliente de documentos

IndexDocumentsOptions

Opciones para la operación de modificación del lote de índice.

IndexDocumentsResult

Respuesta que contiene el estado de las operaciones de todos los documentos de la solicitud de indexación.

IndexerExecutionResult

Representa el resultado de una ejecución de indizador individual.

IndexingParameters

Representa los parámetros para la ejecución del indizador.

IndexingParametersConfiguration

Diccionario de propiedades de configuración específicas del indizador. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo.

IndexingResult

Estado de una operación de indexación para un único documento.

IndexingSchedule

Representa una programación para la ejecución del indizador.

InputFieldMappingEntry

Asignación de campos de entrada para una aptitud.

KeepTokenFilter

Filtro de token que solo mantiene los tokens con texto contenido en una lista especificada de palabras. Este filtro de token se implementa mediante Apache Lucene.

KeyPhraseExtractionSkill

Aptitud que usa el análisis de texto para la extracción de frases clave.

KeywordMarkerTokenFilter

Marca los términos como palabras clave. Este filtro de token se implementa mediante Apache Lucene.

KeywordTokenizer

Emite la entrada completa como un solo token. Este tokenizador se implementa mediante Apache Lucene.

LanguageDetectionSkill

Una aptitud que detecta el idioma del texto de entrada e informa de un único código de idioma para cada documento enviado en la solicitud. El código de idioma se empareja con una puntuación que indica la confianza del análisis.

LengthTokenFilter

Quita las palabras que son demasiado largas o demasiado cortas. Este filtro de token se implementa mediante Apache Lucene.

LimitTokenFilter

Limita el número de tokens durante la indexación. Este filtro de token se implementa mediante Apache Lucene.

ListSearchResultsPageSettings

Argumentos para recuperar la página siguiente de los resultados de búsqueda.

LuceneStandardAnalyzer

Analizador estándar de Apache Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop.

LuceneStandardTokenizer

Divide el texto siguiendo las reglas de segmentación de texto Unicode. Este tokenizador se implementa mediante Apache Lucene.

MagnitudeScoringFunction

Define una función que aumenta las puntuaciones en función de la magnitud de un campo numérico.

MagnitudeScoringParameters

Proporciona valores de parámetro a una función de puntuación de magnitud.

MappingCharFilter

Filtro de caracteres que aplica asignaciones definidas con la opción asignaciones. La coincidencia es ambiciosa (la mayor coincidencia de patrones en un momento dado gana). Se permite que la sustitución sea una cadena vacía. Este filtro de caracteres se implementa mediante Apache Lucene.

MergeSkill

Aptitud para combinar dos o más cadenas en una sola cadena unificada, con un delimitador opcional definido por el usuario que separa cada parte de componente.

MicrosoftLanguageStemmingTokenizer

Divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formas base.

MicrosoftLanguageTokenizer

Divide el texto mediante reglas específicas del idioma.

NGramTokenFilter

Genera n-gramas de los tamaños dados. Este filtro de token se implementa mediante Apache Lucene.

NGramTokenizer

Tokeniza la entrada en n-gramas de tamaños dados. Este tokenizador se implementa mediante Apache Lucene.

OcrSkill

Aptitud que extrae texto de los archivos de imagen.

OutputFieldMappingEntry

Asignación de campos de salida para una aptitud.

PIIDetectionSkill

Con la API de Text Analytics, extrae información personal de un texto de entrada y le ofrece la opción de enmascararlo.

PathHierarchyTokenizer

Tokenizador para las jerarquías parecidas a rutas de acceso. Este tokenizador se implementa mediante Apache Lucene.

PatternAnalyzer

Separa el texto de manera flexible en términos a través de un patrón de expresión regular. Este analizador se implementa mediante Apache Lucene.

PatternCaptureTokenFilter

Usa expresiones regulares de Java para emitir varios tokens: uno para cada grupo de capturas en uno o varios patrones. Este filtro de token se implementa mediante Apache Lucene.

PatternReplaceCharFilter

Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar las secuencias de caracteres que se desean conservar y un patrón de reemplazo para identificar los caracteres que se desean reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb". Este filtro de caracteres se implementa mediante Apache Lucene.

PatternReplaceTokenFilter

Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar las secuencias de caracteres que se desean conservar y un patrón de reemplazo para identificar los caracteres que se desean reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb". Este filtro de token se implementa mediante Apache Lucene.

PatternTokenizer

Tokenizador que usa la coincidencia de patrones regex para construir tokens distintos. Este tokenizador se implementa mediante Apache Lucene.

PhoneticTokenFilter

Crea tokens para coincidencias fonéticas. Este filtro de token se implementa mediante Apache Lucene.

QueryAnswerResult

Una respuesta es un pasaje de texto extraído del contenido de los documentos más relevantes que coinciden con la consulta. Las respuestas se extraen de los resultados principales de la búsqueda. Se puntúan los candidatos de respuesta y se seleccionan las respuestas principales.

QueryCaptionResult

Los títulos son los pasajes más representativos del documento relativamente a la consulta de búsqueda. A menudo se usan como resumen de documentos. Los títulos solo se devuelven para las consultas de tipo semantic.

ResourceCounter

Representa el uso y la cuota de un recurso.

ScoringProfile

Define parámetros para un índice de búsqueda que influye en la puntuación en las consultas de búsqueda.

SearchClientOptions

Opciones de cliente usadas para configurar solicitudes de Cognitive Search API.

SearchDocumentsPageResult

Respuesta que contiene los resultados de la página de búsqueda de un índice.

SearchDocumentsResult

Respuesta que contiene los resultados de búsqueda de un índice.

SearchDocumentsResultBase

Respuesta que contiene los resultados de búsqueda de un índice.

SearchIndex

Representa una definición de índice de búsqueda, que describe los campos y el comportamiento de búsqueda de un índice.

SearchIndexClientOptions

Opciones de cliente usadas para configurar solicitudes de Cognitive Search API.

SearchIndexStatistics

Estadísticas de un índice determinado. Las estadísticas se recopilan periódicamente y no se garantiza que siempre estén actualizadas.

SearchIndexer

Representa un indexador.

SearchIndexerClientOptions

Opciones de cliente usadas para configurar solicitudes de Cognitive Search API.

SearchIndexerDataContainer

Representa información sobre la entidad (como Azure SQL tabla o colección de CosmosDB) que se indexará.

SearchIndexerDataSourceConnection

Representa una definición de origen de datos, que se puede usar para configurar un indexador.

SearchIndexerError

Representa un error de indización de nivel de elemento o documento.

SearchIndexerKnowledgeStore

Definición de proyecciones adicionales para azure Blob, tabla o archivos, de datos enriquecidos.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Clase abstracta para compartir propiedades entre selectores concretos.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definición de proyección para qué datos almacenar en Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definición de proyección de los datos que se van a almacenar en azure Blob.

SearchIndexerKnowledgeStoreProjection

Objeto contenedor para varios selectores de proyección.

SearchIndexerKnowledgeStoreProjectionSelector

Clase abstracta para compartir propiedades entre selectores concretos.

SearchIndexerKnowledgeStoreTableProjectionSelector

Descripción de los datos que se van a almacenar en tablas de Azure.

SearchIndexerLimits
SearchIndexerSkillset

Lista de aptitudes.

SearchIndexerStatus

Representa el historial de ejecución y el estado actual de un indizador.

SearchIndexerWarning

Representa una advertencia de nivel de elemento.

SearchIndexingBufferedSenderOptions

Opciones para SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Una clave de cifrado administrada por el cliente en Azure Key Vault. Las claves que cree y administre se pueden usar para cifrar o descifrar datos en reposo en Azure Cognitive Search, como índices y mapas de sinónimos.

SearchServiceStatistics

Respuesta de una solicitud de obtención de estadísticas de servicio. Si se ejecuta correctamente, incluye contadores y límites de nivel de servicio.

SearchSuggester

Define cómo debe aplicarse la API suggest a un grupo de campos del índice.

SemanticConfiguration

Define una configuración específica que se usará en el contexto de las funcionalidades semánticas.

SemanticField

Campo que se usa como parte de la configuración semántica.

SemanticPrioritizedFields

Describe los campos título, contenido y palabras clave que se usarán para la clasificación semántica, los títulos, los resaltados y las respuestas.

SemanticSearch

Define parámetros para un índice de búsqueda que influye en las funcionalidades semánticas.

SemanticSearchOptions

Define las opciones para las consultas de búsqueda semántica.

SentimentSkill

Análisis de opiniones positivas negativas de Text Analytics, puntuadas como un valor de punto flotante en un intervalo de cero a 1.

SentimentSkillV3

Con la API de Text Analytics, evalúa el texto no estructurado y, para cada registro, proporciona etiquetas de opinión (como "negativo", "neutral" y "positivo") en función de la puntuación de confianza más alta encontrada por el servicio en un nivel de frase y documento.

ServiceCounters

Representa los contadores y cuotas de recursos de nivel de servicio.

ServiceLimits

Representa varios límites de nivel de servicio.

ShaperSkill

Una aptitud para cambiar la forma de las salidas. Crea un tipo complejo para admitir campos compuestos (también conocidos como campos de varias partes).

ShingleTokenFilter

Crea combinaciones de tokens como un solo token. Este filtro de token se implementa mediante Apache Lucene.

Similarity

Tipo base para algoritmos de similitud. Los algoritmos de similitud se usan para calcular puntuaciones que vinculan consultas a documentos. Cuanto mayor sea la puntuación, más relevante será el documento para esa consulta específica. Esas puntuaciones se usan para clasificar los resultados de la búsqueda.

SimpleField

Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo.

SnowballTokenFilter

Filtro que deriva palabras mediante un lematizador generado por Snowball. Este filtro de token se implementa mediante Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Define una directiva de detección de eliminación de datos que implementa una estrategia de eliminación temporal. Determina si se debe eliminar un elemento en función del valor de una columna designada "eliminación temporal".

SplitSkill

Una aptitud para dividir una cadena en fragmentos de texto.

SqlIntegratedChangeTrackingPolicy

Define una directiva de detección de cambios de datos que captura los cambios mediante la característica integrada de Change Tracking de Azure SQL Database.

StemmerOverrideTokenFilter

Proporciona la capacidad de invalidar otros filtros de lematización con lematización personalizada basada en diccionarios. Los términos con lematización del diccionario se marcarán como palabras clave para que no se lematice con lematizadores hacia abajo de la cadena. Se debe colocar antes de los filtros de lematización. Este filtro de token se implementa mediante Apache Lucene.

StemmerTokenFilter

Filtro de lematización específico del idioma. Este filtro de token se implementa mediante Apache Lucene.

StopAnalyzer

Divide el texto en letras no letras; Aplica los filtros de token en minúsculas y palabra irrelevantes. Este analizador se implementa mediante Apache Lucene.

StopwordsTokenFilter

Quita las palabras irrelevantes de una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene.

SuggestDocumentsResult

Respuesta que contiene los resultados de la consulta de sugerencias de un índice.

SuggestRequest

Parámetros para filtrar, ordenar, buscar coincidencias aproximadas y otros comportamientos de consulta de sugerencias.

SynonymMap

Representa una definición de mapa de sinónimos.

SynonymTokenFilter

Coincide con sinónimos de una o varias palabras en una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene.

TagScoringFunction

Define una función que aumenta las puntuaciones de documentos con valores de cadena que coinciden con una lista determinada de etiquetas.

TagScoringParameters

Proporciona valores de parámetro a una función de puntuación de etiquetas.

TextTranslationSkill

Una aptitud para traducir texto de un idioma a otro.

TextWeights

Define pesos en los campos de índice para los que las coincidencias deben aumentar la puntuación en las consultas de búsqueda.

TruncateTokenFilter

Trunca los términos a una longitud específica. Este filtro de token se implementa mediante Apache Lucene.

UaxUrlEmailTokenizer

Tokeniza las direcciones URL y los correos electrónicos como un token. Este tokenizador se implementa mediante Apache Lucene.

UniqueTokenFilter

Filtra los tokens con el mismo texto que el token anterior. Este filtro de token se implementa mediante Apache Lucene.

VectorSearch

Contiene opciones de configuración relacionadas con la búsqueda vectorial.

VectorSearchOptions

Define las opciones para las consultas de búsqueda vectorial.

VectorSearchProfile

Define una combinación de configuraciones que se usarán con la búsqueda vectorial.

VectorizedQuery

Parámetros de consulta que se usarán para la búsqueda vectorial cuando se proporciona un valor de vector sin formato.

WebApiSkill

Aptitud que puede llamar a un punto de conexión de API web, lo que le permite ampliar un conjunto de aptitudes haciendo que llame al código personalizado.

WordDelimiterTokenFilter

Divide palabras en subpalabras y realiza transformaciones opcionales en los grupos de subpalabras. Este filtro de token se implementa mediante Apache Lucene.

Alias de tipos

AnalyzeTextOptions

Opciones para analizar la operación de texto.

AutocompleteMode

Define valores para AutocompleteMode.

AutocompleteOptions

Opciones para recuperar el texto de finalización de un searchText parcial.

BlobIndexerDataToExtract

Valores conocidos admitidos por el servicio

storageMetadata: indexa solo las propiedades de blob estándar y los metadatos especificados por el usuario. allMetadata: extrae los metadatos proporcionados por el subsistema de Azure Blob Storage y los metadatos específicos del tipo de contenido (por ejemplo, los metadatos únicos de solo .png archivos se indexan). contentAndMetadata: extrae todos los metadatos y el contenido textual de cada blob.

BlobIndexerImageAction

Valores conocidos admitidos por el servicio

none: omite las imágenes incrustadas o los archivos de imagen del conjunto de datos. Este es el valor predeterminado. generateNormalizedImages: extrae texto de imágenes (por ejemplo, la palabra "STOP" de un signo de detención de tráfico) e lo inserta en el campo de contenido. Esta acción requiere que "dataToExtract" esté establecido en "contentAndMetadata". Una imagen normalizada hace referencia al procesamiento adicional, lo que da como resultado una salida uniforme de imagen, el tamaño y la rotación para promover la representación coherente cuando se incluyen imágenes en los resultados de búsqueda visual. Esta información se genera para cada imagen cuando se usa esta opción. generateNormalizedImagePerPage: extrae texto de imágenes (por ejemplo, la palabra "STOP" de un signo de detención de tráfico) e lo inserta en el campo de contenido, pero trata los archivos PDF de forma diferente en que cada página se representará como una imagen y se normalizará en consecuencia, en lugar de extraer imágenes incrustadas. Los tipos de archivo que no son PDF se tratarán igual que si se hubiera establecido "generateNormalizedImages".

BlobIndexerPDFTextRotationAlgorithm

Valores conocidos admitidos por el servicio

none: aprovecha la extracción de texto normal. Este es el valor predeterminado. detectAngles: puede producir una extracción de texto mejor y más legible de los archivos PDF que han girado texto dentro de ellos. Tenga en cuenta que puede haber un pequeño impacto en la velocidad de rendimiento cuando se usa este parámetro. Este parámetro solo se aplica a archivos PDF y solo a archivos PDF con texto incrustado. Si el texto girado aparece dentro de una imagen incrustada en el PDF, este parámetro no se aplica.

BlobIndexerParsingMode

Valores conocidos admitidos por el servicio

default: se establece en default para el procesamiento de archivos normal. text: establézcalo en texto para mejorar el rendimiento de la indexación en archivos de texto sin formato en Blob Storage. delimitedText: se establece en delimitedText cuando los blobs son archivos CSV sin formato. json: establézcalo en json para extraer contenido estructurado de archivos JSON. jsonArray: establezca en jsonArray para extraer elementos individuales de una matriz JSON como documentos independientes en Azure Cognitive Search. jsonLines: establezca en jsonLines para extraer entidades JSON individuales, separadas por una nueva línea, como documentos independientes en Azure Cognitive Search.

CharFilter

Contiene los posibles casos de CharFilter.

CharFilterName

Define valores para CharFilterName.
<xref:KnownCharFilterName> se puede usar indistintamente con CharFilterName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

html_strip: filtro de caracteres que intenta quitar construcciones HTML. Consulta https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html.

CjkBigramTokenFilterScripts

Define valores para CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Contiene los posibles casos de CognitiveServicesAccount.

ComplexDataType

Define valores para ComplexDataType. Entre los valores posibles se incluyen: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Opciones para realizar la operación de recuento en el índice.

CreateDataSourceConnectionOptions

Opciones para crear la operación de origen de datos.

CreateIndexOptions

Opciones para crear la operación de índice.

CreateIndexerOptions

Opciones para crear la operación del indexador.

CreateSkillsetOptions

Opciones para crear la operación del conjunto de aptitudes.

CreateSynonymMapOptions

Opciones para crear la operación de mapa de sinónimos.

CustomEntityLookupSkillLanguage

Define los idiomas admitidos para CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage se pueden usar indistintamente con este tipo.

DataChangeDetectionPolicy

Contiene los posibles casos de DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contiene los posibles casos de DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opciones para la operación de eliminación de documentos.

EdgeNGramTokenFilterSide

Define valores para EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage

Define los idiomas admitidos para EntityRecognitionSkillKnownEntityRecognitionSkillLanguage se pueden usar indistintamente con este tipo.

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contiene opciones de configuración específicas del algoritmo KNN exhaustivo utilizado durante la consulta, que realizará la búsqueda por fuerza bruta en todo el índice vectorial.

ExtractDocumentKey
GetDataSourceConnectionOptions

Opciones para obtener la operación de origen de datos.

GetIndexOptions

Opciones para obtener la operación de índice.

GetIndexStatisticsOptions

Opciones para obtener la operación de estadísticas de índice.

GetIndexerOptions

Opciones para obtener la operación del indexador.

GetIndexerStatusOptions

Opciones para obtener la operación de estado del indexador.

GetServiceStatisticsOptions

Opciones para obtener la operación de estadísticas del servicio.

GetSkillSetOptions

Opciones para obtener la operación del conjunto de aptitudes.

GetSynonymMapsOptions

Opciones para la operación get synonymmaps.

HnswAlgorithmConfiguration

Contiene opciones de configuración específicas del algoritmo de vecinos más cercano aproximado que se usan durante el tiempo de indexación.

ImageAnalysisSkillLanguage

Define los idiomas admitidos para ImageAnalysisSkillKnownImageAnalysisSkillLanguage se puede usar indistintamente con este tipo.

ImageDetail
IndexActionType

Define valores para IndexActionType.

IndexDocumentsAction

Representa una acción de índice que funciona en un documento.

IndexIterator

Iterador para enumerar los índices que existen en el servicio Search. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración.

IndexNameIterator

Iterador para enumerar los índices que existen en el servicio Search. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración.

IndexerExecutionEnvironment

Valores conocidos admitidos por el servicio

estándar: indica que Azure Cognitive Search puede determinar dónde se debe ejecutar el indexador. Este es el entorno predeterminado cuando no se especifica nada y es el valor recomendado. private: indica que el indexador debe ejecutarse con el entorno aprovisionado específicamente para el servicio de búsqueda. Esto solo se debe especificar como entorno de ejecución si el indexador necesita acceder a los recursos de forma segura a través de recursos de vínculo privado compartidos.

IndexerExecutionStatus

Define valores para IndexerExecutionStatus.

IndexerStatus

Define valores para IndexerStatus.

KeyPhraseExtractionSkillLanguage

Define los idiomas admitidos para KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage se puede usar indistintamente con este tipo.

LexicalAnalyzer

Contiene los casos posibles para Analyzer.

LexicalAnalyzerName

Define los valores de LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> se puede usar indistintamente con LexicalAnalyzerName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

ar.microsoft: Analizador de Microsoft para árabe.
ar.lucene: analizador de Lucene para árabe.
hy.lucene: analizador de Lucene para armenio.
bn.microsoft: Analizador de Microsoft para Bangla.
eu.lucene: analizador de Lucene para Euskera.
bg.microsoft: analizador de Microsoft para búlgaro.
bg.lucene: analizador de Lucene para búlgaro.
ca.microsoft: Analizador de Microsoft para catalán.
ca.lucene: analizador de Lucene para catalán.
zh-Hans.microsoft: Analizador de Microsoft para chino (simplificado).
zh-Hans.lucene: analizador de Lucene para chino (simplificado).
zh-Hant.microsoft: Analizador de Microsoft para chino (tradicional).
zh-Hant.lucene: analizador de Lucene para chino (tradicional).
hr.microsoft: Analizador de Microsoft para croata.
cs.microsoft: Analizador de Microsoft para Checo.
cs.lucene: analizador de Lucene para checo.
da.microsoft: Analizador de Microsoft para danés.
da.lucene: analizador de Lucene para danés.
nl.microsoft: analizador de Microsoft para neerlandés.
nl.lucene: analizador de Lucene para neerlandés.
en.microsoft: Analizador de Microsoft para inglés.
en.lucene: analizador de Lucene para inglés.
et.microsoft: Analizador de Microsoft para estonio.
fi.microsoft: Analizador de Microsoft para finés.
fi.lucene: analizador de Lucene para finés.
fr.microsoft: Analizador de Microsoft para francés.
fr.lucene: analizador de Lucene para francés.
gl.lucene: Analizador de Lucene para Gallega.
de.microsoft: Analizador de Microsoft para alemán.
de.lucene: analizador de Lucene para alemán.
el.microsoft: Analizador de Microsoft para griego.
el.lucene: analizador de Lucene para griego.
gu.microsoft: Analizador de Microsoft para Gujarati.
he.microsoft: analizador de Microsoft para hebreo.
hi.microsoft: Analizador de Microsoft para hindi.
hi.lucene: analizador de Lucene para hindi.
hu.microsoft: Analizador de Microsoft para húngaro.
hu.lucene: analizador de Lucene para húngaro.
is.microsoft: Analizador de Microsoft para Islandés.
id.microsoft: Analizador de Microsoft para Indonesia (Bahasa).
id.lucene: analizador de Lucene para indonesia.
ga.lucene: analizador de Lucene para irlandés.
it.microsoft: Analizador de Microsoft para italiano.
it.lucene: analizador de Lucene para italiano.
ja.microsoft: analizador de Microsoft para japonés.
ja.lucene: analizador de Lucene para japonés.
kn.microsoft: Analizador de Microsoft para Kannada.
ko.microsoft: Analizador de Microsoft para coreano.
ko.lucene: analizador de Lucene para coreano.
lv.microsoft: Analizador de Microsoft para Letonia.
lv.lucene: analizador de Lucene para letón.
lt.microsoft: analizador de Microsoft para lituano.
ml.microsoft: Analizador de Microsoft para Malayalam.
ms.microsoft: Analizador de Microsoft para malayo (latino).
mr.microsoft: Analizador de Microsoft para Marathi.
nb.microsoft: Analizador de Microsoft para noruego (Bokmål).
no.lucene: analizador de Lucene para noruego.
fa.lucene: analizador de Lucene para persa.
pl.microsoft: Analizador de Microsoft para polaco.
pl.lucene: analizador de Lucene para polaco.
pt-BR.microsoft: Analizador de Microsoft para portugués (Brasil).
pt-BR.lucene: analizador de Lucene para portugués (Brasil).
pt-PT.microsoft: Analizador de Microsoft para portugués (Portugal).
pt-PT.lucene: analizador de Lucene para portugués (Portugal).
pa.microsoft: Analizador de Microsoft para Punjabi.
ro.microsoft: Analizador de Microsoft para rumano.
ro.lucene: analizador de Lucene para rumano.
ru.microsoft: Analizador de Microsoft para ruso.
ru.lucene: analizador de Lucene para ruso.
sr-cyrillic.microsoft: Analizador de Microsoft para serbio (cirílico).
sr-latin.microsoft: Analizador de Microsoft para serbio (latino).
sk.microsoft: Analizador de Microsoft para eslovaco.
sl.microsoft: Analizador de Microsoft para esloveno.
es.microsoft: Analizador de Microsoft para español.
es.lucene: analizador de Lucene para español.
sv.microsoft: analizador de Microsoft para sueco.
sv.lucene: analizador de Lucene para sueco.
ta.microsoft: Analizador de Microsoft para Tamil.
te.microsoft: Analizador de Microsoft para Telugu.
th.microsoft: Analizador de Microsoft para tailandés.
th.lucene: analizador de Lucene para tailandés.
tr.microsoft: analizador de Microsoft para turco.
tr.lucene: analizador de Lucene para turco.
uk.microsoft: Analizador de Microsoft para Ucrania.
your.microsoft: Analizador de Microsoft para Urdu.
vi.microsoft: analizador de Microsoft para vietnamita.
standard.lucene: analizador estándar de Lucene.
standardasciifolding.lucene: analizador estándar de Lucene plegable ASCII. Consulta https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers.
palabra clave: trata todo el contenido de un campo como un solo token. Esto es útil para los datos tipo código postal, identificador y algunos nombres de producto. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html.
pattern: separa de forma flexible el texto en términos a través de un patrón de expresión regular. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html.
simple: divide el texto en letras que no son letras y los convierte en minúsculas. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html.
stop: divide el texto en letras no letras; Aplica los filtros de token en minúsculas y de palabra irrelevante. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html.
espacio en blanco: analizador que usa el tokenizador de espacio en blanco. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html.

LexicalTokenizer

Contiene los posibles casos de Tokenizer.

LexicalTokenizerName

Define valores para LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> se puede usar indistintamente con LexicalTokenizerName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

clásico: tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html.
edgeNGram: tokeniza la entrada de un borde en n-gramas de los tamaños especificados. Consulta https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html.
keyword_v2: emite toda la entrada como un solo token. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html.
letra: divide el texto en letras no letras. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html.
minúsculas: divide el texto en letras que no son letras y los convierte en minúsculas. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html.
microsoft_language_tokenizer: divide el texto mediante reglas específicas del idioma.
microsoft_language_stemming_tokenizer: divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formularios base.
nGram: tokeniza la entrada en n-gramas de los tamaños especificados. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html.
path_hierarchy_v2: tokenizador para jerarquías similares a la ruta de acceso. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html.
pattern: Tokenizer que usa la coincidencia de patrones regex para construir tokens distintos. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html.
standard_v2: Analizador estándar de Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html.
uax_url_email: tokeniza las direcciones URL y los correos electrónicos como un token. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html.
espacio en blanco: divide el texto en un espacio en blanco. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html.

ListDataSourceConnectionsOptions

Opciones para una operación de orígenes de datos de lista.

ListIndexersOptions

Opciones para una operación de indexadores de lista.

ListIndexesOptions

Opciones de una operación de índices de lista.

ListSkillsetsOptions

Opciones para una operación de conjuntos de aptitudes de lista.

ListSynonymMapsOptions

Opciones de una operación synonymMaps de lista.

MergeDocumentsOptions

Opciones para la operación de combinación de documentos.

MergeOrUploadDocumentsOptions

Opciones para la operación de combinación o carga de documentos.

MicrosoftStemmingTokenizerLanguage

Define valores para MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Define valores para MicrosoftTokenizerLanguage.

NarrowedModel

Limita el tipo de modelo para incluir solo los campos seleccionados.

OcrSkillLanguage

Define los idiomas admitidos para OcrSkillKnownOcrSkillLanguage se pueden usar indistintamente con este tipo.

PIIDetectionSkillMaskingMode

Define los valores de PIIDetectionSkillMaskingMode.

Valores conocidos admitidos por el servicio

none: no se produce enmascaramiento y no se devolverá la salida maskedText. replace: reemplaza las entidades detectadas por el carácter especificado en el parámetro maskingCharacter. El carácter se repetirá hasta la longitud de la entidad detectada para que los desplazamientos se correspondan correctamente con el texto de entrada, así como con la salida maskedText.

PhoneticEncoder

Define valores para PhoneticEncoder.

QueryAnswer

Valor que especifica si las respuestas se deben devolver como parte de la respuesta de búsqueda. Este parámetro solo es válido si el tipo de consulta es "semántico". Si se establece extractiveen , la consulta devuelve las respuestas extraídas de los pasajes clave de los documentos clasificados más altos.

QueryCaption

Valor que especifica si se deben devolver títulos como parte de la respuesta de búsqueda. Este parámetro solo es válido si el tipo de consulta es "semántico". Si se establece, la consulta devuelve los títulos extraídos de los pasajes clave de los documentos clasificados más altos. Cuando los títulos son 'extractive', el resaltado está habilitado de forma predeterminada. El valor predeterminado es "none".

QueryType

Define los valores de QueryType.

RegexFlags

Define marcas para la coincidencia de patrones regex.

Valores conocidos admitidos por el servicio

CANON_EQ: habilita la equivalencia canónica. CASE_INSENSITIVE: habilita la coincidencia sin distinción entre mayúsculas y minúsculas. COMENTARIOS: permite espacios en blanco y comentarios en el patrón. DOTALL: Habilita el modo de dotación. LITERAL: habilita el análisis literal del patrón. MULTILINE: habilita el modo multilínea. UNICODE_CASE: habilita el plegado de mayúsculas y minúsculas compatibles con Unicode. UNIX_LINES: habilita el modo de líneas Unix.

ResetIndexerOptions

Opciones para restablecer la operación del indexador.

RunIndexerOptions

Opciones para ejecutar la operación del indexador.

ScoringFunction

Contiene los posibles casos de ScoringFunction.

ScoringFunctionAggregation

Define los valores de ScoringFunctionAggregation.

ScoringFunctionInterpolation

Define los valores de ScoringFunctionInterpolation.

ScoringStatistics

Define valores para ScoringStatistics.

SearchField

Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo.

SearchFieldArray

Si TModel es un objeto sin tipo, una matriz de cadenas sin tipo En caso contrario, los campos delimitados por barras diagonales de TModel.

SearchFieldDataType

Define los valores de SearchFieldDataType. Entre los valores posibles se incluyen: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)'

NB: Edm.Single solo no es un tipo de datos válido. Debe usarse como parte de un tipo de colección.

SearchIndexerDataSourceType
SearchIndexerSkill

Contiene los casos posibles para Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opciones para SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opciones para SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opciones para SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opciones para SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opciones para SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Iterador para los resultados de búsqueda de una consulta paticular. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración.

SearchMode

Define valores para SearchMode.

SearchOptions

Opciones para confirmar una solicitud de búsqueda completa.

SearchPick

Elija profundamente campos de T mediante rutas de acceso válidas de OData de Cognitive Search $select.

SearchRequestOptions

Parámetros para filtrar, ordenar, facetar, paginar y otros comportamientos de consulta de búsqueda.

SearchRequestQueryTypeOptions
SearchResult

Contiene un documento encontrado por una consulta de búsqueda, además de metadatos asociados.

SelectArray

Si TFields nunca es así, una matriz de cadenas sin tipo En caso contrario, un tipo restringido Fields[] que se usará en otro lugar del tipo de consumo.

SelectFields

Genera una unión de rutas de acceso válidas de OData de Cognitive Search $select para T mediante un recorrido posterior al orden del árbol de campos raíz en T.

SemanticErrorMode

partial: si se produce un error en el procesamiento semántico, los resultados parciales siguen devolviendo. La definición de resultados parciales depende del error del paso semántico y del motivo del error.

fail: si hay una excepción durante el paso de procesamiento semántico, se producirá un error en la consulta y se devolverá el código HTTP adecuado en función del error.

SemanticErrorReason

maxWaitExceeded: si se estableció 'semanticMaxWaitInMilliseconds' y la duración del procesamiento semántico superó ese valor. Solo se devolvieron los resultados base.

capacityOverloaded: la solicitud se ha limitado. Solo se devolvieron los resultados base.

transitorio: error al menos un paso del proceso semántico.

SemanticSearchResultsType

baseResults: resultados sin ningún enriquecimiento semántico ni reranking.

rerankedResults: los resultados se han reranked con el modelo de reranker y incluirán subtítulos semánticos. No incluirá ninguna respuesta, resaltado de respuestas ni subtítulo resaltados.

SentimentSkillLanguage

Define los idiomas admitidos para SentimentSkillKnownSentimentSkillLanguage se puede usar indistintamente con este tipo.

SimilarityAlgorithm

Contiene los posibles casos de similitud.

SnowballTokenFilterLanguage

Define los valores de SnowballTokenFilterLanguage.

SplitSkillLanguage

Define los idiomas admitidos para SplitSkillKnownSplitSkillLanguage se puede usar indistintamente con este tipo.

StemmerTokenFilterLanguage

Define los valores de LematerTokenFilterLanguage.

StopwordsList

Define los valores de StopwordsList.

SuggestNarrowedModel
SuggestOptions

Opciones para recuperar sugerencias basadas en searchText.

SuggestResult

Resultado que contiene un documento encontrado por una consulta de sugerencia, además de metadatos asociados.

TextSplitMode
TextTranslationSkillLanguage

Define los idiomas admitidos para TextTranslationSkillKnownTextTranslationSkillLanguage se puede usar indistintamente con este tipo.

TokenCharacterKind

Define los valores de TokenCharacterKind.

TokenFilter

Contiene los posibles casos de TokenFilter.

TokenFilterName

Define los valores de TokenFilterName.
<xref:KnownTokenFilterName> se puede usar indistintamente con TokenFilterName, esta enumeración contiene los valores conocidos que admite el servicio.

Valores conocidos admitidos por el servicio

arabic_normalization: filtro de token que aplica el normalizador árabe para normalizar la ortografía. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html.
apóstrofo: tira todos los caracteres después de un apóstrofo (incluido el apóstrofo en sí). Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html.
asciifolding: convierte caracteres unicode alfabéticos, numéricos y simbólicos que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Basic Latin" ) en sus equivalentes ASCII, si existen dichos equivalentes. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.
cjk_bigram: forma bigrams de términos de CJK que se generan a partir del tokenizador estándar. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html.
cjk_width: normaliza las diferencias de ancho de CJK. Dobla las variantes ASCII fullwidth en las variantes equivalentes básicas latinas y katakana de ancho medio en el kana equivalente. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html.
clásico: quita los posesivos en inglés y los puntos de los acrónimos. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html.
common_grams: construya bigrams para términos que se producen con frecuencia durante la indexación. Los términos individuales también se indexan, con los bigramas superpuestos. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html.
edgeNGram_v2: genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html.
elision: quita las elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.
german_normalization: Normaliza los caracteres alemanes según la heurística del algoritmo de bola de nieve alemán2. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html.
hindi_normalization: normaliza el texto en hindi para eliminar algunas diferencias en las variaciones ortográficas. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html.
indic_normalization: normaliza la representación Unicode del texto en idiomas indios. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html.
keyword_repeat: emite cada token entrante dos veces, una como palabra clave y una vez como no palabra clave. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html.
kstem: filtro kstem de alto rendimiento para inglés. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html.
length: quita las palabras que son demasiado largas o demasiado cortas. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html.
limit: limita el número de tokens durante la indexación. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html.
minúsculas: normaliza el texto del token en minúsculas. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm.
nGram_v2: genera n-gramas de los tamaños especificados. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html.
persian_normalization: aplica la normalización para persa. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html.
fonético: cree tokens para coincidencias fonéticas. Consulta https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html.
porter_stem: usa el algoritmo de lematización porter para transformar el flujo de tokens. Consulta http://tartarus.org/~martin/PorterStemmer.
reverse: invierte la cadena de token. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.
scandinavian_normalization: Normaliza el uso de los caracteres escandinavos intercambiables. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html.
scandinavian_folding: Dobla caracteres escandinavos åÅäæÄÆ-a> y öÖøØ-o>. También discrimina el uso de las vocales dobles aa, ae, ao, oe y oo, dejando solo la primera de ellas. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html.
shingle: crea combinaciones de tokens como un único token. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html.
snowball: filtro que deriva las palabras mediante un lematizador generado por Snowball. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html.
sorani_normalization: Normaliza la representación Unicode del texto Sorani. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html.
lematizador: filtro de lematización específico del idioma. Consulta https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.
palabras irrelevantes: quita las palabras irrelevantes de una secuencia de tokens. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.
trim: recorta los espacios en blanco iniciales y finales de los tokens. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html.
truncate: trunca los términos en una longitud específica. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html.
unique: filtra los tokens con el mismo texto que el token anterior. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html.
mayúsculas: normaliza el texto del token en mayúsculas. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.
word_delimiter: divide palabras en subáreas y realiza transformaciones opcionales en grupos de subpalabras.

UnionToIntersection
UploadDocumentsOptions

Opciones para la operación de carga de documentos.

VectorFilterMode

Determina si se aplican o no filtros antes o después de realizar la búsqueda vectorial.

VectorQuery

Los parámetros de consulta para las consultas de búsqueda híbrida y vectorial.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contiene opciones de configuración específicas del algoritmo utilizado durante la indexación o consulta.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

Métrica de similitud que se va a usar para las comparaciones de vectores.

VisualFeature

Enumeraciones

KnownAnalyzerNames

Define valores para AnalyzerName. Consulta https://docs.microsoft.com/rest/api/searchservice/Language-support.

KnownBlobIndexerDataToExtract

Valores conocidos de BlobIndexerDataToExtract que acepta el servicio.

KnownBlobIndexerImageAction

Valores conocidos de BlobIndexerImageAction que acepta el servicio.

KnownBlobIndexerPDFTextRotationAlgorithm

Valores conocidos de BlobIndexerPDFTextRotationAlgorithm que acepta el servicio.

KnownBlobIndexerParsingMode

Valores conocidos de BlobIndexerParsingMode que acepta el servicio.

KnownCharFilterNames

Valores conocidos de CharFilterName que acepta el servicio.

KnownCustomEntityLookupSkillLanguage

Valores conocidos de CustomEntityLookupSkillLanguage que acepta el servicio.

KnownEntityCategory

Valores conocidos de EntityCategory que acepta el servicio.

KnownEntityRecognitionSkillLanguage

Valores conocidos de EntityRecognitionSkillLanguage que acepta el servicio.

KnownImageAnalysisSkillLanguage

Valores conocidos de ImageAnalysisSkillLanguage que acepta el servicio.

KnownImageDetail

Valores conocidos de ImageDetail que acepta el servicio.

KnownKeyPhraseExtractionSkillLanguage

Valores conocidos de KeyPhraseExtractionSkillLanguage que acepta el servicio.

KnownOcrSkillLanguage

Valores conocidos de OcrSkillLanguage que acepta el servicio.

KnownRegexFlags

Valores conocidos de RegexFlags que acepta el servicio.

KnownSearchAudience

Valores conocidos para la audiencia de búsqueda

KnownSearchIndexerDataSourceType

Valores conocidos de SearchIndexerDataSourceType que acepta el servicio.

KnownSentimentSkillLanguage

Valores conocidos de SentimentSkillLanguage que acepta el servicio.

KnownSplitSkillLanguage

Valores conocidos de SplitSkillLanguage que acepta el servicio.

KnownTextSplitMode

Valores conocidos de TextSplitMode que acepta el servicio.

KnownTextTranslationSkillLanguage

Valores conocidos de TextTranslationSkillLanguage que acepta el servicio.

KnownTokenFilterNames

Valores conocidos de TokenFilterName que acepta el servicio.

KnownTokenizerNames

Valores conocidos de LexicalTokenizerName que acepta el servicio.

KnownVisualFeature

Valores conocidos de VisualFeature que acepta el servicio.

Funciones

createSynonymMapFromFile(string, string)

Método auxiliar para crear un objeto SynonymMap. Se trata de un método solo NodeJS.

odata(TemplateStringsArray, unknown[])

Escape de una expresión de filtro de odata para evitar errores con literales de cadena entre comillas. Ejemplo de uso:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obtener más información sobre la sintaxis admitida, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Detalles de la función

createSynonymMapFromFile(string, string)

Método auxiliar para crear un objeto SynonymMap. Se trata de un método solo NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parámetros

name

string

Nombre del synonymMap.

filePath

string

Ruta de acceso del archivo que contiene los sinónimos (separadas por líneas nuevas)

Devoluciones

Promise<SynonymMap>

SynonymMap (objeto)

odata(TemplateStringsArray, unknown[])

Escape de una expresión de filtro de odata para evitar errores con literales de cadena entre comillas. Ejemplo de uso:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Para obtener más información sobre la sintaxis admitida, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parámetros

strings

TemplateStringsArray

Matriz de cadenas para la expresión

values

unknown[]

Matriz de valores para la expresión

Devoluciones

string