@azure/search-documents package
Clases
AzureKeyCredential |
Credencial basada en clave estática que admite la actualización del valor de clave subyacente. |
GeographyPoint |
Representa un punto geográfico en coordenadas globales. |
IndexDocumentsBatch |
Clase que se usa para realizar operaciones por lotes con varios documentos en el índice. |
SearchClient |
Clase que se usa para realizar operaciones en un índice de búsqueda, incluida la consulta de documentos en el índice, así como la adición, actualización y eliminación de ellos. |
SearchIndexClient |
Clase para realizar operaciones para administrar índices (crear, actualizar, enumerar o eliminar), & mapa de sinónimos. |
SearchIndexerClient |
Clase para realizar operaciones para administrar indexadores (crear, actualizar, enumerar o eliminar), orígenes de datos & conjuntos de aptitudes. |
SearchIndexingBufferedSender |
Clase usada para realizar operaciones almacenadas en búfer en un índice de búsqueda, incluida la adición, actualización y eliminación de ellos. |
Interfaces
AnalyzeRequest |
Especifica algunos componentes de texto y análisis que se usan para dividir ese texto en tokens. |
AnalyzeResult |
Resultado de la prueba de un analizador en texto. |
AnalyzedTokenInfo |
Información sobre un token devuelto por un analizador. |
AsciiFoldingTokenFilter |
Convierte caracteres alfabéticos, numéricos y simbólicos Unicode que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Básico latino") en sus equivalentes ASCII, si existen dichos equivalentes. Este filtro de token se implementa mediante Apache Lucene. |
AutocompleteItem |
Resultado de las solicitudes de Autocompletar. |
AutocompleteRequest |
Parámetros para la coincidencia aproximada y otros comportamientos de consulta de autocompletar. |
AutocompleteResult |
Resultado de la consulta Autocompletar. |
AzureActiveDirectoryApplicationCredentials |
Credenciales de una aplicación registrada creada para el servicio de búsqueda, que se usa para el acceso autenticado a las claves de cifrado almacenadas en Azure Key Vault. |
BM25Similarity |
Función de clasificación basada en el algoritmo de similitud Okapi BM25. BM25 es un algoritmo similar a TF-IDF que incluye la normalización de longitud (controlada por el parámetro 'b'), así como la saturación de la frecuencia de términos (controlada por el parámetro 'k1'). |
BaseCharFilter |
Tipo base para filtros de caracteres. |
BaseCognitiveServicesAccount |
Tipo base para describir cualquier recurso de servicio de Azure AI asociado a un conjunto de aptitudes. |
BaseDataChangeDetectionPolicy |
Tipo base para las directivas de detección de cambios de datos. |
BaseDataDeletionDetectionPolicy |
Tipo base para las directivas de detección de eliminación de datos. |
BaseLexicalAnalyzer |
Tipo base para analizadores. |
BaseLexicalTokenizer |
Tipo base para tokenizadores. |
BaseScoringFunction |
Tipo base para funciones que pueden modificar las puntuaciones de documentos durante la clasificación. |
BaseSearchIndexerSkill |
Tipo base para aptitudes. |
BaseSearchRequestOptions |
Parámetros para filtrar, ordenar, facetar, paginar y otros comportamientos de consulta de búsqueda. |
BaseTokenFilter |
Tipo base para los filtros de token. |
BaseVectorQuery |
Los parámetros de consulta para las consultas de búsqueda híbrida y vectorial. |
BaseVectorSearchAlgorithmConfiguration |
Contiene opciones de configuración específicas del algoritmo utilizado durante la indexación o consulta. |
CjkBigramTokenFilter |
Forma bigrams de términos de CJK que se generan a partir del tokenizador estándar. Este filtro de token se implementa mediante Apache Lucene. |
ClassicSimilarity |
Algoritmo de similitud heredado que usa la implementación de TFIDFSimilarity de Lucene de TF-IDF. Esta variación de TF-IDF presenta la normalización estática de la longitud del documento, así como factores de coordinación que penalizan los documentos que solo coinciden parcialmente con las consultas buscadas. |
ClassicTokenizer |
Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Este tokenizador se implementa mediante Apache Lucene. |
CognitiveServicesAccountKey |
Un recurso de servicio de Azure AI aprovisionado con una clave que está asociada a un conjunto de aptitudes. |
CommonGramTokenFilter |
Construye bigramas para términos que se repiten con frecuencia durante la indexación. Los términos individuales también se indexan, con los bigramas superpuestos. Este filtro de token se implementa mediante Apache Lucene. |
ComplexField |
Representa un campo de una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo. |
ConditionalSkill |
Aptitud que permite escenarios que requieren una operación booleana para determinar los datos que se van a asignar a una salida. |
CorsOptions |
Define las opciones para controlar el uso compartido de recursos entre orígenes (CORS) para un índice. |
CreateOrUpdateIndexOptions |
Opciones para la operación de creación o actualización del índice. |
CreateOrUpdateSkillsetOptions |
Opciones para la operación de creación o actualización del conjunto de aptitudes. |
CreateOrUpdateSynonymMapOptions |
Opciones para la operación de creación o actualización del mapa de sinónimos. |
CreateorUpdateDataSourceConnectionOptions |
Opciones para la operación de creación o actualización del origen de datos. |
CreateorUpdateIndexerOptions |
Opciones para la operación de creación o actualización del indexador. |
CustomAnalyzer |
Permite tomar el control sobre el proceso de conversión de texto en tokens indexables o buscables. Se trata de una configuración definida por el usuario que consta de un único tokenizador predefinido y uno o varios filtros. El tokenizador es responsable de dividir el texto en tokens y de los filtros para modificar los tokens emitidos por el tokenizador. |
CustomEntity |
Objeto que contiene información sobre las coincidencias que se encontraron y metadatos relacionados. |
CustomEntityAlias |
Objeto complejo que se puede usar para especificar ortografías o sinónimos alternativos al nombre de la entidad raíz. |
CustomEntityLookupSkill |
Una aptitud busca texto de una lista personalizada definida por el usuario de palabras y frases. |
DefaultCognitiveServicesAccount |
Objeto vacío que representa el recurso de servicio de Azure AI predeterminado para un conjunto de aptitudes. |
DeleteDataSourceConnectionOptions |
Opciones para eliminar la operación de origen de datos. |
DeleteIndexOptions |
Opciones para la operación de eliminación de índices. |
DeleteIndexerOptions |
Opciones para la operación de eliminación del indexador. |
DeleteSkillsetOptions |
Opciones para eliminar la operación del conjunto de aptitudes. |
DeleteSynonymMapOptions |
Opciones para eliminar la operación de mapa de sinónimos. |
DictionaryDecompounderTokenFilter |
Descompone las palabras compuestas que se encuentran en muchas lenguas germánicas. Este filtro de token se implementa mediante Apache Lucene. |
DistanceScoringFunction |
Define una función que aumenta las puntuaciones en función de la distancia desde una ubicación geográfica. |
DistanceScoringParameters |
Proporciona valores de parámetro a una función de puntuación de distancia. |
DocumentExtractionSkill |
Aptitud que extrae contenido de un archivo dentro de la canalización de enriquecimiento. |
EdgeNGramTokenFilter |
Genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Este filtro de token se implementa mediante Apache Lucene. |
EdgeNGramTokenizer |
Tokeniza la entrada de un borde en n-gramas de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene. |
ElisionTokenFilter |
Quita las elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Este filtro de token se implementa mediante Apache Lucene. |
EntityLinkingSkill |
Con la API de Text Analytics, extrae entidades vinculadas del texto. |
EntityRecognitionSkill |
Reconocimiento de entidades de Text Analytics. |
EntityRecognitionSkillV3 |
Con la API de Text Analytics, extrae entidades de diferentes tipos de texto. |
ExhaustiveKnnParameters |
Contiene los parámetros específicos del algoritmo KNN exhaustivo. |
ExtractiveQueryAnswer |
Extrae candidatos de respuesta del contenido de los documentos devueltos en respuesta a una consulta expresada como una pregunta en lenguaje natural. |
ExtractiveQueryCaption |
Extrae títulos de los documentos coincidentes que contienen pasajes relevantes para la consulta de búsqueda. |
FacetResult |
Un único cubo de un resultado de consulta de faceta. Notifica el número de documentos con un valor de campo que se encuentra dentro de un intervalo determinado o que tiene un valor o intervalo determinado. |
FieldMapping |
Define una asignación entre un campo de un origen de datos y un campo de destino en un índice. |
FieldMappingFunction |
Representa una función que transforma un valor de un origen de datos antes de la indexación. |
FreshnessScoringFunction |
Define una función que aumenta las puntuaciones en función del valor de un campo de fecha y hora. |
FreshnessScoringParameters |
Proporciona valores de parámetro a una función de puntuación de actualización. |
GetDocumentOptions |
Opciones para recuperar un único documento. |
HighWaterMarkChangeDetectionPolicy |
Define una directiva de detección de cambios de datos que captura los cambios en función del valor de una columna de marca de agua alta. |
HnswParameters |
Contiene los parámetros específicos del algoritmo hnsw. |
ImageAnalysisSkill |
Aptitud que analiza los archivos de imagen. Extrae un amplio conjunto de características visuales basadas en el contenido de la imagen. |
IndexDocumentsClient |
Indexar el cliente de documentos |
IndexDocumentsOptions |
Opciones para la operación de modificación del lote de índice. |
IndexDocumentsResult |
Respuesta que contiene el estado de las operaciones de todos los documentos de la solicitud de indexación. |
IndexerExecutionResult |
Representa el resultado de una ejecución de indizador individual. |
IndexingParameters |
Representa los parámetros para la ejecución del indizador. |
IndexingParametersConfiguration |
Diccionario de propiedades de configuración específicas del indizador. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo. |
IndexingResult |
Estado de una operación de indexación para un único documento. |
IndexingSchedule |
Representa una programación para la ejecución del indizador. |
InputFieldMappingEntry |
Asignación de campos de entrada para una aptitud. |
KeepTokenFilter |
Filtro de token que solo mantiene los tokens con texto contenido en una lista especificada de palabras. Este filtro de token se implementa mediante Apache Lucene. |
KeyPhraseExtractionSkill |
Aptitud que usa el análisis de texto para la extracción de frases clave. |
KeywordMarkerTokenFilter |
Marca los términos como palabras clave. Este filtro de token se implementa mediante Apache Lucene. |
KeywordTokenizer |
Emite la entrada completa como un solo token. Este tokenizador se implementa mediante Apache Lucene. |
LanguageDetectionSkill |
Una aptitud que detecta el idioma del texto de entrada e informa de un único código de idioma para cada documento enviado en la solicitud. El código de idioma se empareja con una puntuación que indica la confianza del análisis. |
LengthTokenFilter |
Quita las palabras que son demasiado largas o demasiado cortas. Este filtro de token se implementa mediante Apache Lucene. |
LimitTokenFilter |
Limita el número de tokens durante la indexación. Este filtro de token se implementa mediante Apache Lucene. |
ListSearchResultsPageSettings |
Argumentos para recuperar la página siguiente de los resultados de búsqueda. |
LuceneStandardAnalyzer |
Analizador estándar de Apache Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop. |
LuceneStandardTokenizer |
Divide el texto siguiendo las reglas de segmentación de texto Unicode. Este tokenizador se implementa mediante Apache Lucene. |
MagnitudeScoringFunction |
Define una función que aumenta las puntuaciones en función de la magnitud de un campo numérico. |
MagnitudeScoringParameters |
Proporciona valores de parámetro a una función de puntuación de magnitud. |
MappingCharFilter |
Filtro de caracteres que aplica asignaciones definidas con la opción asignaciones. La coincidencia es ambiciosa (la mayor coincidencia de patrones en un momento dado gana). Se permite que la sustitución sea una cadena vacía. Este filtro de caracteres se implementa mediante Apache Lucene. |
MergeSkill |
Aptitud para combinar dos o más cadenas en una sola cadena unificada, con un delimitador opcional definido por el usuario que separa cada parte de componente. |
MicrosoftLanguageStemmingTokenizer |
Divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formas base. |
MicrosoftLanguageTokenizer |
Divide el texto mediante reglas específicas del idioma. |
NGramTokenFilter |
Genera n-gramas de los tamaños dados. Este filtro de token se implementa mediante Apache Lucene. |
NGramTokenizer |
Tokeniza la entrada en n-gramas de tamaños dados. Este tokenizador se implementa mediante Apache Lucene. |
OcrSkill |
Aptitud que extrae texto de los archivos de imagen. |
OutputFieldMappingEntry |
Asignación de campos de salida para una aptitud. |
PIIDetectionSkill |
Con la API de Text Analytics, extrae información personal de un texto de entrada y le ofrece la opción de enmascararlo. |
PathHierarchyTokenizer |
Tokenizador para las jerarquías parecidas a rutas de acceso. Este tokenizador se implementa mediante Apache Lucene. |
PatternAnalyzer |
Separa el texto de manera flexible en términos a través de un patrón de expresión regular. Este analizador se implementa mediante Apache Lucene. |
PatternCaptureTokenFilter |
Usa expresiones regulares de Java para emitir varios tokens: uno para cada grupo de capturas en uno o varios patrones. Este filtro de token se implementa mediante Apache Lucene. |
PatternReplaceCharFilter |
Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar las secuencias de caracteres que se desean conservar y un patrón de reemplazo para identificar los caracteres que se desean reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb". Este filtro de caracteres se implementa mediante Apache Lucene. |
PatternReplaceTokenFilter |
Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar las secuencias de caracteres que se desean conservar y un patrón de reemplazo para identificar los caracteres que se desean reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb". Este filtro de token se implementa mediante Apache Lucene. |
PatternTokenizer |
Tokenizador que usa la coincidencia de patrones regex para construir tokens distintos. Este tokenizador se implementa mediante Apache Lucene. |
PhoneticTokenFilter |
Crea tokens para coincidencias fonéticas. Este filtro de token se implementa mediante Apache Lucene. |
QueryAnswerResult |
Una respuesta es un pasaje de texto extraído del contenido de los documentos más relevantes que coinciden con la consulta. Las respuestas se extraen de los resultados principales de la búsqueda. Se puntúan los candidatos de respuesta y se seleccionan las respuestas principales. |
QueryCaptionResult |
Los títulos son los pasajes más representativos del documento relativamente a la consulta de búsqueda. A menudo se usan como resumen de documentos. Los títulos solo se devuelven para las consultas de tipo |
ResourceCounter |
Representa el uso y la cuota de un recurso. |
ScoringProfile |
Define parámetros para un índice de búsqueda que influye en la puntuación en las consultas de búsqueda. |
SearchClientOptions |
Opciones de cliente usadas para configurar solicitudes de Cognitive Search API. |
SearchDocumentsPageResult |
Respuesta que contiene los resultados de la página de búsqueda de un índice. |
SearchDocumentsResult |
Respuesta que contiene los resultados de búsqueda de un índice. |
SearchDocumentsResultBase |
Respuesta que contiene los resultados de búsqueda de un índice. |
SearchIndex |
Representa una definición de índice de búsqueda, que describe los campos y el comportamiento de búsqueda de un índice. |
SearchIndexClientOptions |
Opciones de cliente usadas para configurar solicitudes de Cognitive Search API. |
SearchIndexStatistics |
Estadísticas de un índice determinado. Las estadísticas se recopilan periódicamente y no se garantiza que siempre estén actualizadas. |
SearchIndexer |
Representa un indexador. |
SearchIndexerClientOptions |
Opciones de cliente usadas para configurar solicitudes de Cognitive Search API. |
SearchIndexerDataContainer |
Representa información sobre la entidad (como Azure SQL tabla o colección de CosmosDB) que se indexará. |
SearchIndexerDataSourceConnection |
Representa una definición de origen de datos, que se puede usar para configurar un indexador. |
SearchIndexerError |
Representa un error de indización de nivel de elemento o documento. |
SearchIndexerKnowledgeStore |
Definición de proyecciones adicionales para azure Blob, tabla o archivos, de datos enriquecidos. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Clase abstracta para compartir propiedades entre selectores concretos. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definición de proyección para qué datos almacenar en Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definición de proyección de los datos que se van a almacenar en azure Blob. |
SearchIndexerKnowledgeStoreProjection |
Objeto contenedor para varios selectores de proyección. |
SearchIndexerKnowledgeStoreProjectionSelector |
Clase abstracta para compartir propiedades entre selectores concretos. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Descripción de los datos que se van a almacenar en tablas de Azure. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Lista de aptitudes. |
SearchIndexerStatus |
Representa el historial de ejecución y el estado actual de un indizador. |
SearchIndexerWarning |
Representa una advertencia de nivel de elemento. |
SearchIndexingBufferedSenderOptions |
Opciones para SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Una clave de cifrado administrada por el cliente en Azure Key Vault. Las claves que cree y administre se pueden usar para cifrar o descifrar datos en reposo en Azure Cognitive Search, como índices y mapas de sinónimos. |
SearchServiceStatistics |
Respuesta de una solicitud de obtención de estadísticas de servicio. Si se ejecuta correctamente, incluye contadores y límites de nivel de servicio. |
SearchSuggester |
Define cómo debe aplicarse la API suggest a un grupo de campos del índice. |
SemanticConfiguration |
Define una configuración específica que se usará en el contexto de las funcionalidades semánticas. |
SemanticField |
Campo que se usa como parte de la configuración semántica. |
SemanticPrioritizedFields |
Describe los campos título, contenido y palabras clave que se usarán para la clasificación semántica, los títulos, los resaltados y las respuestas. |
SemanticSearch |
Define parámetros para un índice de búsqueda que influye en las funcionalidades semánticas. |
SemanticSearchOptions |
Define las opciones para las consultas de búsqueda semántica. |
SentimentSkill |
Análisis de opiniones positivas negativas de Text Analytics, puntuadas como un valor de punto flotante en un intervalo de cero a 1. |
SentimentSkillV3 |
Con la API de Text Analytics, evalúa el texto no estructurado y, para cada registro, proporciona etiquetas de opinión (como "negativo", "neutral" y "positivo") en función de la puntuación de confianza más alta encontrada por el servicio en un nivel de frase y documento. |
ServiceCounters |
Representa los contadores y cuotas de recursos de nivel de servicio. |
ServiceLimits |
Representa varios límites de nivel de servicio. |
ShaperSkill |
Una aptitud para cambiar la forma de las salidas. Crea un tipo complejo para admitir campos compuestos (también conocidos como campos de varias partes). |
ShingleTokenFilter |
Crea combinaciones de tokens como un solo token. Este filtro de token se implementa mediante Apache Lucene. |
Similarity |
Tipo base para algoritmos de similitud. Los algoritmos de similitud se usan para calcular puntuaciones que vinculan consultas a documentos. Cuanto mayor sea la puntuación, más relevante será el documento para esa consulta específica. Esas puntuaciones se usan para clasificar los resultados de la búsqueda. |
SimpleField |
Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo. |
SnowballTokenFilter |
Filtro que deriva palabras mediante un lematizador generado por Snowball. Este filtro de token se implementa mediante Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Define una directiva de detección de eliminación de datos que implementa una estrategia de eliminación temporal. Determina si se debe eliminar un elemento en función del valor de una columna designada "eliminación temporal". |
SplitSkill |
Una aptitud para dividir una cadena en fragmentos de texto. |
SqlIntegratedChangeTrackingPolicy |
Define una directiva de detección de cambios de datos que captura los cambios mediante la característica integrada de Change Tracking de Azure SQL Database. |
StemmerOverrideTokenFilter |
Proporciona la capacidad de invalidar otros filtros de lematización con lematización personalizada basada en diccionarios. Los términos con lematización del diccionario se marcarán como palabras clave para que no se lematice con lematizadores hacia abajo de la cadena. Se debe colocar antes de los filtros de lematización. Este filtro de token se implementa mediante Apache Lucene. |
StemmerTokenFilter |
Filtro de lematización específico del idioma. Este filtro de token se implementa mediante Apache Lucene. |
StopAnalyzer |
Divide el texto en letras no letras; Aplica los filtros de token en minúsculas y palabra irrelevantes. Este analizador se implementa mediante Apache Lucene. |
StopwordsTokenFilter |
Quita las palabras irrelevantes de una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene. |
SuggestDocumentsResult |
Respuesta que contiene los resultados de la consulta de sugerencias de un índice. |
SuggestRequest |
Parámetros para filtrar, ordenar, buscar coincidencias aproximadas y otros comportamientos de consulta de sugerencias. |
SynonymMap |
Representa una definición de mapa de sinónimos. |
SynonymTokenFilter |
Coincide con sinónimos de una o varias palabras en una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene. |
TagScoringFunction |
Define una función que aumenta las puntuaciones de documentos con valores de cadena que coinciden con una lista determinada de etiquetas. |
TagScoringParameters |
Proporciona valores de parámetro a una función de puntuación de etiquetas. |
TextTranslationSkill |
Una aptitud para traducir texto de un idioma a otro. |
TextWeights |
Define pesos en los campos de índice para los que las coincidencias deben aumentar la puntuación en las consultas de búsqueda. |
TruncateTokenFilter |
Trunca los términos a una longitud específica. Este filtro de token se implementa mediante Apache Lucene. |
UaxUrlEmailTokenizer |
Tokeniza las direcciones URL y los correos electrónicos como un token. Este tokenizador se implementa mediante Apache Lucene. |
UniqueTokenFilter |
Filtra los tokens con el mismo texto que el token anterior. Este filtro de token se implementa mediante Apache Lucene. |
VectorSearch |
Contiene opciones de configuración relacionadas con la búsqueda vectorial. |
VectorSearchOptions |
Define las opciones para las consultas de búsqueda vectorial. |
VectorSearchProfile |
Define una combinación de configuraciones que se usarán con la búsqueda vectorial. |
VectorizedQuery |
Parámetros de consulta que se usarán para la búsqueda vectorial cuando se proporciona un valor de vector sin formato. |
WebApiSkill |
Aptitud que puede llamar a un punto de conexión de API web, lo que le permite ampliar un conjunto de aptitudes haciendo que llame al código personalizado. |
WordDelimiterTokenFilter |
Divide palabras en subpalabras y realiza transformaciones opcionales en los grupos de subpalabras. Este filtro de token se implementa mediante Apache Lucene. |
Alias de tipos
AnalyzeTextOptions |
Opciones para analizar la operación de texto. |
AutocompleteMode |
Define valores para AutocompleteMode. |
AutocompleteOptions |
Opciones para recuperar el texto de finalización de un searchText parcial. |
BlobIndexerDataToExtract |
Valores conocidos admitidos por el serviciostorageMetadata: indexa solo las propiedades de blob estándar y los metadatos especificados por el usuario. allMetadata: extrae los metadatos proporcionados por el subsistema de Azure Blob Storage y los metadatos específicos del tipo de contenido (por ejemplo, los metadatos únicos de solo .png archivos se indexan). contentAndMetadata: extrae todos los metadatos y el contenido textual de cada blob. |
BlobIndexerImageAction |
Valores conocidos admitidos por el servicionone: omite las imágenes incrustadas o los archivos de imagen del conjunto de datos. Este es el valor predeterminado. generateNormalizedImages: extrae texto de imágenes (por ejemplo, la palabra "STOP" de un signo de detención de tráfico) e lo inserta en el campo de contenido. Esta acción requiere que "dataToExtract" esté establecido en "contentAndMetadata". Una imagen normalizada hace referencia al procesamiento adicional, lo que da como resultado una salida uniforme de imagen, el tamaño y la rotación para promover la representación coherente cuando se incluyen imágenes en los resultados de búsqueda visual. Esta información se genera para cada imagen cuando se usa esta opción. generateNormalizedImagePerPage: extrae texto de imágenes (por ejemplo, la palabra "STOP" de un signo de detención de tráfico) e lo inserta en el campo de contenido, pero trata los archivos PDF de forma diferente en que cada página se representará como una imagen y se normalizará en consecuencia, en lugar de extraer imágenes incrustadas. Los tipos de archivo que no son PDF se tratarán igual que si se hubiera establecido "generateNormalizedImages". |
BlobIndexerPDFTextRotationAlgorithm |
Valores conocidos admitidos por el servicionone: aprovecha la extracción de texto normal. Este es el valor predeterminado. detectAngles: puede producir una extracción de texto mejor y más legible de los archivos PDF que han girado texto dentro de ellos. Tenga en cuenta que puede haber un pequeño impacto en la velocidad de rendimiento cuando se usa este parámetro. Este parámetro solo se aplica a archivos PDF y solo a archivos PDF con texto incrustado. Si el texto girado aparece dentro de una imagen incrustada en el PDF, este parámetro no se aplica. |
BlobIndexerParsingMode |
Valores conocidos admitidos por el serviciodefault: se establece en default para el procesamiento de archivos normal. text: establézcalo en texto para mejorar el rendimiento de la indexación en archivos de texto sin formato en Blob Storage. delimitedText: se establece en delimitedText cuando los blobs son archivos CSV sin formato. json: establézcalo en json para extraer contenido estructurado de archivos JSON. jsonArray: establezca en jsonArray para extraer elementos individuales de una matriz JSON como documentos independientes en Azure Cognitive Search. jsonLines: establezca en jsonLines para extraer entidades JSON individuales, separadas por una nueva línea, como documentos independientes en Azure Cognitive Search. |
CharFilter |
Contiene los posibles casos de CharFilter. |
CharFilterName |
Define valores para CharFilterName. Valores conocidos admitidos por el serviciohtml_strip: filtro de caracteres que intenta quitar construcciones HTML. Consulta https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html. |
CjkBigramTokenFilterScripts |
Define valores para CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Contiene los posibles casos de CognitiveServicesAccount. |
ComplexDataType |
Define valores para ComplexDataType. Entre los valores posibles se incluyen: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Opciones para realizar la operación de recuento en el índice. |
CreateDataSourceConnectionOptions |
Opciones para crear la operación de origen de datos. |
CreateIndexOptions |
Opciones para crear la operación de índice. |
CreateIndexerOptions |
Opciones para crear la operación del indexador. |
CreateSkillsetOptions |
Opciones para crear la operación del conjunto de aptitudes. |
CreateSynonymMapOptions |
Opciones para crear la operación de mapa de sinónimos. |
CustomEntityLookupSkillLanguage |
Define los idiomas admitidos para CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage se pueden usar indistintamente con este tipo. |
DataChangeDetectionPolicy |
Contiene los posibles casos de DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Contiene los posibles casos de DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Opciones para la operación de eliminación de documentos. |
EdgeNGramTokenFilterSide |
Define valores para EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage |
Define los idiomas admitidos para EntityRecognitionSkillKnownEntityRecognitionSkillLanguage se pueden usar indistintamente con este tipo. |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Contiene opciones de configuración específicas del algoritmo KNN exhaustivo utilizado durante la consulta, que realizará la búsqueda por fuerza bruta en todo el índice vectorial. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Opciones para obtener la operación de origen de datos. |
GetIndexOptions |
Opciones para obtener la operación de índice. |
GetIndexStatisticsOptions |
Opciones para obtener la operación de estadísticas de índice. |
GetIndexerOptions |
Opciones para obtener la operación del indexador. |
GetIndexerStatusOptions |
Opciones para obtener la operación de estado del indexador. |
GetServiceStatisticsOptions |
Opciones para obtener la operación de estadísticas del servicio. |
GetSkillSetOptions |
Opciones para obtener la operación del conjunto de aptitudes. |
GetSynonymMapsOptions |
Opciones para la operación get synonymmaps. |
HnswAlgorithmConfiguration |
Contiene opciones de configuración específicas del algoritmo de vecinos más cercano aproximado que se usan durante el tiempo de indexación. |
ImageAnalysisSkillLanguage |
Define los idiomas admitidos para ImageAnalysisSkillKnownImageAnalysisSkillLanguage se puede usar indistintamente con este tipo. |
ImageDetail | |
IndexActionType |
Define valores para IndexActionType. |
IndexDocumentsAction |
Representa una acción de índice que funciona en un documento. |
IndexIterator |
Iterador para enumerar los índices que existen en el servicio Search. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración. |
IndexNameIterator |
Iterador para enumerar los índices que existen en el servicio Search. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración. |
IndexerExecutionEnvironment |
Valores conocidos admitidos por el servicioestándar: indica que Azure Cognitive Search puede determinar dónde se debe ejecutar el indexador. Este es el entorno predeterminado cuando no se especifica nada y es el valor recomendado. private: indica que el indexador debe ejecutarse con el entorno aprovisionado específicamente para el servicio de búsqueda. Esto solo se debe especificar como entorno de ejecución si el indexador necesita acceder a los recursos de forma segura a través de recursos de vínculo privado compartidos. |
IndexerExecutionStatus |
Define valores para IndexerExecutionStatus. |
IndexerStatus |
Define valores para IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Define los idiomas admitidos para KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage se puede usar indistintamente con este tipo. |
LexicalAnalyzer |
Contiene los casos posibles para Analyzer. |
LexicalAnalyzerName |
Define los valores de LexicalAnalyzerName. Valores conocidos admitidos por el servicioar.microsoft: Analizador de Microsoft para árabe. |
LexicalTokenizer |
Contiene los posibles casos de Tokenizer. |
LexicalTokenizerName |
Define valores para LexicalTokenizerName. Valores conocidos admitidos por el servicioclásico: tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html. |
ListDataSourceConnectionsOptions |
Opciones para una operación de orígenes de datos de lista. |
ListIndexersOptions |
Opciones para una operación de indexadores de lista. |
ListIndexesOptions |
Opciones de una operación de índices de lista. |
ListSkillsetsOptions |
Opciones para una operación de conjuntos de aptitudes de lista. |
ListSynonymMapsOptions |
Opciones de una operación synonymMaps de lista. |
MergeDocumentsOptions |
Opciones para la operación de combinación de documentos. |
MergeOrUploadDocumentsOptions |
Opciones para la operación de combinación o carga de documentos. |
MicrosoftStemmingTokenizerLanguage |
Define valores para MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Define valores para MicrosoftTokenizerLanguage. |
NarrowedModel |
Limita el tipo de modelo para incluir solo los campos seleccionados. |
OcrSkillLanguage |
Define los idiomas admitidos para OcrSkillKnownOcrSkillLanguage se pueden usar indistintamente con este tipo. |
PIIDetectionSkillMaskingMode |
Define los valores de PIIDetectionSkillMaskingMode. Valores conocidos admitidos por el servicionone: no se produce enmascaramiento y no se devolverá la salida maskedText. replace: reemplaza las entidades detectadas por el carácter especificado en el parámetro maskingCharacter. El carácter se repetirá hasta la longitud de la entidad detectada para que los desplazamientos se correspondan correctamente con el texto de entrada, así como con la salida maskedText. |
PhoneticEncoder |
Define valores para PhoneticEncoder. |
QueryAnswer |
Valor que especifica si las respuestas se deben devolver como parte de la respuesta de búsqueda.
Este parámetro solo es válido si el tipo de consulta es "semántico". Si se establece |
QueryCaption |
Valor que especifica si se deben devolver títulos como parte de la respuesta de búsqueda. Este parámetro solo es válido si el tipo de consulta es "semántico". Si se establece, la consulta devuelve los títulos extraídos de los pasajes clave de los documentos clasificados más altos. Cuando los títulos son 'extractive', el resaltado está habilitado de forma predeterminada. El valor predeterminado es "none". |
QueryType |
Define los valores de QueryType. |
RegexFlags |
Define marcas para la coincidencia de patrones regex. Valores conocidos admitidos por el servicioCANON_EQ: habilita la equivalencia canónica. CASE_INSENSITIVE: habilita la coincidencia sin distinción entre mayúsculas y minúsculas. COMENTARIOS: permite espacios en blanco y comentarios en el patrón. DOTALL: Habilita el modo de dotación. LITERAL: habilita el análisis literal del patrón. MULTILINE: habilita el modo multilínea. UNICODE_CASE: habilita el plegado de mayúsculas y minúsculas compatibles con Unicode. UNIX_LINES: habilita el modo de líneas Unix. |
ResetIndexerOptions |
Opciones para restablecer la operación del indexador. |
RunIndexerOptions |
Opciones para ejecutar la operación del indexador. |
ScoringFunction |
Contiene los posibles casos de ScoringFunction. |
ScoringFunctionAggregation |
Define los valores de ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Define los valores de ScoringFunctionInterpolation. |
ScoringStatistics |
Define valores para ScoringStatistics. |
SearchField |
Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo. |
SearchFieldArray |
Si |
SearchFieldDataType |
Define los valores de SearchFieldDataType. Entre los valores posibles se incluyen: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)' NB: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Contiene los casos posibles para Skill. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opciones para SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Opciones para SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Opciones para SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opciones para SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Opciones para SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Iterador para los resultados de búsqueda de una consulta paticular. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración. |
SearchMode |
Define valores para SearchMode. |
SearchOptions |
Opciones para confirmar una solicitud de búsqueda completa. |
SearchPick |
Elija profundamente campos de T mediante rutas de acceso válidas de OData de Cognitive Search $select. |
SearchRequestOptions |
Parámetros para filtrar, ordenar, facetar, paginar y otros comportamientos de consulta de búsqueda. |
SearchRequestQueryTypeOptions | |
SearchResult |
Contiene un documento encontrado por una consulta de búsqueda, además de metadatos asociados. |
SelectArray |
Si |
SelectFields |
Genera una unión de rutas de acceso válidas de OData de Cognitive Search $select para T mediante un recorrido posterior al orden del árbol de campos raíz en T. |
SemanticErrorMode |
partial: si se produce un error en el procesamiento semántico, los resultados parciales siguen devolviendo. La definición de resultados parciales depende del error del paso semántico y del motivo del error. fail: si hay una excepción durante el paso de procesamiento semántico, se producirá un error en la consulta y se devolverá el código HTTP adecuado en función del error. |
SemanticErrorReason |
maxWaitExceeded: si se estableció 'semanticMaxWaitInMilliseconds' y la duración del procesamiento semántico superó ese valor. Solo se devolvieron los resultados base. capacityOverloaded: la solicitud se ha limitado. Solo se devolvieron los resultados base. transitorio: error al menos un paso del proceso semántico. |
SemanticSearchResultsType |
baseResults: resultados sin ningún enriquecimiento semántico ni reranking. rerankedResults: los resultados se han reranked con el modelo de reranker y incluirán subtítulos semánticos. No incluirá ninguna respuesta, resaltado de respuestas ni subtítulo resaltados. |
SentimentSkillLanguage |
Define los idiomas admitidos para SentimentSkillKnownSentimentSkillLanguage se puede usar indistintamente con este tipo. |
SimilarityAlgorithm |
Contiene los posibles casos de similitud. |
SnowballTokenFilterLanguage |
Define los valores de SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Define los idiomas admitidos para SplitSkillKnownSplitSkillLanguage se puede usar indistintamente con este tipo. |
StemmerTokenFilterLanguage |
Define los valores de LematerTokenFilterLanguage. |
StopwordsList |
Define los valores de StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Opciones para recuperar sugerencias basadas en searchText. |
SuggestResult |
Resultado que contiene un documento encontrado por una consulta de sugerencia, además de metadatos asociados. |
TextSplitMode | |
TextTranslationSkillLanguage |
Define los idiomas admitidos para TextTranslationSkillKnownTextTranslationSkillLanguage se puede usar indistintamente con este tipo. |
TokenCharacterKind |
Define los valores de TokenCharacterKind. |
TokenFilter |
Contiene los posibles casos de TokenFilter. |
TokenFilterName |
Define los valores de TokenFilterName. Valores conocidos admitidos por el servicioarabic_normalization: filtro de token que aplica el normalizador árabe para normalizar la ortografía. Consulta http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html. |
UnionToIntersection | |
UploadDocumentsOptions |
Opciones para la operación de carga de documentos. |
VectorFilterMode |
Determina si se aplican o no filtros antes o después de realizar la búsqueda vectorial. |
VectorQuery |
Los parámetros de consulta para las consultas de búsqueda híbrida y vectorial. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Contiene opciones de configuración específicas del algoritmo utilizado durante la indexación o consulta. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
Métrica de similitud que se va a usar para las comparaciones de vectores. |
VisualFeature |
Enumeraciones
Funciones
create |
Método auxiliar para crear un objeto SynonymMap. Se trata de un método solo NodeJS. |
odata(Template |
Escape de una expresión de filtro de odata para evitar errores con literales de cadena entre comillas. Ejemplo de uso:
Para obtener más información sobre la sintaxis admitida, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Detalles de la función
createSynonymMapFromFile(string, string)
Método auxiliar para crear un objeto SynonymMap. Se trata de un método solo NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parámetros
- name
-
string
Nombre del synonymMap.
- filePath
-
string
Ruta de acceso del archivo que contiene los sinónimos (separadas por líneas nuevas)
Devoluciones
Promise<SynonymMap>
SynonymMap (objeto)
odata(TemplateStringsArray, unknown[])
Escape de una expresión de filtro de odata para evitar errores con literales de cadena entre comillas. Ejemplo de uso:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Para obtener más información sobre la sintaxis admitida, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parámetros
- strings
-
TemplateStringsArray
Matriz de cadenas para la expresión
- values
-
unknown[]
Matriz de valores para la expresión
Devoluciones
string