@azure/search-documents package
Clases
AzureKeyCredential |
Credencial basada en clave estática que admite la actualización del valor de clave subyacente. |
GeographyPoint |
Representa un punto geográfico en coordenadas globales. |
IndexDocumentsBatch |
Clase que se usa para realizar operaciones por lotes con varios documentos en el índice. |
SearchClient |
Clase que se usa para realizar operaciones en un índice de búsqueda, incluida la consulta de documentos en el índice, así como agregarlos, actualizarlos y quitarlos. |
SearchIndexClient |
Clase para realizar operaciones para administrar índices (crear, actualizar, enumerar y eliminar), & mapas de sinónimos. |
SearchIndexerClient |
Clase para realizar operaciones para administrar indexadores (crear, actualizar, enumerar y eliminar), orígenes de datos & conjuntos de aptitudes. |
SearchIndexingBufferedSender |
Clase que se usa para realizar operaciones almacenadas en búfer en un índice de búsqueda, incluida la adición, actualización y eliminación de ellos. |
Interfaces
AnalyzeRequest |
Especifica algunos componentes de texto y análisis que se usan para dividir ese texto en tokens. |
AnalyzeResult |
Resultado de probar un analizador en el texto. |
AnalyzedTokenInfo |
Información sobre un token devuelto por un analizador. |
AsciiFoldingTokenFilter |
Convierte caracteres alfabéticos, numéricos y simbólicos Unicode que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Básico latino") en sus equivalentes ASCII, si existen dichos equivalentes. Este filtro de token se implementa mediante Apache Lucene. |
AutocompleteItem |
Resultado de las solicitudes autocompletar. |
AutocompleteRequest |
Parámetros para la coincidencia aproximada y otros comportamientos de consulta de autocompletar. |
AutocompleteResult |
Resultado de la consulta Autocompletar. |
AzureActiveDirectoryApplicationCredentials |
Credenciales de una aplicación registrada creada para el servicio de búsqueda, que se usa para el acceso autenticado a las claves de cifrado almacenadas en Azure Key Vault. |
AzureOpenAIEmbeddingSkill |
Permite generar una inserción de vectores para una entrada de texto determinada mediante el recurso de Azure OpenAI. |
AzureOpenAIParameters |
Contiene los parámetros específicos del uso de un servicio Azure Open AI para la vectorización en el momento de la consulta. |
AzureOpenAIVectorizer |
Contiene los parámetros específicos del uso de un servicio Azure Open AI para la vectorización en el momento de la consulta. |
BM25Similarity |
Función de clasificación basada en el algoritmo de similitud okapi BM25. BM25 es un algoritmo similar a TF-IDF que incluye la normalización de longitud (controlada por el parámetro 'b'), así como la saturación de frecuencia de términos (controlada por el parámetro 'k1'). |
BaseCharFilter |
Tipo base para filtros de caracteres. |
BaseCognitiveServicesAccount |
Tipo base para describir cualquier recurso de servicio de Azure AI asociado a un conjunto de aptitudes. |
BaseDataChangeDetectionPolicy |
Tipo base para las directivas de detección de cambios de datos. |
BaseDataDeletionDetectionPolicy |
Tipo base para directivas de detección de eliminación de datos. |
BaseLexicalAnalyzer |
Tipo base para analizadores. |
BaseLexicalTokenizer |
Tipo base para tokenizadores. |
BaseScoringFunction |
Tipo base para funciones que pueden modificar las puntuaciones de documentos durante la clasificación. |
BaseSearchIndexerDataIdentity |
Tipo base abstracto para identidades de datos. |
BaseSearchIndexerSkill |
Tipo base para aptitudes. |
BaseSearchRequestOptions |
Parámetros para filtrar, ordenar, facetar, paginar y otros comportamientos de consulta de búsqueda. |
BaseTokenFilter |
Tipo base para filtros de token. |
BaseVectorQuery |
Los parámetros de consulta para las consultas de búsqueda híbrida y vectorial. |
BaseVectorSearchAlgorithmConfiguration |
Contiene opciones de configuración específicas del algoritmo utilizado durante la indexación o consulta. |
BaseVectorSearchCompression |
Contiene opciones de configuración específicas del método de compresión utilizado durante la indexación o consulta. |
BaseVectorSearchVectorizer |
Contiene detalles específicos de un método de vectorización que se usará durante el tiempo de consulta. |
BinaryQuantizationCompression |
Contiene opciones de configuración específicas del método de compresión de cuantificación binaria que se usa durante la indexación y la consulta. |
CjkBigramTokenFilter |
Forma bigrams de términos de CJK que se generan a partir del tokenizador estándar. Este filtro de token se implementa mediante Apache Lucene. |
ClassicSimilarity |
Algoritmo de similitud heredado que usa la implementación de TFIDFSimilarity de Lucene de TF-IDF. Esta variación de TF-IDF introduce la normalización estática de la longitud del documento, así como la coordinación de factores que penalizan los documentos que solo coinciden parcialmente con las consultas buscadas. |
ClassicTokenizer |
Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Este tokenizador se implementa mediante Apache Lucene. |
CognitiveServicesAccountKey |
Clave de cuenta de varias regiones de un recurso de servicio de Azure AI que está asociado a un conjunto de aptitudes. |
CommonGramTokenFilter |
Construya bigrams para términos que se producen con frecuencia durante la indexación. Los términos únicos todavía se indexan también, con bigrams superpuestos. Este filtro de token se implementa mediante Apache Lucene. |
ComplexField |
Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo. |
ConditionalSkill |
Aptitud que permite escenarios que requieren una operación booleana para determinar los datos que se van a asignar a una salida. |
CorsOptions |
Define las opciones para controlar el uso compartido de recursos entre orígenes (CORS) para un índice. |
CreateOrUpdateIndexOptions |
Opciones para la operación de creación o actualización del índice. |
CreateOrUpdateSkillsetOptions |
Opciones para la operación de creación o actualización del conjunto de aptitudes. |
CreateOrUpdateSynonymMapOptions |
Opciones para crear o actualizar la operación de mapa de sinónimos. |
CreateorUpdateDataSourceConnectionOptions |
Opciones para la operación de creación o actualización del origen de datos. |
CreateorUpdateIndexerOptions |
Opciones para la operación de creación o actualización del indexador. |
CustomAnalyzer |
Permite tomar el control sobre el proceso de conversión de texto en tokens indexables o que se pueden buscar. Se trata de una configuración definida por el usuario que consta de un único tokenizador predefinido y uno o varios filtros. El tokenizador es responsable de dividir texto en tokens y los filtros para modificar los tokens emitidos por el tokenizador. |
CustomEntity |
Objeto que contiene información sobre las coincidencias que se encontraron y metadatos relacionados. |
CustomEntityAlias |
Objeto complejo que se puede usar para especificar ortografías o sinónimos alternativos al nombre de la entidad raíz. |
CustomEntityLookupSkill |
Una aptitud busca texto de una lista personalizada definida por el usuario de palabras y frases. |
DefaultCognitiveServicesAccount |
Objeto vacío que representa el recurso de servicio de Azure AI predeterminado para un conjunto de aptitudes. |
DeleteDataSourceConnectionOptions |
Opciones para eliminar la operación del origen de datos. |
DeleteIndexOptions |
Opciones para eliminar la operación de índice. |
DeleteIndexerOptions |
Opciones para eliminar la operación del indexador. |
DeleteSkillsetOptions |
Opciones para eliminar la operación del conjunto de aptitudes. |
DeleteSynonymMapOptions |
Opciones para eliminar la operación de mapa de sinónimos. |
DictionaryDecompounderTokenFilter |
Descompone palabras compuestas encontradas en muchos idiomas alemanes. Este filtro de token se implementa mediante Apache Lucene. |
DistanceScoringFunction |
Define una función que aumenta las puntuaciones en función de la distancia desde una ubicación geográfica. |
DistanceScoringParameters |
Proporciona valores de parámetro a una función de puntuación de distancia. |
DocumentExtractionSkill |
Aptitud que extrae el contenido de un archivo dentro de la canalización de enriquecimiento. |
EdgeNGramTokenFilter |
Genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Este filtro de token se implementa mediante Apache Lucene. |
EdgeNGramTokenizer |
Tokeniza la entrada de un borde en n gramos de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene. |
ElisionTokenFilter |
Quita las elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Este filtro de token se implementa mediante Apache Lucene. |
EntityLinkingSkill |
Con Text Analytics API, extrae entidades vinculadas del texto. |
EntityRecognitionSkill |
Reconocimiento de entidades de Text Analytics. |
EntityRecognitionSkillV3 |
Con Text Analytics API, extrae entidades de diferentes tipos de texto. |
ExhaustiveKnnParameters |
Contiene los parámetros específicos del algoritmo KNN exhaustivo. |
ExtractiveQueryAnswer |
Extrae candidatos de respuesta del contenido de los documentos devueltos en respuesta a una consulta expresada como una pregunta en lenguaje natural. |
ExtractiveQueryCaption |
Extrae títulos de los documentos coincidentes que contienen pasajes relevantes para la consulta de búsqueda. |
FacetResult |
Un único cubo de un resultado de consulta de faceta. Informa del número de documentos con un valor de campo que se encuentra dentro de un intervalo determinado o que tiene un valor o intervalo determinado. |
FieldMapping |
Define una asignación entre un campo de un origen de datos y un campo de destino en un índice. |
FieldMappingFunction |
Representa una función que transforma un valor de un origen de datos antes de la indexación. |
FreshnessScoringFunction |
Define una función que aumenta las puntuaciones en función del valor de un campo de fecha y hora. |
FreshnessScoringParameters |
Proporciona valores de parámetro a una función de puntuación de actualización. |
GetDocumentOptions |
Opciones para recuperar un único documento. |
HighWaterMarkChangeDetectionPolicy |
Define una directiva de detección de cambios de datos que captura los cambios en función del valor de una columna de marca de agua alta. |
HnswParameters |
Contiene los parámetros específicos del algoritmo hnsw. |
ImageAnalysisSkill |
Una aptitud que analiza los archivos de imagen. Extrae un amplio conjunto de características visuales basadas en el contenido de la imagen. |
IndexDocumentsClient |
Cliente de documentos de índice |
IndexDocumentsOptions |
Opciones para la operación modificar el lote de índice. |
IndexDocumentsResult |
Respuesta que contiene el estado de las operaciones de todos los documentos de la solicitud de indexación. |
IndexerExecutionResult |
Representa el resultado de una ejecución individual del indexador. |
IndexingParameters |
Representa parámetros para la ejecución del indexador. |
IndexingParametersConfiguration |
Diccionario de propiedades de configuración específicas del indexador. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo. |
IndexingResult |
Estado de una operación de indexación para un único documento. |
IndexingSchedule |
Representa una programación para la ejecución del indexador. |
InputFieldMappingEntry |
Asignación de campos de entrada para una aptitud. |
KeepTokenFilter |
Filtro de token que solo mantiene los tokens con texto contenido en una lista especificada de palabras. Este filtro de token se implementa mediante Apache Lucene. |
KeyPhraseExtractionSkill |
Aptitud que usa el análisis de texto para la extracción de frases clave. |
KeywordMarkerTokenFilter |
Marca los términos como palabras clave. Este filtro de token se implementa mediante Apache Lucene. |
KeywordTokenizer |
Emite toda la entrada como un solo token. Este tokenizador se implementa mediante Apache Lucene. |
LanguageDetectionSkill |
Una aptitud que detecta el idioma del texto de entrada e informa de un código de idioma único para cada documento enviado en la solicitud. El código de idioma se empareja con una puntuación que indica la confianza del análisis. |
LengthTokenFilter |
Quita las palabras que son demasiado largas o demasiado cortas. Este filtro de token se implementa mediante Apache Lucene. |
LimitTokenFilter |
Limita el número de tokens durante la indexación. Este filtro de token se implementa mediante Apache Lucene. |
ListSearchResultsPageSettings |
Argumentos para recuperar la página siguiente de los resultados de búsqueda. |
LuceneStandardAnalyzer |
Analizador estándar de Apache Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop. |
LuceneStandardTokenizer |
Interrumpe el texto siguiendo las reglas de segmentación de texto Unicode. Este tokenizador se implementa mediante Apache Lucene. |
MagnitudeScoringFunction |
Define una función que aumenta las puntuaciones en función de la magnitud de un campo numérico. |
MagnitudeScoringParameters |
Proporciona valores de parámetro a una función de puntuación de magnitud. |
MappingCharFilter |
Filtro de caracteres que aplica asignaciones definidas con la opción asignaciones. La coincidencia es expansa (la coincidencia de patrones más larga en un punto dado gana). El reemplazo puede ser la cadena vacía. Este filtro de caracteres se implementa mediante Apache Lucene. |
MergeSkill |
Aptitud para combinar dos o más cadenas en una sola cadena unificada, con un delimitador definido por el usuario opcional que separa cada parte de componente. |
MicrosoftLanguageStemmingTokenizer |
Divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formularios base. |
MicrosoftLanguageTokenizer |
Divide el texto mediante reglas específicas del idioma. |
NGramTokenFilter |
Genera n-gramas de los tamaños especificados. Este filtro de token se implementa mediante Apache Lucene. |
NGramTokenizer |
Tokeniza la entrada en n-gramas de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene. |
OcrSkill |
Aptitud que extrae texto de los archivos de imagen. |
OutputFieldMappingEntry |
Asignación de campos de salida para una aptitud. |
PIIDetectionSkill |
Con Text Analytics API, extrae información personal de un texto de entrada y le ofrece la opción de enmascararlo. |
PathHierarchyTokenizer |
Tokenizador para jerarquías similares a la ruta de acceso. Este tokenizador se implementa mediante Apache Lucene. |
PatternAnalyzer |
Separa de forma flexible el texto en términos a través de un patrón de expresión regular. Este analizador se implementa mediante Apache Lucene. |
PatternCaptureTokenFilter |
Usa expresiones regulares de Java para emitir varios tokens: uno para cada grupo de captura en uno o varios patrones. Este filtro de token se implementa mediante Apache Lucene. |
PatternReplaceCharFilter |
Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar secuencias de caracteres para conservar y un patrón de reemplazo para identificar los caracteres que se van a reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb aa#bb". Este filtro de caracteres se implementa mediante Apache Lucene. |
PatternReplaceTokenFilter |
Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar secuencias de caracteres para conservar y un patrón de reemplazo para identificar los caracteres que se van a reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb aa#bb". Este filtro de token se implementa mediante Apache Lucene. |
PatternTokenizer |
Tokenizer que usa la coincidencia de patrones regex para construir tokens distintos. Este tokenizador se implementa mediante Apache Lucene. |
PhoneticTokenFilter |
Cree tokens para coincidencias fonéticas. Este filtro de token se implementa mediante Apache Lucene. |
QueryAnswerResult |
Una respuesta es un pasaje de texto extraído del contenido de los documentos más relevantes que coinciden con la consulta. Las respuestas se extraen de los resultados principales de la búsqueda. Los candidatos de respuesta se puntuan y se seleccionan las principales respuestas. |
QueryCaptionResult |
Los títulos son los pasajes más representativos del documento relativamente a la consulta de búsqueda. A menudo se usan como resumen de documentos. Los títulos solo se devuelven para las consultas de tipo |
ResourceCounter |
Representa el uso y la cuota de un recurso. |
ScalarQuantizationCompression |
Contiene opciones de configuración específicas del método de compresión de cuantificación escalar que se usa durante la indexación y la consulta. |
ScalarQuantizationParameters |
Contiene los parámetros específicos de la cuantificación escalar. |
ScoringProfile |
Define parámetros para un índice de búsqueda que influye en la puntuación en las consultas de búsqueda. |
SearchClientOptions |
Opciones de cliente que se usan para configurar las solicitudes de Cognitive Search API. |
SearchDocumentsPageResult |
Respuesta que contiene los resultados de la página de búsqueda de un índice. |
SearchDocumentsResult |
Respuesta que contiene los resultados de búsqueda de un índice. |
SearchDocumentsResultBase |
Respuesta que contiene los resultados de búsqueda de un índice. |
SearchIndex |
Representa una definición de índice de búsqueda, que describe los campos y el comportamiento de búsqueda de un índice. |
SearchIndexClientOptions |
Opciones de cliente que se usan para configurar las solicitudes de Cognitive Search API. |
SearchIndexStatistics |
Estadísticas de un índice determinado. Las estadísticas se recopilan periódicamente y no se garantiza que siempre sean up-to-date. |
SearchIndexer |
Representa un indexador. |
SearchIndexerClientOptions |
Opciones de cliente que se usan para configurar las solicitudes de Cognitive Search API. |
SearchIndexerDataContainer |
Representa información sobre la entidad (como la tabla de Azure SQL o la colección cosmosDB) que se indexará. |
SearchIndexerDataNoneIdentity |
Borra la propiedad de identidad de un origen de datos. |
SearchIndexerDataSourceConnection |
Representa una definición de origen de datos, que se puede usar para configurar un indexador. |
SearchIndexerDataUserAssignedIdentity |
Especifica la identidad de un origen de datos que se va a usar. |
SearchIndexerError |
Representa un error de indexación de elemento o de nivel de documento. |
SearchIndexerIndexProjection |
Definición de proyecciones adicionales a índices de búsqueda secundarios. |
SearchIndexerIndexProjectionParameters |
Diccionario de propiedades de configuración específicas de proyección de índice. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo. |
SearchIndexerIndexProjectionSelector |
Descripción de los datos que se van a almacenar en el índice de búsqueda designado. |
SearchIndexerKnowledgeStore |
Definición de proyecciones adicionales en azure blob, tabla o archivos, de datos enriquecidos. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Clase abstracta para compartir propiedades entre selectores concretos. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definición de proyección para qué datos almacenar en Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definición de proyección de los datos que se van a almacenar en Azure Blob. |
SearchIndexerKnowledgeStoreParameters |
Diccionario de propiedades de configuración específicas del almacén de conocimiento. Cada nombre es el nombre de una propiedad específica. Cada valor debe ser de un tipo primitivo. |
SearchIndexerKnowledgeStoreProjection |
Objeto contenedor para varios selectores de proyección. |
SearchIndexerKnowledgeStoreProjectionSelector |
Clase abstracta para compartir propiedades entre selectores concretos. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Descripción de los datos que se van a almacenar en tablas de Azure. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Lista de aptitudes. |
SearchIndexerStatus |
Representa el estado actual y el historial de ejecución de un indexador. |
SearchIndexerWarning |
Representa una advertencia de nivel de elemento. |
SearchIndexingBufferedSenderOptions |
Opciones para SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Una clave de cifrado administrada por el cliente en Azure Key Vault. Las claves que cree y administre se pueden usar para cifrar o descifrar datos en reposo en Azure Cognitive Search, como índices y mapas de sinónimos. |
SearchServiceStatistics |
Respuesta de una solicitud de obtención de estadísticas de servicio. Si se ejecuta correctamente, incluye contadores y límites de nivel de servicio. |
SearchSuggester |
Define cómo se debe aplicar la API suggest a un grupo de campos del índice. |
SemanticConfiguration |
Define una configuración específica que se usará en el contexto de las funcionalidades semánticas. |
SemanticField |
Campo que se usa como parte de la configuración semántica. |
SemanticPrioritizedFields |
Describe los campos de título, contenido y palabras clave que se usarán para la clasificación semántica, los subtítulos, los resaltados y las respuestas. |
SemanticSearch |
Define parámetros para un índice de búsqueda que influye en las funcionalidades semánticas. |
SemanticSearchOptions |
Define opciones para consultas de búsqueda semántica |
SentimentSkill |
Análisis de opiniones positivas y negativas del análisis de texto, puntuado como un valor de punto flotante en un intervalo de cero a 1. |
SentimentSkillV3 |
Con Text Analytics API, evalúa texto no estructurado y, para cada registro, proporciona etiquetas de opinión (como "negativa", "neutral" y "positiva") en función de la puntuación de confianza más alta encontrada por el servicio en una oración y en el nivel de documento. |
ServiceCounters |
Representa contadores y cuotas de recursos de nivel de servicio. |
ServiceLimits |
Representa varios límites de nivel de servicio. |
ShaperSkill |
Aptitud para volver a dar forma a las salidas. Crea un tipo complejo para admitir campos compuestos (también conocidos como campos de varias partes). |
ShingleTokenFilter |
Crea combinaciones de tokens como un único token. Este filtro de token se implementa mediante Apache Lucene. |
Similarity |
Tipo base para algoritmos de similitud. Los algoritmos de similitud se usan para calcular puntuaciones que vinculan consultas a documentos. Cuanto mayor sea la puntuación, más relevante será el documento para esa consulta específica. Esas puntuaciones se usan para clasificar los resultados de la búsqueda. |
SimpleField |
Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo. |
SnowballTokenFilter |
Filtro que deriva las palabras mediante un lematizador generado por Snowball. Este filtro de token se implementa mediante Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Define una directiva de detección de eliminación de datos que implementa una estrategia de eliminación temporal. Determina si un elemento se debe eliminar en función del valor de una columna designada "eliminación temporal". |
SplitSkill |
Aptitud para dividir una cadena en fragmentos de texto. |
SqlIntegratedChangeTrackingPolicy |
Define una directiva de detección de cambios de datos que captura los cambios mediante la característica Seguimiento de cambios integrado de Azure SQL Database. |
StemmerOverrideTokenFilter |
Proporciona la capacidad de invalidar otros filtros de lematización con lematización personalizada basada en diccionarios. Cualquier término con lematización de diccionario se marcará como palabras clave para que no se lematice con lematizadores hacia abajo de la cadena. Debe colocarse antes de los filtros de lematización. Este filtro de token se implementa mediante Apache Lucene. |
StemmerTokenFilter |
Filtro de lematización específico del idioma. Este filtro de token se implementa mediante Apache Lucene. |
StopAnalyzer |
Divide el texto en letras no letras; Aplica los filtros de token en minúsculas y palabras irrelevantes. Este analizador se implementa mediante Apache Lucene. |
StopwordsTokenFilter |
Quita las palabras irrelevantes de una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene. |
SuggestDocumentsResult |
Respuesta que contiene los resultados de la consulta de sugerencias de un índice. |
SuggestRequest |
Parámetros para filtrar, ordenar, coincidencia aproximada y otros comportamientos de consulta de sugerencias. |
SynonymMap |
Representa una definición de mapa de sinónimos. |
SynonymTokenFilter |
Coincide con sinónimos de una o varias palabras en una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene. |
TagScoringFunction |
Define una función que aumenta las puntuaciones de documentos con valores de cadena que coinciden con una lista determinada de etiquetas. |
TagScoringParameters |
Proporciona valores de parámetro a una función de puntuación de etiquetas. |
TextTranslationSkill |
Aptitud para traducir texto de un idioma a otro. |
TextWeights |
Define pesos en campos de índice para los que las coincidencias deben aumentar la puntuación en las consultas de búsqueda. |
TruncateTokenFilter |
Trunca los términos a una longitud específica. Este filtro de token se implementa mediante Apache Lucene. |
UaxUrlEmailTokenizer |
Tokeniza las direcciones URL y los correos electrónicos como un token. Este tokenizador se implementa mediante Apache Lucene. |
UniqueTokenFilter |
Filtra los tokens con el mismo texto que el token anterior. Este filtro de token se implementa mediante Apache Lucene. |
VectorSearch |
Contiene opciones de configuración relacionadas con la búsqueda vectorial. |
VectorSearchOptions |
Define las opciones para las consultas de búsqueda vectorial. |
VectorSearchProfile |
Define una combinación de configuraciones que se van a usar con la búsqueda vectorial. |
VectorizableTextQuery |
Los parámetros de consulta que se van a usar para la búsqueda vectorial cuando se proporciona un valor de texto que debe vectorizarse. |
VectorizedQuery |
Parámetros de consulta que se usarán para la búsqueda vectorial cuando se proporciona un valor de vector sin formato. |
WebApiParameters |
Especifica las propiedades para conectarse a un vectorizador definido por el usuario. |
WebApiSkill |
Una aptitud que puede llamar a un punto de conexión de API web, lo que le permite ampliar un conjunto de aptitudes haciendo que llame al código personalizado. |
WebApiVectorizer |
Especifica un vectorizador definido por el usuario para generar la inserción de vectores de una cadena de consulta. La integración de un vectorizador externo se logra mediante la interfaz de API web personalizada de un conjunto de aptitudes. |
WordDelimiterTokenFilter |
Divide palabras en subpalabras y realiza transformaciones opcionales en grupos de subwords. Este filtro de token se implementa mediante Apache Lucene. |
Alias de tipos
AnalyzeTextOptions |
Opciones para analizar la operación de texto. |
AutocompleteMode |
Define valores para AutocompleteMode. |
AutocompleteOptions |
Opciones para recuperar el texto de finalización de un searchText parcial. |
AzureOpenAIModelName |
Define valores para AzureOpenAIModelName. Valores conocidos admitidos por el servicio
inserción de texto-ada-002 |
BlobIndexerDataToExtract | |
BlobIndexerImageAction | |
BlobIndexerPDFTextRotationAlgorithm | |
BlobIndexerParsingMode | |
CharFilter |
Contiene los posibles casos de CharFilter. |
CharFilterName |
Define valores para CharFilterName. Valores conocidos admitidos por el serviciohtml_strip: filtro de caracteres que intenta quitar construcciones HTML. Consulte https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Define valores para CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Contiene los posibles casos de CognitiveServicesAccount. |
ComplexDataType |
Define valores para ComplexDataType. Los valores posibles son: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Opciones para realizar la operación de recuento en el índice. |
CreateDataSourceConnectionOptions |
Opciones para crear una operación de origen de datos. |
CreateIndexOptions |
Opciones para crear la operación de índice. |
CreateIndexerOptions |
Opciones para crear la operación del indexador. |
CreateSkillsetOptions |
Opciones para crear la operación del conjunto de aptitudes. |
CreateSynonymMapOptions |
Opciones para crear la operación de mapa de sinónimos. |
CustomEntityLookupSkillLanguage | |
DataChangeDetectionPolicy |
Contiene los posibles casos de DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Contiene los posibles casos de DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Opciones para la operación de eliminación de documentos. |
EdgeNGramTokenFilterSide |
Define valores para EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage | |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Contiene opciones de configuración específicas del algoritmo KNN exhaustivo utilizado durante la consulta, que realizará la búsqueda por fuerza bruta en todo el índice vectorial. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Opciones para obtener la operación de origen de datos. |
GetIndexOptions |
Opciones para obtener la operación de índice. |
GetIndexStatisticsOptions |
Opciones para obtener la operación de obtención de estadísticas de índice. |
GetIndexerOptions |
Opciones para obtener la operación del indexador. |
GetIndexerStatusOptions |
Opciones para obtener la operación de estado del indexador. |
GetServiceStatisticsOptions |
Opciones para obtener la operación de estadísticas de servicio. |
GetSkillSetOptions |
Opciones para obtener la operación del conjunto de aptitudes. |
GetSynonymMapsOptions |
Opciones para obtener la operación de mapas de sinónimos. |
HnswAlgorithmConfiguration |
Contiene opciones de configuración específicas del algoritmo de vecinos más próximo que se usan durante el tiempo de indexación. |
ImageAnalysisSkillLanguage | |
ImageDetail | |
IndexActionType |
Define valores para IndexActionType. |
IndexDocumentsAction |
Representa una acción de índice que funciona en un documento. |
IndexIterator |
Iterador para enumerar los índices que existen en el servicio search. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración. |
IndexNameIterator |
Iterador para enumerar los índices que existen en el servicio search. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración. |
IndexProjectionMode |
Define valores para IndexProjectionMode. Valores conocidos admitidos por el servicio
skipIndexingParentDocuments: el documento de origen se omitirá de escribir en el índice de destino del indexador. |
IndexerExecutionEnvironment | |
IndexerExecutionStatus |
Define valores para IndexerExecutionStatus. |
IndexerStatus |
Define valores para IndexerStatus. |
KeyPhraseExtractionSkillLanguage | |
LexicalAnalyzer |
Contiene los posibles casos para analyzer. |
LexicalAnalyzerName |
Define valores para LexicalAnalyzerName. Valores conocidos admitidos por el servicio
ar.microsoft: analizador de Microsoft para árabe. |
LexicalTokenizer |
Contiene los posibles casos de Tokenizer. |
LexicalTokenizerName |
Define valores para LexicalTokenizerName. Valores conocidos admitidos por el servicio
clásico: tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Opciones para una operación de orígenes de datos de lista. |
ListIndexersOptions |
Opciones para una operación de indexadores de lista. |
ListIndexesOptions |
Opciones para una operación de índices de lista. |
ListSkillsetsOptions |
Opciones para una operación de conjuntos de aptitudes de lista. |
ListSynonymMapsOptions |
Opciones para una operación synonymMaps de lista. |
MergeDocumentsOptions |
Opciones para la operación de combinación de documentos. |
MergeOrUploadDocumentsOptions |
Opciones para la operación de combinación o carga de documentos. |
MicrosoftStemmingTokenizerLanguage |
Define los valores de MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Define valores para MicrosoftTokenizerLanguage. |
NarrowedModel |
Limita el tipo de modelo para incluir solo los campos seleccionados. |
OcrLineEnding |
Define valores para OcrLineEnding. Valores conocidos admitidos por el servicio
espacio: las líneas están separadas por un solo carácter de espacio. |
OcrSkillLanguage | |
PIIDetectionSkillMaskingMode | |
PhoneticEncoder |
Define valores para PhoneticEncoder. |
QueryAnswer |
Valor que especifica si las respuestas se deben devolver como parte de la respuesta de búsqueda.
Este parámetro solo es válido si el tipo de consulta es "semántico". Si se establece en |
QueryCaption |
Valor que especifica si se deben devolver títulos como parte de la respuesta de búsqueda. Este parámetro solo es válido si el tipo de consulta es "semántico". Si se establece, la consulta devuelve títulos extraídos de los pasajes clave de los documentos clasificados más altos. Cuando captions es "extractive", el resaltado está habilitado de forma predeterminada. El valor predeterminado es "none". |
QueryType |
Define valores para QueryType. |
RegexFlags | |
ResetIndexerOptions |
Opciones para restablecer la operación del indexador. |
RunIndexerOptions |
Opciones para ejecutar la operación del indexador. |
ScoringFunction |
Contiene los posibles casos de ScoringFunction. |
ScoringFunctionAggregation |
Define valores para ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Define valores para ScoringFunctionInterpolation. |
ScoringStatistics |
Define valores para ScoringStatistics. |
SearchField |
Representa un campo en una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo. |
SearchFieldArray |
Si |
SearchFieldDataType |
Define valores para SearchFieldDataType. Valores conocidos admitidos por el servicio:Edm.String: indica que un campo contiene una cadena. Edm.Int32: indica que un campo contiene un entero de 32 bits con signo. Edm.Int64: indica que un campo contiene un entero de 64 bits con signo. Edm.Double: indica que un campo contiene un número de punto flotante de precisión doble IEEE. Edm.Boolean : indica que un campo contiene un valor booleano (true o false). Edm.DateTimeOffset: indica que un campo contiene un valor de fecha y hora, incluida la información de zona horaria. Edm.GeographyPoint: indica que un campo contiene una ubicación geográfica en términos de longitud y latitud. Edm.ComplexType: indica que un campo contiene uno o varios objetos complejos que, a su vez, tienen subcampos de otros tipos. Edm.Single: indica que un campo contiene un número de punto flotante de precisión única. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.Single). Edm.Half: indica que un campo contiene un número de punto flotante de precisión media. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.Half). Edm.Int16: indica que un campo contiene un entero de 16 bits con signo. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.Int16). Edm.SByte: indica que un campo contiene un entero de 8 bits con signo. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.SByte). Edm.Byte: indica que un campo contiene un entero de 8 bits sin signo. Esto solo es válido cuando se usa como parte de un tipo de colección, es decir, Collection(Edm.Byte). |
SearchIndexerDataIdentity |
Contiene los posibles casos para SearchIndexerDataIdentity. |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Contiene los posibles casos para Skill. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opciones para SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Opciones para SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Opciones para SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opciones para SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Opciones para SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Iterador para los resultados de búsqueda de una consulta paticular. Realizará solicitudes según sea necesario durante la iteración. Use .byPage() para realizar una solicitud al servidor por iteración. |
SearchMode |
Define valores para SearchMode. |
SearchOptions |
Opciones para confirmar una solicitud de búsqueda completa. |
SearchPick |
Elija profundamente campos de T mediante rutas de acceso válidas de OData de Cognitive Search $select. |
SearchRequestOptions |
Parámetros para filtrar, ordenar, facetar, paginar y otros comportamientos de consulta de búsqueda. |
SearchRequestQueryTypeOptions | |
SearchResult |
Contiene un documento encontrado por una consulta de búsqueda, además de metadatos asociados. |
SelectArray |
Si |
SelectFields |
Genera una unión de rutas de acceso válidas de OData de Cognitive Search $select para T mediante un recorrido posterior al orden del árbol de campos que se basa en T. |
SemanticErrorMode | |
SemanticErrorReason | |
SemanticSearchResultsType | |
SentimentSkillLanguage | |
SimilarityAlgorithm |
Contiene los posibles casos de similitud. |
SnowballTokenFilterLanguage |
Define valores para SnowballTokenFilterLanguage. |
SplitSkillLanguage | |
StemmerTokenFilterLanguage |
Define valores para LematerTokenFilterLanguage. |
StopwordsList |
Define valores para StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Opciones para recuperar sugerencias basadas en searchText. |
SuggestResult |
Resultado que contiene un documento encontrado por una consulta de sugerencia, además de metadatos asociados. |
TextSplitMode | |
TextTranslationSkillLanguage | |
TokenCharacterKind |
Define valores para TokenCharacterKind. |
TokenFilter |
Contiene los posibles casos de TokenFilter. |
TokenFilterName |
Define valores para TokenFilterName. Valores conocidos admitidos por el servicio
arabic_normalization: filtro de token que aplica el normalizador árabe para normalizar la ortografía. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Opciones para la operación de carga de documentos. |
VectorEncodingFormat |
Define valores para VectorEncodingFormat. Valores conocidos admitidos por el serviciopackedBit: formato de codificación que representa bits empaquetados en un tipo de datos más amplio. |
VectorFilterMode | |
VectorQuery |
Los parámetros de consulta para las consultas de búsqueda híbrida y vectorial. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Contiene opciones de configuración específicas del algoritmo utilizado durante la indexación o consulta. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric | |
VectorSearchCompression |
Contiene opciones de configuración específicas del método de compresión utilizado durante la indexación o consulta. |
VectorSearchCompressionKind |
Define valores para VectorSearchCompressionKind. Valores conocidos admitidos por el servicio
scalarQuantization: Cuantificación escalar, un tipo de método de compresión. En la cuantificación escalar, los valores de vectores originales se comprimen en un tipo más estrecho al discretizar y representar cada componente de un vector mediante un conjunto reducido de valores cuantificados, lo que reduce el tamaño general de los datos. |
VectorSearchCompressionTarget |
Define valores para VectorSearchCompressionTarget. Valores conocidos admitidos por el servicioint8 |
VectorSearchVectorizer |
Contiene opciones de configuración sobre cómo vectorizar consultas vectoriales de texto. |
VectorSearchVectorizerKind |
Define valores para VectorSearchVectorizerKind. Valores conocidos admitidos por el servicio
azureOpenAI: genere incrustaciones mediante un recurso de Azure OpenAI en el momento de la consulta. |
VisualFeature |
Enumeraciones
KnownAnalyzerNames |
Define valores para AnalyzerName. Consulte https://docs.microsoft.com/rest/api/searchservice/Language-support |
KnownAzureOpenAIModelName |
Los valores conocidos de AzureOpenAIModelName que acepta el servicio. |
KnownBlobIndexerDataToExtract |
Los valores conocidos de BlobIndexerDataToExtract que acepta el servicio. |
KnownBlobIndexerImageAction |
Valores conocidos de BlobIndexerImageAction que acepta el servicio. |
KnownBlobIndexerPDFTextRotationAlgorithm |
Los valores conocidos de BlobIndexerPDFTextRotationAlgorithm que acepta el servicio. |
KnownBlobIndexerParsingMode |
Valores conocidos de blobIndexerParsingMode que acepta el servicio. |
KnownCharFilterNames |
Los valores conocidos de CharFilterName que acepta el servicio. |
KnownCustomEntityLookupSkillLanguage |
Los valores conocidos de CustomEntityLookupSkillLanguage que acepta el servicio. |
KnownEntityCategory |
Valores conocidos de EntityCategory que acepta el servicio. |
KnownEntityRecognitionSkillLanguage |
Los valores conocidos de EntityRecognitionSkillLanguage que acepta el servicio. |
KnownImageAnalysisSkillLanguage |
Los valores conocidos de ImageAnalysisSkillLanguage que acepta el servicio. |
KnownImageDetail |
Valores conocidos de ImageDetail que acepta el servicio. |
KnownIndexProjectionMode |
Valores conocidos de IndexProjectionMode que acepta el servicio. |
KnownIndexerExecutionEnvironment |
Valores conocidos de IndexerExecutionEnvironment que acepta el servicio. |
KnownKeyPhraseExtractionSkillLanguage |
Los valores conocidos de KeyPhraseExtractionSkillLanguage que acepta el servicio. |
KnownOcrLineEnding |
Valores conocidos de OcrLineEnding que acepta el servicio. |
KnownOcrSkillLanguage |
Los valores conocidos de OcrSkillLanguage que acepta el servicio. |
KnownPIIDetectionSkillMaskingMode |
Valores conocidos de PIIDetectionSkillMaskingMode que acepta el servicio. |
KnownRegexFlags |
Los valores conocidos de RegexFlags que acepta el servicio. |
KnownSearchAudience |
Valores conocidos para la audiencia de búsqueda |
KnownSearchFieldDataType |
Los valores conocidos de SearchFieldDataType que acepta el servicio. |
KnownSearchIndexerDataSourceType |
Valores conocidos de SearchIndexerDataSourceType que acepta el servicio. |
KnownSemanticErrorMode |
Los valores conocidos de SemanticErrorMode que acepta el servicio. |
KnownSemanticErrorReason |
Los valores conocidos de SemanticErrorReason que acepta el servicio. |
KnownSemanticSearchResultsType |
Valores conocidos de SemanticSearchResultsType que acepta el servicio. |
KnownSentimentSkillLanguage |
Los valores conocidos de SentimentSkillLanguage que acepta el servicio. |
KnownSplitSkillLanguage |
Los valores conocidos de SplitSkillLanguage que acepta el servicio. |
KnownTextSplitMode |
Los valores conocidos de TextSplitMode que acepta el servicio. |
KnownTextTranslationSkillLanguage |
Los valores conocidos de TextTranslationSkillLanguage que acepta el servicio. |
KnownTokenFilterNames |
Los valores conocidos de TokenFilterName que acepta el servicio. |
KnownTokenizerNames |
Los valores conocidos de LexicalTokenizerName que acepta el servicio. |
KnownVectorEncodingFormat |
Valores conocidos de VectorEncodingFormat que acepta el servicio. |
KnownVectorFilterMode |
Los valores conocidos de VectorFilterMode que acepta el servicio. |
KnownVectorQueryKind |
Valores conocidos de VectorQueryKind que acepta el servicio. |
KnownVectorSearchAlgorithmKind |
Valores conocidos de VectorSearchAlgorithmKind que acepta el servicio. |
KnownVectorSearchAlgorithmMetric |
Valores conocidos de VectorSearchAlgorithmMetric que acepta el servicio. |
KnownVectorSearchCompressionKind |
Valores conocidos de VectorSearchCompressionKind que acepta el servicio. |
KnownVectorSearchCompressionTarget |
Valores conocidos de VectorSearchCompressionTarget que acepta el servicio. |
KnownVectorSearchVectorizerKind |
Valores conocidos de VectorSearchVectorizerKind que acepta el servicio. |
KnownVisualFeature |
Valores conocidos de visualFeature que acepta el servicio. |
Funciones
create |
Método auxiliar para crear un objeto SynonymMap. Se trata de un método solo NodeJS. |
odata(Template |
Escape de una expresión de filtro de odata para evitar errores con literales de cadena entre comillas. Uso de ejemplo:
Para obtener más información sobre la sintaxis admitida, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Detalles de la función
createSynonymMapFromFile(string, string)
Método auxiliar para crear un objeto SynonymMap. Se trata de un método solo NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parámetros
- name
-
string
Nombre del objeto SynonymMap.
- filePath
-
string
Ruta de acceso del archivo que contiene los sinónimos (separados por nuevas líneas)
Devoluciones
Promise<SynonymMap>
SynonymMap (objeto)
odata(TemplateStringsArray, unknown[])
Escape de una expresión de filtro de odata para evitar errores con literales de cadena entre comillas. Uso de ejemplo:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Para obtener más información sobre la sintaxis admitida, consulte: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parámetros
- strings
-
TemplateStringsArray
Matriz de cadenas para la expresión
- values
-
unknown[]
Matriz de valores para la expresión
Devoluciones
string