@azure/search-documents package
Классы
AzureKeyCredential |
Учетные данные на основе статического ключа, поддерживающие обновление значения базового ключа. |
GeographyPoint |
Представляет географическую точку в глобальных координатах. |
IndexDocumentsBatch |
Класс, используемый для выполнения пакетных операций с несколькими документами в индексе. |
SearchClient |
Класс, используемый для выполнения операций с индексом поиска, включая запрос документов в индексе, а также их добавление, обновление и удаление. |
SearchIndexClient |
Класс для выполнения операций по управлению (созданию, обновлению, перечислению и удалению) индексов, & синонимов. |
SearchIndexerClient |
Класс для выполнения операций по управлению (созданию, обновлению, перечислению и удалению) индексаторов, источниками данных & наборами навыков. |
SearchIndexingBufferedSender |
Класс, используемый для выполнения буферизованных операций с индексом поиска, включая их добавление, обновление и удаление. |
Интерфейсы
AnalyzeRequest |
Указывает некоторые компоненты текста и анализа, используемые для разбиения этого текста на маркеры. |
AnalyzeResult |
Результат тестирования анализатора в тексте. |
AnalyzedTokenInfo |
Сведения о маркере, возвращаемом анализатором. |
AsciiFoldingTokenFilter |
Преобразует буквенные, числовые и символические символы Юникода, которые не входят в первые 127 символов ASCII (блок Юникода "Базовый латиница"), в их эквиваленты ASCII, если такие эквиваленты существуют. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
AutocompleteItem |
Результат запросов автозаполнения. |
AutocompleteRequest |
Параметры для нечеткого сопоставления и других поведений автозавершения запросов. |
AutocompleteResult |
Результат запроса автозаполнения. |
AzureActiveDirectoryApplicationCredentials |
Учетные данные зарегистрированного приложения, созданного для службы поиска, которые используются для доступа с проверкой подлинности к ключам шифрования, хранящимся в Azure Key Vault. |
BM25Similarity |
Ранжирующая функция на основе алгоритма сходства Okapi BM25. BM25 — это алгоритм, подобный TF-IDF, который включает нормализацию длины (управляется параметром b), а также насыщение термином частоты (управляется параметром k1). |
BaseCharFilter |
Базовый тип для символьных фильтров. |
BaseCognitiveServicesAccount |
Базовый тип для описания любого ресурса службы ИИ Azure, присоединенного к набору навыков. |
BaseDataChangeDetectionPolicy |
Базовый тип для политик обнаружения изменений данных. |
BaseDataDeletionDetectionPolicy |
Базовый тип для политик обнаружения удаления данных. |
BaseLexicalAnalyzer |
Базовый тип для анализаторов. |
BaseLexicalTokenizer |
Базовый тип для создателей маркеров. |
BaseScoringFunction |
Базовый тип для функций, которые могут изменять оценки документов во время ранжирования. |
BaseSearchIndexerSkill |
Базовый тип для навыков. |
BaseSearchRequestOptions |
Параметры для фильтрации, сортировки, фасетирования, разбиения по страницам и других поведений поисковых запросов. |
BaseTokenFilter |
Базовый тип для фильтров маркеров. |
BaseVectorQuery |
Параметры запроса для векторных и гибридных поисковых запросов. |
BaseVectorSearchAlgorithmConfiguration |
Содержит параметры конфигурации, относящиеся к алгоритму, используемому во время индексирования и (или) запросов. |
CjkBigramTokenFilter |
Формирует биграмы терминов CJK, созданные из стандартного создателя маркеров. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
ClassicSimilarity |
Устаревший алгоритм сходства, который использует реализацию Lucene TFIDFSimilarity TF-IDF. Этот вариант TF-IDF вводит нормализацию статической длины документов, а также координирующих факторов, которые наказывают документы, которые лишь частично соответствуют поисковым запросам. |
ClassicTokenizer |
Грамматический создатель маркеров, который подходит для обработки большинства документов на европейском языке. Этот создатель маркеров реализуется с помощью Apache Lucene. |
CognitiveServicesAccountKey |
Ресурс службы ИИ Azure, подготовленный с ключом, подключенным к набору навыков. |
CommonGramTokenFilter |
Создает биграммы для часто встречающихся терминов при индексировании. Отдельные термины также индексируются с наложением биграмм. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
ComplexField |
Представляет поле в определении индекса, которое описывает имя, тип данных и поведение поиска поля. |
ConditionalSkill |
Навык, который позволяет сценариям, для которых требуется логическая операция для определения данных, назначаемых выходным данным. |
CorsOptions |
Определяет параметры для управления общим доступом к ресурсам независимо от источника (CORS) для индекса. |
CreateOrUpdateIndexOptions |
Параметры для операции создания и обновления индекса. |
CreateOrUpdateSkillsetOptions |
Параметры для операции создания и обновления набора навыков. |
CreateOrUpdateSynonymMapOptions |
Параметры для операции создания и обновления синонимов. |
CreateorUpdateDataSourceConnectionOptions |
Параметры для операции создания и обновления источника данных. |
CreateorUpdateIndexerOptions |
Параметры для операции создания и обновления индексатора. |
CustomAnalyzer |
Позволяет управлять процессом преобразования текста в индексируемые и доступные для поиска маркеры. Это определяемая пользователем конфигурация, состоящая из одного предопределенного создателя маркеров и одного или нескольких фильтров. Создатель маркеров отвечает за разбиение текста на маркеры и фильтры для изменения маркеров, выдаваемых создателем маркеров. |
CustomEntity |
Объект , содержащий сведения о найденных совпадениях и связанные метаданные. |
CustomEntityAlias |
Сложный объект, который можно использовать для указания альтернативных орфографических выражений или синонимов для имени корневой сущности. |
CustomEntityLookupSkill |
Навык ищет текст из пользовательского списка слов и фраз. |
DefaultCognitiveServicesAccount |
Пустой объект, представляющий ресурс службы ИИ Azure по умолчанию для набора навыков. |
DeleteDataSourceConnectionOptions |
Параметры операции удаления источника данных. |
DeleteIndexOptions |
Параметры операции удаления индекса. |
DeleteIndexerOptions |
Параметры для операции удаления индексатора. |
DeleteSkillsetOptions |
Параметры для удаления операции набора навыков. |
DeleteSynonymMapOptions |
Параметры для операции удаления синонимов. |
DictionaryDecompounderTokenFilter |
Разбивает составные слова, распространенные во многих германских языках. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
DistanceScoringFunction |
Определяет функцию, повышающую оценку на основе расстояния от географического расположения. |
DistanceScoringParameters |
Предоставляет значения параметров для функции оценки расстояния. |
DocumentExtractionSkill |
Навык, который извлекает содержимое из файла в конвейере обогащения. |
EdgeNGramTokenFilter |
Создает n-граммов заданного размера, начиная с передней или задней части входного маркера. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
EdgeNGramTokenizer |
Маркеризует входные данные из края в n-граммы заданного размера. Этот создатель маркеров реализуется с помощью Apache Lucene. |
ElisionTokenFilter |
Удаляет элизии. Например, "l'avion" (плоскость) будет преобразован в "avion" (плоскость). Этот фильтр маркеров реализуется с помощью Apache Lucene. |
EntityLinkingSkill |
С помощью API Анализ текста извлекает связанные сущности из текста. |
EntityRecognitionSkill |
Распознавание сущностей анализа текста. |
EntityRecognitionSkillV3 |
С помощью API Анализ текста извлекает сущности разных типов из текста. |
ExhaustiveKnnParameters |
Содержит параметры, относящиеся к исчерпывающим алгоритмам KNN. |
ExtractiveQueryAnswer |
Извлекает кандидаты ответов из содержимого документов, возвращаемых в ответ на запрос, выраженный в виде вопроса на естественном языке. |
ExtractiveQueryCaption |
Извлекает субтитры из соответствующих документов, содержащих фрагменты, относящиеся к поисковому запросу. |
FacetResult |
Один сегмент результата запроса аспекта. Сообщает количество документов со значением поля, которое попадает в определенный диапазон или имеет определенное значение или интервал. |
FieldMapping |
Определяет сопоставление между полем в источнике данных и целевым полем в индексе. |
FieldMappingFunction |
Представляет функцию, которая преобразует значение из источника данных перед индексированием. |
FreshnessScoringFunction |
Определяет функцию, повышающую оценку на основе значения поля даты и времени. |
FreshnessScoringParameters |
Предоставляет значения параметров для функции оценки актуальности. |
GetDocumentOptions |
Параметры для получения одного документа. |
HighWaterMarkChangeDetectionPolicy |
Определяет политику обнаружения изменений данных, которая фиксирует изменения на основе значения столбца высокой отметки воды. |
HnswParameters |
Содержит параметры, относящиеся к алгоритму hnsw. |
ImageAnalysisSkill |
Навык, который анализирует файлы изображений. Он извлекает широкий набор визуальных функций на основе содержимого изображения. |
IndexDocumentsClient |
Клиент индексирования документов |
IndexDocumentsOptions |
Параметры пакетной операции изменения индекса. |
IndexDocumentsResult |
Ответ, содержащий состояние операций для всех документов в запросе на индексирование. |
IndexerExecutionResult |
Представляет результат выполнения отдельного индексатора. |
IndexingParameters |
Представляет параметры для выполнения индексатора. |
IndexingParametersConfiguration |
Словарь свойств конфигурации, относящихся к индексатору. Каждое имя является именем определенного свойства. Каждое значение должно иметь примитивный тип. |
IndexingResult |
Состояние операции индексирования для одного документа. |
IndexingSchedule |
Представляет расписание для выполнения индексатора. |
InputFieldMappingEntry |
Сопоставление полей ввода для навыка. |
KeepTokenFilter |
Фильтр маркеров, который хранит только маркеры с текстом, содержащимся в указанном списке слов. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
KeyPhraseExtractionSkill |
Навык, использующий анализ текста для извлечения ключевых фраз. |
KeywordMarkerTokenFilter |
Помечает термины как ключевые слова. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
KeywordTokenizer |
Выдает все входные данные в виде одного маркера. Этот создатель маркеров реализуется с помощью Apache Lucene. |
LanguageDetectionSkill |
Навык, который определяет язык входного текста и сообщает один код языка для каждого документа, отправленного в запрос. Код языка сопряжен с оценкой, указывающей достоверность анализа. |
LengthTokenFilter |
Удаляет слишком длинные или слишком короткие слова. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
LimitTokenFilter |
Ограничивает количество маркеров при индексировании. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
ListSearchResultsPageSettings |
Аргументы для получения следующей страницы результатов поиска. |
LuceneStandardAnalyzer |
Стандартный анализатор Apache Lucene; Состоит из стандартного маркеризатора, нижнего регистра фильтра и фильтра stop. |
LuceneStandardTokenizer |
Разбивает текст по правилам сегментации текста в формате Юникод. Этот создатель маркеров реализуется с помощью Apache Lucene. |
MagnitudeScoringFunction |
Определяет функцию, которая повышает оценку на основе величины числового поля. |
MagnitudeScoringParameters |
Предоставляет значения параметров для функции оценки величины. |
MappingCharFilter |
Фильтр символов, который применяет сопоставления, определенные с помощью параметра сопоставления. Сопоставление является каскадным (самое длинное сопоставление шаблона в заданной точке имеет приоритет). Замена может быть пустой строкой. Этот фильтр символов реализуется с помощью Apache Lucene. |
MergeSkill |
Навык объединения двух или более строк в одну единую строку с необязательным определяемым пользователем разделителем, разделяющим каждую часть компонента. |
MicrosoftLanguageStemmingTokenizer |
Разделяет текст, используя правила для конкретного языка, и сводит слова к их базовым формам. |
MicrosoftLanguageTokenizer |
Разбивает текст на основе правил определенного языка. |
NGramTokenFilter |
Создает N-граммы заданного размера. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
NGramTokenizer |
Размечает входные данные на N-граммы заданного размера. Этот создатель маркеров реализуется с помощью Apache Lucene. |
OcrSkill |
Навык, который извлекает текст из файлов изображений. |
OutputFieldMappingEntry |
Сопоставление полей выходных данных для навыка. |
PIIDetectionSkill |
С помощью API Анализ текста извлекает личную информацию из входного текста и предоставляет возможность маскирования. |
PathHierarchyTokenizer |
Создатель маркеров для иерархий в виде пути. Этот создатель маркеров реализуется с помощью Apache Lucene. |
PatternAnalyzer |
Гибко разделяет текст на термины с помощью шаблона регулярного выражения. Этот анализатор реализуется с помощью Apache Lucene. |
PatternCaptureTokenFilter |
Использует регулярные выражения Java для выдачи нескольких маркеров — по одному для каждой группы отслеживания в одном или нескольких шаблонах. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
PatternReplaceCharFilter |
Фильтр символов, заменяющий символы во входной строке. Он использует регулярное выражение, чтобы определить последовательности знаков, которые нужно сохранить, и шаблон замены, чтобы определить знаки для замены. Например, с учетом входного текста "aa bb aa bb", шаблона "(aa)\s+(bb)" и замены "$1#$2", результатом будет "aa#bb aa#bb". Этот фильтр символов реализуется с помощью Apache Lucene. |
PatternReplaceTokenFilter |
Фильтр символов, заменяющий символы во входной строке. Он использует регулярное выражение, чтобы определить последовательности знаков, которые нужно сохранить, и шаблон замены, чтобы определить знаки для замены. Например, с учетом входного текста "aa bb aa bb", шаблона "(aa)\s+(bb)" и замены "$1#$2", результатом будет "aa#bb aa#bb". Этот фильтр маркеров реализуется с помощью Apache Lucene. |
PatternTokenizer |
Создатель маркеров, использующий сопоставление шаблонов регулярных выражений для создания уникальных маркеров. Этот создатель маркеров реализуется с помощью Apache Lucene. |
PhoneticTokenFilter |
Создает маркеры для фонетических совпадений. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
QueryAnswerResult |
Ответ — это фрагмент текста, извлеченный из содержимого наиболее релевантных документов, соответствующих запросу. Ответы извлекаются из лучших результатов поиска. Кандидаты на ответ оцениваются, и выбираются лучшие ответы. |
QueryCaptionResult |
Субтитры — это наиболее репрезентативные фрагменты из документа относительно поискового запроса. Они часто используются в качестве сводки по документам. Заголовки возвращаются только для запросов типа |
ResourceCounter |
Представляет использование и квоту ресурса. |
ScoringProfile |
Определяет параметры индекса поиска, влияющие на оценку в поисковых запросах. |
SearchClientOptions |
Параметры клиента, используемые для настройки запросов API Когнитивного поиска. |
SearchDocumentsPageResult |
Ответ, содержащий результаты страницы поиска по индексу. |
SearchDocumentsResult |
Ответ, содержащий результаты поиска по индексу. |
SearchDocumentsResultBase |
Ответ, содержащий результаты поиска по индексу. |
SearchIndex |
Представляет определение индекса поиска, которое описывает поля и поведение поиска индекса. |
SearchIndexClientOptions |
Параметры клиента, используемые для настройки запросов API Когнитивного поиска. |
SearchIndexStatistics |
Статистика по заданному индексу. Статистические данные собираются периодически и не всегда будут актуальными. |
SearchIndexer |
Представляет индексатор. |
SearchIndexerClientOptions |
Параметры клиента, используемые для настройки запросов API Когнитивного поиска. |
SearchIndexerDataContainer |
Представляет сведения о сущности (например, Azure SQL таблице или коллекции CosmosDB), которая будет индексирована. |
SearchIndexerDataSourceConnection |
Представляет определение источника данных, которое можно использовать для настройки индексатора. |
SearchIndexerError |
Представляет ошибку индексации уровня элемента или документа. |
SearchIndexerKnowledgeStore |
Определение дополнительных проекций для больших двоичных объектов Azure, таблиц или файлов обогащенных данных. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Абстрактный класс для совместного использования свойств между конкретными селекторами. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Определение проекции данных для хранения в Файлы Azure. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Определение проекции данных для хранения в BLOB-объекте Azure. |
SearchIndexerKnowledgeStoreProjection |
Объект контейнера для различных селекторов проекций. |
SearchIndexerKnowledgeStoreProjectionSelector |
Абстрактный класс для совместного использования свойств между конкретными селекторами. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Описание данных для хранения в таблицах Azure. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Список навыков. |
SearchIndexerStatus |
Представляет текущее состояние и журнал выполнений индексатора. |
SearchIndexerWarning |
Представляет предупреждение на уровне элемента. |
SearchIndexingBufferedSenderOptions |
Параметры searchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Управляемый клиентом ключ шифрования в Azure Key Vault. Ключи, которые вы создаете и которыми управляете, можно использовать для шифрования или расшифровки неактивных данных в Когнитивный поиск Azure, таких как индексы и карты синонимов. |
SearchServiceStatistics |
Ответ на запрос на получение статистики службы. В случае успешного выполнения он включает счетчики уровня обслуживания и ограничения. |
SearchSuggester |
Определяет, как API предложения должен применяться к группе полей в индексе. |
SemanticConfiguration |
Определяет определенную конфигурацию для использования в контексте семантических возможностей. |
SemanticField |
Поле, используемое как часть семантической конфигурации. |
SemanticPrioritizedFields |
Описывает поля заголовка, содержимого и ключевых слов, которые будут использоваться для семантического ранжирования, субтитров, выделений и ответов. |
SemanticSearch |
Определяет параметры для индекса поиска, которые влияют на семантические возможности. |
SemanticSearchOptions |
Определяет параметры для семантических поисковых запросов |
SentimentSkill |
Анализ положительно-отрицательной тональности для анализа текста, оцененный как значение с плавающей запятой в диапазоне от нуля до 1. |
SentimentSkillV3 |
Используя API Анализ текста, оценивает неструктурированный текст и для каждой записи предоставляет метки тональности (например, "отрицательные", "нейтральные" и "положительные") на основе самой высокой оценки достоверности, найденной службой на уровне предложения и документа. |
ServiceCounters |
Представляет счетчики ресурсов уровня обслуживания и квоты. |
ServiceLimits |
Представляет различные ограничения уровня обслуживания. |
ShaperSkill |
Навык изменения формы выходных данных. Он создает сложный тип для поддержки составных полей (также известных как многокомпонентные поля). |
ShingleTokenFilter |
Создает сочетания маркеров в виде одного маркера. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
Similarity |
Базовый тип для алгоритмов сходства. Алгоритмы сходства используются для вычисления оценок, которые связывают запросы с документами. Чем выше оценка, тем более релевантный документ для конкретного запроса. Эти оценки используются для ранжирования результатов поиска. |
SimpleField |
Представляет поле в определении индекса, которое описывает имя, тип данных и поведение поиска поля. |
SnowballTokenFilter |
Фильтр, который объединяет слова с помощью парадигматического модуля, созданного Snowball. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Определяет политику обнаружения удаления данных, реализующую стратегию обратимого удаления. Он определяет, следует ли удалять элемент на основе значения назначенного столбца обратимого удаления. |
SplitSkill |
Навык разделения строки на фрагменты текста. |
SqlIntegratedChangeTrackingPolicy |
Определяет политику обнаружения изменений данных, которая фиксирует изменения с помощью функции интегрированного Отслеживание изменений базы данных Azure SQL. |
StemmerOverrideTokenFilter |
Предоставляет возможность переопределять другие фильтры с помощью пользовательского парадигматического поиска на основе словаря. Все термины, связанные со словарем, будут помечены как ключевые слова, чтобы они не были объединяться парадигматических модулей по цепочке. Необходимо поместить перед всеми стемминговыми фильтрами. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
StemmerTokenFilter |
Фильтр стволов для конкретного языка. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
StopAnalyzer |
Делит текст на небуквенный; Применяет фильтры токена нижнего регистра и токена стоп-слова. Этот анализатор реализуется с помощью Apache Lucene. |
StopwordsTokenFilter |
Удаляет стоп-слова из потока маркеров. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
SuggestDocumentsResult |
Ответ, содержащий результаты запроса предложения из индекса. |
SuggestRequest |
Параметры для фильтрации, сортировки, нечеткого сопоставления и других вариантов поведения запросов. |
SynonymMap |
Представляет определение сопоставления синонимов. |
SynonymTokenFilter |
Соответствует синонимам из одного или нескольких слов в потоке маркеров. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
TagScoringFunction |
Определяет функцию, которая повышает оценки документов со строковыми значениями, соответствующими заданному списку тегов. |
TagScoringParameters |
Предоставляет значения параметров для функции оценки тегов. |
TextTranslationSkill |
Навык перевода текста с одного языка на другой. |
TextWeights |
Определяет весовые коэффициенты для полей индекса, для которых совпадения должны повышать оценку в поисковых запросах. |
TruncateTokenFilter |
Усекает термины до определенной длины. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
UaxUrlEmailTokenizer |
Размечает URL-адреса и сообщения электронной почты как один маркер. Этот создатель маркеров реализуется с помощью Apache Lucene. |
UniqueTokenFilter |
Отфильтровывает маркеры с тем же текстом, что и в предыдущем маркере. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
VectorSearch |
Содержит параметры конфигурации, связанные с поиском векторов. |
VectorSearchOptions |
Определяет параметры для запросов поиска векторов |
VectorSearchProfile |
Определяет сочетание конфигураций, используемых при поиске векторов. |
VectorizedQuery |
Параметры запроса, используемые для поиска векторов при указании необработанного векторного значения. |
WebApiSkill |
Навык, который может вызывать конечную точку веб-API, позволяя расширить набор навыков, вызывая пользовательский код. |
WordDelimiterTokenFilter |
Разделяет слова на подслова и выполняет необязательные преобразования в группах подслов. Этот фильтр маркеров реализуется с помощью Apache Lucene. |
Псевдонимы типа
AnalyzeTextOptions |
Параметры для операции анализа текста. |
AutocompleteMode |
Определяет значения для параметра AutocompleteMode. |
AutocompleteOptions |
Параметры получения текста завершения для частичного searchText. |
BlobIndexerDataToExtract |
Известные значения, поддерживаемые службойstorageMetadata: индексирует только стандартные свойства большого двоичного объекта и метаданные, заданные пользователем. allMetadata. Извлекает метаданные, предоставляемые подсистемой хранилища BLOB-объектов Azure, и метаданные конкретного типа контента (например, метаданные, уникальные только для .png индексируются файлы). contentAndMetadata. Извлекает все метаданные и текстовое содержимое из каждого большого двоичного объекта. |
BlobIndexerImageAction |
Известные значения, поддерживаемые службойnone: игнорирует внедренные изображения или файлы изображений в наборе данных. Это значение по умолчанию. generateNormalizedImages: извлекает текст из изображений (например, слово "STOP" из знака остановки трафика) и внедряет его в поле содержимого. Для этого действия требуется, чтобы для параметра dataToExtract было задано значение contentAndMetadata. Нормализованное изображение относится к дополнительной обработке, что приводит к единообразию вывода изображения, размеру и повороту для повышения согласованности отрисовки при включении изображений в результаты визуального поиска. Эта функция формируют такие сведения по каждому изображению. generateNormalizedImagePerPage: извлекает текст из изображений (например, слово "СТОП" из знака остановки трафика) и внедряет его в поле содержимого, но обрабатывает PDF-файлы по-разному, так как каждая страница будет отображаться как изображение и нормализуется соответствующим образом, а не извлекать внедренные изображения. Типы файлов, отличные от PDF, будут обрабатываться так же, как если бы был задан параметр generateNormalizedImages. |
BlobIndexerPDFTextRotationAlgorithm |
Известные значения, поддерживаемые службойnone: использует обычное извлечение текста. Это значение по умолчанию. detectAngles: может улучшить и улучшить удобочитаемое извлечение текста из PDF-файлов с повернутым текстом. Обратите внимание, что при использовании этого параметра может быть небольшое влияние на скорость производительности. Этот параметр применяется только к PDF-файлам и только к PDF-файлам с внедренным текстом. Если повернутый текст отображается во внедренном изображении в PDF-файле, этот параметр не применяется. |
BlobIndexerParsingMode |
Известные значения, поддерживаемые службойdefault: задайте значение по умолчанию для обычной обработки файлов. text: задайте значение text, чтобы повысить производительность индексирования файлов в виде обычного текста в хранилище BLOB-объектов. delimitedText: задайте значение delimitedText, если большие двоичные объекты являются обычными CSV-файлами. json: задайте значение json, чтобы извлечь структурированное содержимое из json-файлов. jsonArray. Задайте для параметра значение jsonArray, чтобы извлечь отдельные элементы массива JSON в виде отдельных документов в Когнитивный поиск Azure. jsonLines: задайте значение jsonLines, чтобы извлечь отдельные сущности JSON, разделенные новой строкой, в виде отдельных документов в Когнитивный поиск Azure. |
CharFilter |
Содержит возможные варианты для CharFilter. |
CharFilterName |
Определяет значения для CharFilterName. Известные значения, поддерживаемые службойhtml_strip: фильтр символов, который пытается удалить конструкции HTML. См. раздел https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Определяет значения для CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Содержит возможные варианты для CognitiveServicesAccount. |
ComplexDataType |
Определяет значения для ComplexDataType. Возможные значения: "Edm.ComplexType", "Collection(Edm.ComplexType)". |
CountDocumentsOptions |
Параметры для выполнения операции подсчета для индекса. |
CreateDataSourceConnectionOptions |
Параметры для операции создания источника данных. |
CreateIndexOptions |
Параметры для операции создания индекса. |
CreateIndexerOptions |
Параметры для операции создания индексатора. |
CreateSkillsetOptions |
Параметры для операции создания набора навыков. |
CreateSynonymMapOptions |
Параметры для операции создания синонимов. |
CustomEntityLookupSkillLanguage |
Определяет поддерживаемые языки для CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage можно использовать взаимозаменяемо с этим типом. |
DataChangeDetectionPolicy |
Содержит возможные варианты для DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Содержит возможные варианты для DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Параметры для операции удаления документов. |
EdgeNGramTokenFilterSide |
Определяет значения для EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage |
Определяет поддерживаемые языки для EntityRecognitionSkillKnownEntityRecognitionSkillLanguage можно использовать взаимозаменяемо с этим типом. |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Содержит параметры конфигурации, характерные для исчерпывающего алгоритма KNN, используемого во время запроса, который будет выполнять поиск методом подбора по всему индексу вектора. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Параметры для операции получения источника данных. |
GetIndexOptions |
Параметры для операции получения индекса. |
GetIndexStatisticsOptions |
Параметры для операции получения статистики индекса. |
GetIndexerOptions |
Параметры для операции получения индексатора. |
GetIndexerStatusOptions |
Параметры для операции получения состояния индексатора. |
GetServiceStatisticsOptions |
Параметры для операции получения статистики службы. |
GetSkillSetOptions |
Параметры для операции получения набора навыков. |
GetSynonymMapsOptions |
Параметры для операции получения синонимов. |
HnswAlgorithmConfiguration |
Содержит параметры конфигурации, относящиеся к приблизительному алгоритму ближайших соседей hnsw, используемому во время индексирования. |
ImageAnalysisSkillLanguage |
Определяет поддерживаемые языки для ImageAnalysisSkillKnownImageAnalysisSkillLanguage можно использовать взаимозаменяемо с этим типом. |
ImageDetail | |
IndexActionType |
Определяет значения для IndexActionType. |
IndexDocumentsAction |
Представляет действие индекса, которое работает с документом. |
IndexIterator |
Итератор для перечисления индексов, существующих в служба . Будет выполнять запросы по мере необходимости во время итерации. Используйте .byPage() для выполнения одного запроса к серверу для каждой итерации. |
IndexNameIterator |
Итератор для перечисления индексов, существующих в служба . Будет выполнять запросы по мере необходимости во время итерации. Используйте .byPage() для выполнения одного запроса к серверу для каждой итерации. |
IndexerExecutionEnvironment |
Известные значения, поддерживаемые службойstandard: указывает, что Когнитивный поиск Azure может определить, где должен выполняться индексатор. Это среда по умолчанию, если ничего не указано и является рекомендуемой. private: указывает, что индексатор должен выполняться в среде, подготовленной специально для службы поиска. Его следует указывать в качестве среды выполнения, только если индексатору требуется безопасный доступ к ресурсам через общие ресурсы приватного канала. |
IndexerExecutionStatus |
Определяет значения для IndexerExecutionStatus. |
IndexerStatus |
Определяет значения для IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Определяет поддерживаемые языки для KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage можно использовать взаимозаменяемо с этим типом. |
LexicalAnalyzer |
Содержит возможные варианты для анализатора. |
LexicalAnalyzerName |
Определяет значения для LexicalAnalyzerName. Известные значения, поддерживаемые службойar.microsoft: Анализатор Майкрософт для арабского языка. |
LexicalTokenizer |
Содержит возможные варианты для создателя маркеров. |
LexicalTokenizerName |
Определяет значения для LexicalTokenizerName. Известные значения, поддерживаемые службойclassic: грамматический создатель маркеров, который подходит для обработки большинства документов на европейском языке. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Параметры для операции со списком источников данных. |
ListIndexersOptions |
Параметры для операции индексаторов списка. |
ListIndexesOptions |
Параметры для операции со списком индексов. |
ListSkillsetsOptions |
Параметры для операции со списком наборов навыков. |
ListSynonymMapsOptions |
Параметры для операции list synonymMaps. |
MergeDocumentsOptions |
Параметры для операции слияния документов. |
MergeOrUploadDocumentsOptions |
Параметры для операции слияния или отправки документов. |
MicrosoftStemmingTokenizerLanguage |
Определяет значения для MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Определяет значения для MicrosoftTokenizerLanguage. |
NarrowedModel |
Сужает тип модели, включив только выбранные поля. |
OcrSkillLanguage |
Определяет поддерживаемые языки для OcrSkillKnownOcrSkillLanguage можно использовать взаимозаменяемо с этим типом. |
PIIDetectionSkillMaskingMode |
Определяет значения для PIIDetectionSkillMaskingMode. Известные значения, поддерживаемые службойnone: маскирование не происходит, и выходные данные maskedText не будут возвращены. replace: заменяет обнаруженные сущности символом, заданным в параметре maskingCharacter. Символ будет повторяться до длины обнаруженной сущности, чтобы смещения правильно соответствовали как входному тексту, так и выходному maskedText. |
PhoneticEncoder |
Определяет значения для PhoneticEncoder. |
QueryAnswer |
Значение типа , указывающее, следует ли возвращать ответы как часть поискового ответа.
Этот параметр действителен, только если тип запроса — "семантический". Если задано значение |
QueryCaption |
Значение типа , указывающее, следует ли возвращать субтитры в ответе на поиск. Этот параметр действителен, только если тип запроса — "семантический". Если задано значение , запрос возвращает заголовки, извлеченные из ключевых фрагментов в документах с самым высоким рейтингом. Если параметр Captions имеет значение extractive, выделение включено по умолчанию. Значение по умолчанию — none. |
QueryType |
Определяет значения для QueryType. |
RegexFlags |
Определяет флаги для сопоставления шаблонов регулярных выражений Известные значения, поддерживаемые службойCANON_EQ: включает каноническую эквивалентность. CASE_INSENSITIVE. Включает сопоставление без учета регистра. КОММЕНТАРИИ: допускает пробелы и комментарии в шаблоне. DOTALL: включает режим dotall. LITERAL: включает литеральный анализ шаблона. MULTILINE: включает многостроковый режим. UNICODE_CASE: включает свертывание регистра с поддержкой Юникода. UNIX_LINES: включает режим строк Unix. |
ResetIndexerOptions |
Параметры для сброса операции индексатора. |
RunIndexerOptions |
Параметры запуска операции индексатора. |
ScoringFunction |
Содержит возможные варианты для ScoringFunction. |
ScoringFunctionAggregation |
Определяет значения для ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Определяет значения для ScoringFunctionInterpolation. |
ScoringStatistics |
Определяет значения для ScoringStatistics. |
SearchField |
Представляет поле в определении индекса, описывающее имя, тип данных и поведение поиска поля. |
SearchFieldArray |
Если |
SearchFieldDataType |
Определяет значения для SearchFieldDataType. Возможные значения: "Edm.String", "Edm.Int32", "Edm.Int64", "Edm.Double", "Edm.Boolean", "Edm.DateTimeOffset", "Edm.GeographyPoint", 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)' NB: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Содержит возможные варианты для Skill. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Параметры searchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Параметры searchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Параметры searchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Параметры searchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Параметры searchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Итератор для результатов поиска патикулярного запроса. Будет выполнять запросы по мере необходимости во время итерации. Используйте .byPage() для выполнения одного запроса к серверу для каждой итерации. |
SearchMode |
Определяет значения для SearchMode. |
SearchOptions |
Параметры для фиксации запроса полного поиска. |
SearchPick |
Глубокий выбор полей T с помощью допустимых путей OData когнитивного поиска $select. |
SearchRequestOptions |
Параметры для фильтрации, сортировки, фасетирования, разбиения по страницам и других поведений поисковых запросов. |
SearchRequestQueryTypeOptions | |
SearchResult |
Содержит документ, найденный поисковым запросом, а также связанные метаданные. |
SelectArray |
Если |
SelectFields |
Создает объединение допустимых путей OData когнитивного поиска $select для T с помощью обхода после заказа дерева полей, корнями в T. |
SemanticErrorMode |
partial. Если семантическая обработка завершается сбоем, частичные результаты по-прежнему возвращаются. Определение частичных результатов зависит от того, какой семантический шаг завершился сбоем и что стало причиной сбоя. fail. Если на этапе семантической обработки возникло исключение, запрос завершится ошибкой и вернет соответствующий код HTTP в зависимости от ошибки. |
SemanticErrorReason |
maxWaitExceeded: если задан параметр semanticMaxWaitInMilliseconds и семантическая длительность обработки превысила это значение. Были возвращены только базовые результаты. capacityOverloaded: запрос был отрегулирован. Были возвращены только базовые результаты. временный: по крайней мере один шаг семантического процесса завершился сбоем. |
SemanticSearchResultsType |
baseResults: результаты без семантического обогащения или повторного выполнения. rerankedResults: результаты были повторно отрантированы с помощью модели reranker и будут содержать семантические субтитры. Они не будут включать ответы, ответы или подпись основные моменты. |
SentimentSkillLanguage |
Определяет поддерживаемые языки для SentimentSkillKnownSentimentSkillLanguage можно использовать взаимозаменяемо с этим типом. |
SimilarityAlgorithm |
Содержит возможные варианты сходства. |
SnowballTokenFilterLanguage |
Определяет значения для SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Определяет поддерживаемые языки для SplitSkillKnownSplitSkillLanguage , которые можно использовать взаимозаменяемо с этим типом. |
StemmerTokenFilterLanguage |
Определяет значения для StemmerTokenFilterLanguage. |
StopwordsList |
Определяет значения для StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Параметры получения предложений на основе searchText. |
SuggestResult |
Результат, содержащий документ, найденный запросом предложения, а также связанные метаданные. |
TextSplitMode | |
TextTranslationSkillLanguage |
Определяет поддерживаемые языки для TextTranslationSkillKnownTextTranslationSkillLanguage можно использовать взаимозаменяемо с этим типом. |
TokenCharacterKind |
Определяет значения для TokenCharacterKind. |
TokenFilter |
Содержит возможные варианты для TokenFilter. |
TokenFilterName |
Определяет значения для TokenFilterName. Известные значения, поддерживаемые службойarabic_normalization: фильтр маркеров, который применяет арабский нормализатор для нормализации орфографии. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Параметры для операции отправки документов. |
VectorFilterMode |
Определяет, применяются ли фильтры до или после выполнения поиска векторов. |
VectorQuery |
Параметры запроса для векторных и гибридных поисковых запросов. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Содержит параметры конфигурации, относящиеся к алгоритму, используемому во время индексирования и (или) запросов. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
Метрика сходства, используемая для векторного сравнения. |
VisualFeature |
Перечисления
KnownAnalyzerNames |
Определяет значения для AnalyzerName. См. раздел https://docs.microsoft.com/rest/api/searchservice/Language-support |
KnownBlobIndexerDataToExtract |
Известные значения BlobIndexerDataToExtract , которые принимает служба. |
KnownBlobIndexerImageAction |
Известные значения BlobIndexerImageAction , которые принимает служба. |
KnownBlobIndexerPDFTextRotationAlgorithm |
Известные значения BlobIndexerPDFTextRotationAlgorithm , которые принимает служба. |
KnownBlobIndexerParsingMode |
Известные значения BlobIndexerParsingMode , которые принимает служба. |
KnownCharFilterNames |
Известные значения CharFilterName , которые принимает служба. |
KnownCustomEntityLookupSkillLanguage |
Известные значения CustomEntityLookupSkillLanguage , которые принимает служба. |
KnownEntityCategory |
Известные значения EntityCategory , которые принимает служба. |
KnownEntityRecognitionSkillLanguage |
Известные значения EntityRecognitionSkillLanguage , которые принимает служба. |
KnownImageAnalysisSkillLanguage |
Известные значения ImageAnalysisSkillLanguage , которые принимает служба. |
KnownImageDetail |
Известные значения ImageDetail , которые принимает служба. |
KnownKeyPhraseExtractionSkillLanguage |
Известные значения KeyPhraseExtractionSkillLanguage , которые принимает служба. |
KnownOcrSkillLanguage |
Известные значения OcrSkillLanguage , которые принимает служба. |
KnownRegexFlags |
Известные значения RegexFlags , которые принимает служба. |
KnownSearchAudience |
Известные значения для аудитории поиска |
KnownSearchIndexerDataSourceType |
Известные значения SearchIndexerDataSourceType , которые принимает служба. |
KnownSentimentSkillLanguage |
Известные значения SentimentSkillLanguage , которые принимает служба. |
KnownSplitSkillLanguage |
Известные значения SplitSkillLanguage , которые принимает служба. |
KnownTextSplitMode |
Известные значения TextSplitMode , которые принимает служба. |
KnownTextTranslationSkillLanguage |
Известные значения TextTranslationSkillLanguage , которые принимает служба. |
KnownTokenFilterNames |
Известные значения TokenFilterName , которые принимает служба. |
KnownTokenizerNames |
Известные значения LexicalTokenizerName , которые принимает служба. |
KnownVisualFeature |
Известные значения VisualFeature , которые принимает служба. |
Функции
create |
Вспомогательный метод для создания объекта SynonymMap. Это единственный метод NodeJS. |
odata(Template |
Экранирует выражение фильтра odata, чтобы избежать ошибок при кавыкании строковых литералах. Пример использования:
Дополнительные сведения о поддерживаемом синтаксисе см. в следующих разделах: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Сведения о функции
createSynonymMapFromFile(string, string)
Вспомогательный метод для создания объекта SynonymMap. Это единственный метод NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Параметры
- name
-
string
Имя SynonymMap.
- filePath
-
string
Путь к файлу, который содержит синонимы (разделяемый новыми строками)
Возвращаемое значение
Promise<SynonymMap>
Объект SynonymMap
odata(TemplateStringsArray, unknown[])
Экранирует выражение фильтра odata, чтобы избежать ошибок при кавыкании строковых литералах. Пример использования:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Дополнительные сведения о поддерживаемом синтаксисе см. в следующих разделах: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Параметры
- strings
-
TemplateStringsArray
Массив строк для выражения
- values
-
unknown[]
Массив значений для выражения
Возвращаемое значение
string