Поделиться через


@azure/search-documents package

Классы

AzureKeyCredential

Учетные данные на основе статического ключа, поддерживающие обновление базового значения ключа.

GeographyPoint

Представляет географическую точку в глобальных координатах.

IndexDocumentsBatch

Класс, используемый для выполнения пакетных операций с несколькими документами в индекс.

SearchClient

Класс, используемый для выполнения операций с индексом поиска, включая запросы документов в индексе, а также добавление, обновление и удаление.

SearchIndexClient

Класс для управления (создание, обновление, удаление) индексов, & синонимов.

SearchIndexerClient

Класс для управления (создание, обновление, удаление) индексаторов, источников данных & наборов навыков.

SearchIndexingBufferedSender

Класс, используемый для выполнения буферизованных операций с индексом поиска, включая добавление, обновление и удаление.

Интерфейсы

AnalyzeRequest

Указывает некоторые компоненты текста и анализа, используемые для разбиения этого текста на маркеры.

AnalyzeResult

Результат тестирования анализатора на тексте.

AnalyzedTokenInfo

Сведения о маркере, возвращаемом анализатором.

AsciiFoldingTokenFilter

Преобразует алфавитные, числовые и символьные символы Юникода, которые не находятся в первых 127 символах ASCII (блок Юникода "Базовый латиница") в эквиваленты ASCII, если такие эквиваленты существуют. Этот фильтр маркеров реализуется с помощью Apache Lucene.

AutocompleteItem

Результат запросов автозавершения.

AutocompleteRequest

Параметры для нечеткого сопоставления и других поведения запросов автозаполнения.

AutocompleteResult

Результат запроса автозаполнения.

AzureActiveDirectoryApplicationCredentials

Учетные данные зарегистрированного приложения, созданного для службы поиска, используемого для проверки подлинности доступа к ключам шифрования, хранящимся в Azure Key Vault.

AzureOpenAIEmbeddingSkill

Позволяет создать вектор внедрения для заданного текстового ввода с помощью ресурса Azure OpenAI.

AzureOpenAIParameters

Содержит параметры, относящиеся к использованию службы Azure Open AI для векторизации во время запроса.

AzureOpenAIVectorizer

Содержит параметры, относящиеся к использованию службы Azure Open AI для векторизации во время запроса.

BM25Similarity

Функция ранжирования на основе алгоритма сходства Okapi BM25. BM25 — это алгоритм TF-IDF, включающий нормализацию длины (контролируемый параметром B), а также насыщенность терминов (контролируемый параметром k1).

BaseCharFilter

Базовый тип для фильтров символов.

BaseCognitiveServicesAccount

Базовый тип для описания любого ресурса службы искусственного интеллекта Azure, подключенного к набору навыков.

BaseDataChangeDetectionPolicy

Базовый тип политик обнаружения изменений данных.

BaseDataDeletionDetectionPolicy

Базовый тип политик обнаружения удаления данных.

BaseLexicalAnalyzer

Базовый тип для анализаторов.

BaseLexicalTokenizer

Базовый тип для токенизаторов.

BaseScoringFunction

Базовый тип функций, которые могут изменять оценки документов во время ранжирования.

BaseSearchIndexerDataIdentity

Абстрактный базовый тип для удостоверений данных.

BaseSearchIndexerSkill

Базовый тип для навыков.

BaseSearchRequestOptions

Параметры фильтрации, сортировки, фасетирования, разбиения по страницам и других поведении поисковых запросов.

BaseTokenFilter

Базовый тип для фильтров маркеров.

BaseVectorQuery

Параметры запроса для векторных и гибридных поисковых запросов.

BaseVectorSearchAlgorithmConfiguration

Содержит параметры конфигурации, относящиеся к алгоритму, используемому во время индексирования и/или запроса.

BaseVectorSearchCompression

Содержит параметры конфигурации, относящиеся к методу сжатия, используемому во время индексирования или запроса.

BaseVectorSearchVectorizer

Содержит конкретные сведения о методе векторизации, который будет использоваться во время запроса.

BinaryQuantizationCompression

Содержит параметры конфигурации, относящиеся к методу сжатия двоичной квантизации, используемому во время индексирования и запроса.

CjkBigramTokenFilter

Формирует большие кадры терминов CJK, созданных из стандартного токенизатора. Этот фильтр маркеров реализуется с помощью Apache Lucene.

ClassicSimilarity

Устаревший алгоритм сходства, использующий реализацию TF-IDF Lucene TFIDFSimilarity. Этот вариант TF-IDF представляет нормализацию статического длины документа, а также координирующие факторы, которые наказывают документы, которые частично соответствуют поисковым запросам.

ClassicTokenizer

Токенизатор на основе грамматики, подходящий для обработки большинства европейских языковых документов. Этот токенизатор реализуется с помощью Apache Lucene.

CognitiveServicesAccountKey

Ключ учетной записи с несколькими регионами ресурса службы искусственного интеллекта Azure, подключенного к набору навыков.

CommonGramTokenFilter

Создавайте bigrams для часто встречающихся терминов при индексировании. Отдельные термины по-прежнему индексируются слишком, при наложении bigrams. Этот фильтр маркеров реализуется с помощью Apache Lucene.

ComplexField

Представляет поле в определении индекса, описывающее имя, тип данных и поведение поиска поля.

ConditionalSkill

Навык, позволяющий сценариям, которым требуется логическое действие для определения данных для назначения выходным данным.

CorsOptions

Определяет параметры управления общим доступом к ресурсам между источниками (CORS) для индекса.

CreateOrUpdateIndexOptions

Параметры операции создания и обновления индекса.

CreateOrUpdateSkillsetOptions

Параметры операции создания и обновления набора навыков.

CreateOrUpdateSynonymMapOptions

Параметры операции создания и обновления карты синонимов.

CreateorUpdateDataSourceConnectionOptions

Параметры для операции создания и обновления источника данных.

CreateorUpdateIndexerOptions

Параметры операции создания и обновления индексатора.

CustomAnalyzer

Позволяет контролировать процесс преобразования текста в индексируемые и поисковые маркеры. Это определяемая пользователем конфигурация, состоящая из одного предопределенного токенизатора и одного или нескольких фильтров. Маркеризатор отвечает за разбиение текста в маркеры и фильтры для изменения маркеров, создаваемых токенизатором.

CustomEntity

Объект, содержащий сведения о найденных совпадениях и связанных метаданных.

CustomEntityAlias

Сложный объект, который можно использовать для указания альтернативных орфографических или синонимов имени корневой сущности.

CustomEntityLookupSkill

Навык ищет текст из пользовательского пользовательского списка слов и фраз.

DefaultCognitiveServicesAccount

Пустой объект, представляющий ресурс службы искусственного интеллекта Azure по умолчанию для набора навыков.

DeleteDataSourceConnectionOptions

Параметры операции удаления источника данных.

DeleteIndexOptions

Параметры операции удаления индекса.

DeleteIndexerOptions

Параметры операции удаления индексатора.

DeleteSkillsetOptions

Параметры удаления оперы набора навыков.

DeleteSynonymMapOptions

Параметры удаления операции сопоставления синонимов.

DictionaryDecompounderTokenFilter

Раскомпозирует составные слова, найденные во многих немецких языках. Этот фильтр маркеров реализуется с помощью Apache Lucene.

DistanceScoringFunction

Определяет функцию, которая повышает оценки на основе расстояния от географического расположения.

DistanceScoringParameters

Предоставляет значения параметров функции оценки расстояния.

DocumentExtractionSkill

Навык, извлекающий содержимое из файла в конвейере обогащения.

EdgeNGramTokenFilter

Создает n-граммы заданных размеров, начиная с передней или задней части входного маркера. Этот фильтр маркеров реализуется с помощью Apache Lucene.

EdgeNGramTokenizer

Маркеризирует входные данные из края в n-граммы заданных размеров. Этот токенизатор реализуется с помощью Apache Lucene.

ElisionTokenFilter

Удаляет излизии. Например, "l'avion" (плоскость) преобразуется в "avion" (плоскость). Этот фильтр маркеров реализуется с помощью Apache Lucene.

EntityLinkingSkill

Используя API анализа текста, извлекает связанные сущности из текста.

EntityRecognitionSkill

Распознавание сущностей анализа текста.

EntityRecognitionSkillV3

С помощью API анализа текста извлекает сущности различных типов из текста.

ExhaustiveKnnParameters

Содержит параметры, относящиеся к исчерпывающим алгоритмам KNN.

ExtractiveQueryAnswer

Извлекает кандидатов ответов из содержимого документов, возвращаемых в ответ на запрос, выраженный как вопрос на естественном языке.

ExtractiveQueryCaption

Извлекает заголовки из соответствующих документов, содержащих фрагменты, относящиеся к поисковому запросу.

FacetResult

Один контейнер результата запроса аспектов. Сообщает количество документов со значением поля, которое попадает в определенный диапазон или имеет определенное значение или интервал.

FieldMapping

Определяет сопоставление между полем в источнике данных и целевым полем в индексе.

FieldMappingFunction

Представляет функцию, которая преобразует значение из источника данных перед индексированием.

FreshnessScoringFunction

Определяет функцию, которая повышает оценки на основе значения поля даты и времени.

FreshnessScoringParameters

Предоставляет значения параметров функции оценки свежести.

GetDocumentOptions

Параметры получения одного документа.

HighWaterMarkChangeDetectionPolicy

Определяет политику обнаружения изменений данных, которая фиксирует изменения в зависимости от значения столбца высокой водяной отметки.

HnswParameters

Содержит параметры, относящиеся к алгоритму hnsw.

ImageAnalysisSkill

Навык, который анализирует файлы изображений. Он извлекает широкий набор визуальных функций на основе содержимого изображения.

IndexDocumentsClient

Клиент индексирования документов

IndexDocumentsOptions

Параметры пакетной операции изменения индекса.

IndexDocumentsResult

Ответ, содержащий состояние операций для всех документов в запросе индексирования.

IndexerExecutionResult

Представляет результат выполнения отдельного индексатора.

IndexingParameters

Представляет параметры для выполнения индексатора.

IndexingParametersConfiguration

Словарь свойств конфигурации для индексатора. Каждое имя — это имя определенного свойства. Каждое значение должно быть примитивным типом.

IndexingResult

Состояние операции индексирования для одного документа.

IndexingSchedule

Представляет расписание выполнения индексатора.

InputFieldMappingEntry

Сопоставление полей ввода для навыка.

KeepTokenFilter

Фильтр маркеров, который сохраняет только маркеры с текстом, содержащимся в указанном списке слов. Этот фильтр маркеров реализуется с помощью Apache Lucene.

KeyPhraseExtractionSkill

Навык, использующий анализ текста для извлечения ключевых фраз.

KeywordMarkerTokenFilter

Помечает термины как ключевые слова. Этот фильтр маркеров реализуется с помощью Apache Lucene.

KeywordTokenizer

Выводит все входные данные в виде одного маркера. Этот токенизатор реализуется с помощью Apache Lucene.

LanguageDetectionSkill

Навык, который обнаруживает язык входного текста и сообщает один языковой код для каждого документа, отправленного по запросу. Языковой код связан с оценкой, указывающей достоверность анализа.

LengthTokenFilter

Удаляет слова, слишком длинные или слишком короткие. Этот фильтр маркеров реализуется с помощью Apache Lucene.

LimitTokenFilter

Ограничивает количество маркеров при индексировании. Этот фильтр маркеров реализуется с помощью Apache Lucene.

ListSearchResultsPageSettings

Аргументы для получения следующей страницы результатов поиска.

LuceneStandardAnalyzer

Стандартный анализатор Apache Lucene; Состоит из стандартного токенизатора, нижнего регистра фильтра и фильтра остановки.

LuceneStandardTokenizer

Разбивает текст в соответствии с правилами сегментации текста Юникода. Этот токенизатор реализуется с помощью Apache Lucene.

MagnitudeScoringFunction

Определяет функцию, которая повышает оценки на основе величины числового поля.

MagnitudeScoringParameters

Предоставляет значения параметров функции оценки величины.

MappingCharFilter

Фильтр символов, который применяет сопоставления, определенные с параметром сопоставления. Сопоставление жадно (самый длинный шаблон сопоставления в заданной точке выигрывает). Допускается замена пустой строки. Этот фильтр символов реализуется с помощью Apache Lucene.

MergeSkill

Навык объединения двух или более строк в одну единую строку с необязательным определяемым пользователем разделителем, разделяющим каждую часть компонента.

MicrosoftLanguageStemmingTokenizer

Разделяет текст с помощью правил, относящихся к языку, и сокращает количество слов к базовым формам.

MicrosoftLanguageTokenizer

Делит текст с помощью правил, относящихся к языку.

NGramTokenFilter

Создает n-граммы заданного размера. Этот фильтр маркеров реализуется с помощью Apache Lucene.

NGramTokenizer

Маркеризирует входные данные в n-граммах заданных размеров. Этот токенизатор реализуется с помощью Apache Lucene.

OcrSkill

Навык, извлекающий текст из файлов изображений.

OutputFieldMappingEntry

Сопоставление полей вывода для навыка.

PIIDetectionSkill

Используя API анализа текста, извлекает личную информацию из входного текста и предоставляет возможность маскирования.

PathHierarchyTokenizer

Токенизатор для иерархий, похожих на пути. Этот токенизатор реализуется с помощью Apache Lucene.

PatternAnalyzer

Гибкий разделяет текст на термины с помощью шаблона регулярного выражения. Этот анализатор реализуется с помощью Apache Lucene.

PatternCaptureTokenFilter

Использует регрессии Java для выдачи нескольких маркеров — по одному для каждой группы захвата в одном или нескольких шаблонах. Этот фильтр маркеров реализуется с помощью Apache Lucene.

PatternReplaceCharFilter

Фильтр символов, заменяющий символы во входной строке. Он использует регулярное выражение для идентификации последовательностей символов для сохранения и замены шаблона для определения символов для замены. Например, учитывая входной текст "aa bb aa bb", шаблон "(aa)\s+(bb)" и замену "$1#2", результатом будет "aa#bb aa#bb". Этот фильтр символов реализуется с помощью Apache Lucene.

PatternReplaceTokenFilter

Фильтр символов, заменяющий символы во входной строке. Он использует регулярное выражение для идентификации последовательностей символов для сохранения и замены шаблона для определения символов для замены. Например, учитывая входной текст "aa bb aa bb", шаблон "(aa)\s+(bb)" и замену "$1#2", результатом будет "aa#bb aa#bb". Этот фильтр маркеров реализуется с помощью Apache Lucene.

PatternTokenizer

Токенизатор, использующий сопоставление шаблонов regex для создания уникальных маркеров. Этот токенизатор реализуется с помощью Apache Lucene.

PhoneticTokenFilter

Создайте маркеры для фонетических совпадений. Этот фильтр маркеров реализуется с помощью Apache Lucene.

QueryAnswerResult

Ответ — это текст, извлеченный из содержимого наиболее релевантных документов, соответствующих запросу. Ответы извлекаются из лучших результатов поиска. Кандидаты на ответы оцениваются и выбираются лучшие ответы.

QueryCaptionResult

Заголовки являются наиболее репрезентативными фрагментами документа относительно поискового запроса. Они часто используются в качестве сводки документов. Заголовки возвращаются только для запросов типа semantic.

ResourceCounter

Представляет использование и квоту ресурса.

ScalarQuantizationCompression

Содержит параметры конфигурации, относящиеся к методу сжатия скалярной квантизации, используемому во время индексирования и запроса.

ScalarQuantizationParameters

Содержит параметры, относящиеся к скалярной квантизации.

ScoringProfile

Определяет параметры индекса поиска, влияющего на оценку в поисковых запросах.

SearchClientOptions

Параметры клиента, используемые для настройки запросов API Когнитивного поиска.

SearchDocumentsPageResult

Ответ, содержащий результаты страницы поиска из индекса.

SearchDocumentsResult

Ответ, содержащий результаты поиска из индекса.

SearchDocumentsResultBase

Ответ, содержащий результаты поиска из индекса.

SearchIndex

Представляет определение индекса поиска, описывающее поля и поведение поиска индекса.

SearchIndexClientOptions

Параметры клиента, используемые для настройки запросов API Когнитивного поиска.

SearchIndexStatistics

Статистика по заданному индексу. Статистика собирается периодически и не гарантируется всегда быть up-to-date.

SearchIndexer

Представляет индексатор.

SearchIndexerClientOptions

Параметры клиента, используемые для настройки запросов API Когнитивного поиска.

SearchIndexerDataContainer

Представляет сведения о сущности (например, таблице SQL Azure или коллекции CosmosDB), которая будет индексирована.

SearchIndexerDataNoneIdentity

Очищает свойство удостоверения источника данных.

SearchIndexerDataSourceConnection

Представляет определение источника данных, которое можно использовать для настройки индексатора.

SearchIndexerDataUserAssignedIdentity

Указывает удостоверение для используемого источника данных.

SearchIndexerError

Представляет ошибку индексирования на уровне элемента или документа.

SearchIndexerIndexProjection

Определение дополнительных проекций для вторичных индексов поиска.

SearchIndexerIndexProjectionParameters

Словарь свойств конфигурации для проекции индекса. Каждое имя — это имя определенного свойства. Каждое значение должно быть примитивным типом.

SearchIndexerIndexProjectionSelector

Описание того, какие данные следует хранить в указанном индексе поиска.

SearchIndexerKnowledgeStore

Определение дополнительных проекций для больших двоичных объектов Azure, таблиц или файлов, обогащенных данных.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Абстрактный класс для совместного использования свойств между конкретными селекторами.

SearchIndexerKnowledgeStoreFileProjectionSelector

Определение проекции для хранения данных в файлах Azure.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Определение проекции для хранения данных в BLOB-объекте Azure.

SearchIndexerKnowledgeStoreParameters

Словарь свойств конфигурации для конкретного хранилища знаний. Каждое имя — это имя определенного свойства. Каждое значение должно быть примитивным типом.

SearchIndexerKnowledgeStoreProjection

Объект контейнера для различных селекторов проекций.

SearchIndexerKnowledgeStoreProjectionSelector

Абстрактный класс для совместного использования свойств между конкретными селекторами.

SearchIndexerKnowledgeStoreTableProjectionSelector

Описание того, какие данные следует хранить в таблицах Azure.

SearchIndexerLimits
SearchIndexerSkillset

Список навыков.

SearchIndexerStatus

Представляет текущее состояние и журнал выполнения индексатора.

SearchIndexerWarning

Представляет предупреждение уровня элемента.

SearchIndexingBufferedSenderOptions

Параметры searchIndexingBufferedSender.

SearchResourceEncryptionKey

Ключ шифрования, управляемый клиентом, в Azure Key Vault. Ключи, которые создаются и управляются, можно использовать для шифрования или расшифровки неактивных данных в Когнитивном поиске Azure, таких как индексы и карты синонимов.

SearchServiceStatistics

Ответ от запроса статистики службы. В случае успешного выполнения он включает счетчики уровня обслуживания и ограничения.

SearchSuggester

Определяет, как API предложения должен применяться к группе полей в индексе.

SemanticConfiguration

Определяет определенную конфигурацию, используемую в контексте семантических возможностей.

SemanticField

Поле, используемое в рамках семантической конфигурации.

SemanticPrioritizedFields

Описывает поля заголовка, содержимого и ключевых слов, которые будут использоваться для семантического ранжирования, подписей, выделений и ответов.

SemanticSearch

Определяет параметры индекса поиска, влияющего на семантические возможности.

SemanticSearchOptions

Определяет параметры для семантических запросов поиска

SentimentSkill

Анализ положительных отрицательных тональности текста, оцененный как значение с плавающей запятой в диапазоне от нуля до 1.

SentimentSkillV3

Используя API анализа текста, вычисляет неструктурированный текст и для каждой записи предоставляет метки тональности (например, "отрицательные", "нейтральные" и "положительные") на основе самой высокой оценки достоверности, найденной службой на уровне предложения и документа.

ServiceCounters

Представляет счетчики ресурсов уровня обслуживания и квоты.

ServiceLimits

Представляет различные ограничения уровня обслуживания.

ShaperSkill

Навык изменения выходных данных. Он создает сложный тип для поддержки составных полей (также известных как многопартийные поля).

ShingleTokenFilter

Создает сочетания маркеров в виде одного маркера. Этот фильтр маркеров реализуется с помощью Apache Lucene.

Similarity

Базовый тип для алгоритмов сходства. Алгоритмы сходства используются для вычисления показателей, которые связывают запросы с документами. Чем выше оценка, тем более релевантный документ относится к этому конкретному запросу. Эти оценки используются для ранжирования результатов поиска.

SimpleField

Представляет поле в определении индекса, описывающее имя, тип данных и поведение поиска поля.

SnowballTokenFilter

Фильтр, который стебляет слова с помощью созданного сноубола стебля. Этот фильтр маркеров реализуется с помощью Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Определяет политику обнаружения удаления данных, реализующую стратегию обратимого удаления. Он определяет, следует ли удалять элемент на основе значения указанного столбца обратимого удаления.

SplitSkill

Навык разделения строки на фрагменты текста.

SqlIntegratedChangeTrackingPolicy

Определяет политику обнаружения изменений данных, которая фиксирует изменения с помощью функции встроенного отслеживания изменений базы данных SQL Azure.

StemmerOverrideTokenFilter

Предоставляет возможность переопределить другие фильтры с использованием пользовательских фильтров на основе словаря. Все термины, связанные с словарем, будут помечены как ключевые слова, чтобы они не были стеблированы с помощью стволовых модулей вниз по цепочке. Необходимо поместить перед любыми фильтрами с использованием стволовых элементов. Этот фильтр маркеров реализуется с помощью Apache Lucene.

StemmerTokenFilter

Фильтр для конкретного языка. Этот фильтр маркеров реализуется с помощью Apache Lucene.

StopAnalyzer

Делит текст на небуквенный; Применяет фильтры маркеров стоп-слов и строчных регистров. Этот анализатор реализуется с помощью Apache Lucene.

StopwordsTokenFilter

Удаляет слова остановки из потока маркеров. Этот фильтр маркеров реализуется с помощью Apache Lucene.

SuggestDocumentsResult

Ответ, содержащий результаты запроса предложения из индекса.

SuggestRequest

Параметры для фильтрации, сортировки, нечеткого сопоставления и других вариантов поведения запросов.

SynonymMap

Представляет определение карты синонимов.

SynonymTokenFilter

Соответствует синонимам одного или нескольких слов в потоке маркеров. Этот фильтр маркеров реализуется с помощью Apache Lucene.

TagScoringFunction

Определяет функцию, которая повышает оценку документов со строковыми значениями, соответствующими заданному списку тегов.

TagScoringParameters

Предоставляет значения параметров функции оценки тегов.

TextTranslationSkill

Навык перевода текста с одного языка на другой.

TextWeights

Определяет весы в полях индекса, для которых совпадения должны повысить оценку в поисковых запросах.

TruncateTokenFilter

Усечение терминов до определенной длины. Этот фильтр маркеров реализуется с помощью Apache Lucene.

UaxUrlEmailTokenizer

Маркеризирует URL-адреса и сообщения электронной почты в виде одного маркера. Этот токенизатор реализуется с помощью Apache Lucene.

UniqueTokenFilter

Фильтрует маркеры с тем же текстом, что и предыдущий маркер. Этот фильтр маркеров реализуется с помощью Apache Lucene.

VectorSearch

Содержит параметры конфигурации, связанные с векторным поиском.

VectorSearchOptions

Определяет параметры запросов поиска векторов

VectorSearchProfile

Определяет сочетание конфигураций для использования с векторным поиском.

VectorizableTextQuery

Параметры запроса, используемые для векторного поиска, если задано текстовое значение, которое необходимо векторизировать.

VectorizedQuery

Параметры запроса, используемые для поиска векторов при предоставлении необработанного векторного значения.

WebApiParameters

Задает свойства для подключения к определяемой пользователем векторизаторе.

WebApiSkill

Навык, который может вызывать конечную точку веб-API, позволяя расширить набор навыков, вызывая пользовательский код.

WebApiVectorizer

Задает определяемый пользователем векторизатор для создания векторного внедрения строки запроса. Интеграция внешнего векторизатора достигается с помощью пользовательского интерфейса веб-API набора навыков.

WordDelimiterTokenFilter

Разбивает слова на вложенные слова и выполняет необязательные преобразования в группах подслугов. Этот фильтр маркеров реализуется с помощью Apache Lucene.

Псевдонимы типа

AnalyzeTextOptions

Параметры анализа текстовой операции.

AutocompleteMode

Определяет значения для autocompleteMode.

AutocompleteOptions

Параметры получения текста завершения для частичного searchText.

AzureOpenAIModelName

Определяет значения для AzureOpenAIModelName.
KnownAzureOpenAIModelName можно использовать взаимозаменяемо с AzureOpenAIModelName, этот перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

text-embedding-ada-002

текстовые внедрения-3-небольшие

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Содержит возможные случаи для CharFilter.

CharFilterName

Определяет значения для CharFilterName.
<xref:KnownCharFilterName> можно использовать взаимозаменяемо с CharFilterName, этот перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

html_strip: фильтр символов, который пытается удалить конструкции HTML. См. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Определяет значения для CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Содержит возможные случаи для CognitiveServicesAccount.

ComplexDataType

Определяет значения для ComplexDataType. Возможные значения: "Edm.ComplexType", "Collection(Edm.ComplexType)"

CountDocumentsOptions

Параметры выполнения операции подсчета в индексе.

CreateDataSourceConnectionOptions

Параметры для создания операции источника данных.

CreateIndexOptions

Параметры создания операции индекса.

CreateIndexerOptions

Параметры создания операции индексатора.

CreateSkillsetOptions

Параметры для создания операции набора навыков.

CreateSynonymMapOptions

Параметры создания операции сопоставления синонимов.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Содержит возможные случаи для DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Содержит возможные случаи для DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Параметры операции удаления документов.

EdgeNGramTokenFilterSide

Определяет значения для EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Содержит параметры конфигурации, относящиеся к исчерпывающим алгоритму KNN, используемому во время запроса, который будет выполнять поиск методом подбора по всему векторному индексу.

ExtractDocumentKey
GetDataSourceConnectionOptions

Параметры для получения операции источника данных.

GetIndexOptions

Параметры для операции получения индекса.

GetIndexStatisticsOptions

Параметры операции получения статистики индекса.

GetIndexerOptions

Параметры для операции индексатора.

GetIndexerStatusOptions

Параметры для операции состояния индексатора.

GetServiceStatisticsOptions

Параметры получения статистики службы.

GetSkillSetOptions

Параметры для операции набора навыков.

GetSynonymMapsOptions

Параметры операции получения карт синонимов.

HnswAlgorithmConfiguration

Содержит параметры конфигурации, относящиеся к алгоритму hnsw, приблизительному ближайшему алгоритму соседей, используемому во время индексирования.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Определяет значения для IndexActionType.

IndexDocumentsAction

Представляет действие индекса, которое работает с документом.

IndexIterator

Итератор для перечисления индексов, существующих в службе поиска. Будет выполнять запросы по мере необходимости во время итерации. Используйте .byPage() для выполнения одного запроса к серверу на итерацию.

IndexNameIterator

Итератор для перечисления индексов, существующих в службе поиска. Будет выполнять запросы по мере необходимости во время итерации. Используйте .byPage() для выполнения одного запроса к серверу на итерацию.

IndexProjectionMode

Определяет значения для IndexProjectionMode.
KnownIndexProjectionMode можно использовать взаимозаменяемо с IndexProjectionMode, этот перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

skipIndexingParentDocuments: исходный документ будет пропущен из записи в целевой индекс индексатора.
включаютIndexingParentDocuments: исходный документ будет записан в целевой индекс индексатора. Это шаблон по умолчанию.

IndexerExecutionEnvironment
IndexerExecutionStatus

Определяет значения для IndexerExecutionStatus.

IndexerStatus

Определяет значения для IndexerStatus.

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

Содержит возможные случаи для анализатора.

LexicalAnalyzerName

Определяет значения для LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> можно использовать взаимозаменяемо с LexicalAnalyzerName, этот перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

ar.microsoft: анализатор Майкрософт для арабского языка.
ar.lucene: анализатор Lucene для арабского языка.
hy.lucene: Анализатор Lucene для армян.
bn.microsoft: анализатор Microsoft для Bangla.
eu.lucene: Анализатор Lucene для Баска.
bg.microsoft: анализатор Microsoft для болгарии.
bg.lucene: Анализатор Lucene для Болгарии.
ca.microsoft: анализатор Microsoft для каталонца.
ca.lucene: Анализатор Lucene для Каталонца.
zh-Hans.microsoft: анализатор Microsoft для китайского (упрощенное письмо).
zh-Hans.lucene: анализатор Lucene для китайского (упрощенное письмо).
zh-Hant.microsoft: Анализатор Майкрософт для китайского (традиционного языка).
zh-Hant.lucene: Анализатор Lucene для китайского (традиционного).
hr.microsoft: анализатор Майкрософт для хорватского языка.
cs.microsoft: анализатор Microsoft для Чехии.
cs.lucene: Анализатор Lucene для Чехии.
da.microsoft: анализатор Майкрософт для датского языка.
da.lucene: Анализатор Lucene для датского языка.
nl.microsoft: анализатор Microsoft для нидерландов.
nl.lucene: Анализатор Lucene для нидерландов.
en.microsoft: анализатор Microsoft для английского языка.
en.lucene: Анализатор Lucene для английского языка.
et.microsoft: анализатор Microsoft для Эстонии.
fi.microsoft: анализатор Microsoft для финляндии.
fi.lucene: Анализатор Lucene для финляндии.
fr.microsoft: анализатор Майкрософт для французского языка.
fr.lucene: Анализатор Lucene для французского языка.
gl.lucene: Анализатор Lucene для Галисиана.
de.microsoft: анализатор Майкрософт для немецкого языка.
de.lucene: анализатор Lucene для немецкого языка.
el.microsoft: анализатор Microsoft для греции.
el.lucene: Анализатор Lucene для греческого языка.
gu.microsoft: анализатор Microsoft для Gujarati.
he.microsoft: анализатор Microsoft для иврита.
hi.microsoft: анализатор Microsoft для Хинди.
hi.lucene: Анализатор Lucene для Хинди.
hu.microsoft: анализатор Майкрософт для венгерского.
hu.lucene: Анализатор Lucene для венгерского.
is.microsoft: анализатор Microsoft для Исландии.
id.microsoft: анализатор Майкрософт для индонезийского (Бахаса).
id.lucene: анализатор Lucene для Индонезии.
ga.lucene: Анализатор Lucene для ирландских.
it.microsoft: анализатор Майкрософт для итальянского языка.
it.lucene: Анализатор Lucene для итальянского языка.
ja.microsoft: анализатор Microsoft для японского языка.
ja.lucene: Анализатор Lucene для японского языка.
kn.microsoft: анализатор Microsoft для Kannada.
ko.microsoft: анализатор Майкрософт для корейского языка.
ko.lucene: Анализатор Lucene для корейского языка.
lv.microsoft: анализатор Microsoft для Латвии.
lv.lucene: Анализатор Lucene для Латвии.
lt.microsoft: анализатор Майкрософт для Литвы.
ml.microsoft: анализатор Microsoft для Малаялам.
ms.microsoft: анализатор Майкрософт для Малайского (латиница).
mr.microsoft: анализатор Microsoft для Маратхи.
nb.microsoft: анализатор Microsoft для норвежского языка (Bokmål).
no.lucene: Анализатор Lucene для норвежского языка.
fa.lucene: Анализатор Lucene для персидского языка.
pl.microsoft: анализатор Майкрософт для польского.
pl.lucene: Анализатор Lucene для польского.
pt-BR.microsoft: анализатор Microsoft для португальского языка (Бразилия).
pt-BR.lucene: анализатор Lucene для португальского (Бразилия).
pt-PT.microsoft: анализатор Microsoft для португальского языка (Португалия).
pt-PT.lucene: анализатор Lucene для португальского (Португалия).
pa.microsoft: анализатор Microsoft для Пенджаби.
ro.microsoft: анализатор Microsoft для румынии.
ro.lucene: Анализатор Lucene для румынии.
ru.microsoft: анализатор Майкрософт для русского языка.
ru.lucene: Анализатор Lucene для россии.
sr-cyrillic.microsoft: Анализатор Майкрософт для сербских (кириллица).
sr-latin.microsoft: анализатор Microsoft для сербских (латиница).
sk.microsoft: анализатор Microsoft для словацких.
sl.microsoft: анализатор Майкрософт для словенцев.
es.microsoft: анализатор Майкрософт для испанского языка.
es.lucene: Анализатор Lucene для испанского языка.
sv.microsoft: анализатор Майкрософт для шведского языка.
sv.lucene: Анализатор Lucene для шведского языка.
ta.microsoft: анализатор Майкрософт для Тамил.
te.microsoft: анализатор Microsoft для Telugu.
th.microsoft: анализатор Майкрософт для тайского языка.
th.lucene: Lucene анализатор для тайского языка.
tr.microsoft: анализатор Microsoft для турецкого языка.
tr.lucene: Анализатор Lucene для турецкого языка.
uk.microsoft: анализатор Майкрософт для украины.
your.microsoft: анализатор Microsoft для Urdu.
vi.microsoft: анализатор Майкрософт для вьетнамцев.
standard.lucene: стандартный анализатор Lucene.
standardasciifolding.lucene: Стандартный анализатор ASCII Folding Lucene. См. https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
ключевое слово: обрабатывает все содержимое поля как один маркер. Это полезно для таких данных, как zip-коды, идентификаторы и некоторые имена продуктов. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
шаблон: гибкий разделяет текст на термины с помощью шаблона регулярного выражения. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
простые: делит текст на небуквенный и преобразует их в нижний регистр. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
остановить: делит текст на небуквенный; Применяет фильтры маркеров стоп-слов и строчных регистров. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
пробелов: анализатор, использующий токенизатор пробелов. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Содержит возможные варианты для токенизатора.

LexicalTokenizerName

Определяет значения для LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> можно использовать взаимозаменяемо с LexicalTokenizerName, этот перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

классический: токенизатор на основе грамматики, подходящий для обработки большинства документов на языке Европы. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: маркеризирует входные данные из края в n-граммы заданных размеров. См. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: выводит весь вход в виде одного маркера. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
буквы: делит текст на небуквенный. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
строчные: делит текст на небуквенный и преобразует их в нижний регистр. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: разделяет текст с помощью правил, относящихся к языку.
microsoft_language_stemming_tokenizer: разделяет текст с помощью правил, относящихся к языку, и сокращает их базовые формы.
nGram: маркеризирует входные данные в n-граммах заданных размеров. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: токенизатор для иерархий, похожих на путь. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
шаблон: токенизатор, использующий шаблон регулярного выражения для создания уникальных маркеров. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: анализатор Standard Lucene; Состоит из стандартного токенизатора, нижнего регистра фильтра и фильтра остановки. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: маркеризирует URL-адреса и сообщения электронной почты в виде одного маркера. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
пробелов: делит текст на пробелы. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Параметры операции источников данных списка.

ListIndexersOptions

Параметры операции индексаторов списка.

ListIndexesOptions

Параметры операции индексов списка.

ListSkillsetsOptions

Параметры операции набора навыков списка.

ListSynonymMapsOptions

Параметры операции сопоставления синонимов списка.

MergeDocumentsOptions

Параметры операции слияния документов.

MergeOrUploadDocumentsOptions

Параметры операции слияния или отправки документов.

MicrosoftStemmingTokenizerLanguage

Определяет значения для MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Определяет значения для MicrosoftTokenizerLanguage.

NarrowedModel

Сужает тип модели, чтобы включить только выбранные поля

OcrLineEnding

Определяет значения для OcrLineEnding.
KnownOcrLineEnding можно использовать взаимозаменяемо с OcrLineEnding, этот перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

пробел: линии разделяются одним символом пробела.
кареткиReturn: линии разделяются символом возврата каретки ("\r").
lineFeed: линии разделяются одним каналом строк ("\n") символом.
кареткиReturnLineFeed: линии разделяются возвратом каретки и символом строки (\r\n').

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Определяет значения для PhoneticEncoder.

QueryAnswer

Значение, указывающее, следует ли возвращать ответы как часть ответа поиска. Этот параметр действителен только в том случае, если тип запроса имеет значение "семантика". Если задано значение extractive, запрос возвращает ответы, извлеченные из ключевых проходов в документах с наивысшим рейтингом.

QueryCaption

Значение, указывающее, должны ли возвращаться заголовки в ответе на поиск. Этот параметр действителен только в том случае, если тип запроса имеет значение "семантика". Если задано, запрос возвращает заголовки, извлеченные из ключевых проходов в документах с наивысшим рейтингом. Если субтитры являются извлечением, выделение включается по умолчанию. Значение по умолчанию — none.

QueryType

Определяет значения для QueryType.

RegexFlags
ResetIndexerOptions

Параметры операции индексатора сброса.

RunIndexerOptions

Параметры выполнения операции индексатора.

ScoringFunction

Содержит возможные случаи оценкиFunction.

ScoringFunctionAggregation

Определяет значения для ScoringFunctionAggregation.

ScoringFunctionInterpolation

Определяет значения для ScoringFunctionInterpolation.

ScoringStatistics

Определяет значения для ScoringStatistics.

SearchField

Представляет поле в определении индекса, описывающее имя, тип данных и поведение поиска поля.

SearchFieldArray

Если TModel является нетипизированным объектом, нетипизированный массив строк в противном случае — поля с разделителями косой черты TModel.

SearchFieldDataType

Определяет значения для SearchFieldDataType.

Известные значения, поддерживаемые службой:

Edm.String: указывает, что поле содержит строку.

Edm.Int32: указывает, что поле содержит 32-разрядное целое число со знаком.

Edm.Int64: указывает, что поле содержит 64-разрядное целое число со знаком.

Edm.Double: указывает, что поле содержит число с плавающей запятой двойной точности IEEE.

Edm.Boolean: указывает, что поле содержит логическое значение (true или false).

Edm.DateTimeOffset: указывает, что поле содержит значение даты и времени, включая сведения о часовом поясе.

Edm.GeographyPoint: указывает, что поле содержит географическое расположение с точки зрения долготы и широты.

Edm.ComplexType: указывает, что поле содержит один или несколько сложных объектов, которые, в свою очередь, имеют под поля других типов.

Edm.Single: указывает, что поле содержит число с плавающей запятой с одной точностью. Это допустимо только при использовании в составе типа коллекции, т. е. Collection(Edm.Single).

Edm.Half: указывает, что поле содержит полуточие с плавающей запятой. Это допустимо только при использовании в составе типа коллекции, т. е. Collection(Edm.Half).

Edm.Int16: указывает, что поле содержит 16-разрядное целое число со знаком. Это допустимо только при использовании в составе типа коллекции, т. е. Collection(Edm.Int16).

Edm.SByte: указывает, что поле содержит 8-разрядное целое число со знаком. Это допустимо только при использовании в составе типа коллекции, т. е. Collection(Edm.SByte).

Edm.Byte: указывает, что поле содержит 8-разрядное целое число без знака. Это допустимо только при использовании в составе типа коллекции, т. е. Collection(Edm.Byte).

SearchIndexerDataIdentity

Содержит возможные случаи для SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Содержит возможные случаи для навыка.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Параметры searchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Параметры поиска SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Параметры поиска SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Параметры поиска SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Параметры searchIndexingBufferedSenderUploadDocuments.

SearchIterator

Итератор для результатов поиска патикулярного запроса. Будет выполнять запросы по мере необходимости во время итерации. Используйте .byPage() для выполнения одного запроса к серверу на итерацию.

SearchMode

Определяет значения для SearchMode.

SearchOptions

Параметры фиксации полного запроса поиска.

SearchPick

Глубоко выберите поля T с помощью допустимых путей OData когнитивного поиска $select.

SearchRequestOptions

Параметры фильтрации, сортировки, фасетирования, разбиения по страницам и других поведении поисковых запросов.

SearchRequestQueryTypeOptions
SearchResult

Содержит документ, найденный поисковым запросом, а также связанные метаданные.

SelectArray

Если TFields никогда не существует, нетипизированный массив строк в противном случае используется узкий Fields[] тип, используемый в другом месте.

SelectFields

Создает объединение допустимых путей OData когнитивного поиска $select для T с помощью обхода после заказа дерева полей, корневого в T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

Содержит возможные случаи сходства.

SnowballTokenFilterLanguage

Определяет значения для SnowballTokenFilterLanguage.

SplitSkillLanguage
StemmerTokenFilterLanguage

Определяет значения для StemmerTokenFilterLanguage.

StopwordsList

Определяет значения для StopwordsList.

SuggestNarrowedModel
SuggestOptions

Параметры получения предложений на основе searchText.

SuggestResult

Результат, содержащий документ, найденный запросом предложения, а также связанные метаданные.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Определяет значения для TokenCharacterKind.

TokenFilter

Содержит возможные случаи для TokenFilter.

TokenFilterName

Определяет значения для TokenFilterName.
<xref:KnownTokenFilterName> можно использовать взаимозаменяемо с TokenFilterName, этот перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

arabic_normalization: фильтр маркеров, который применяет арабский нормализатор для нормализации ортографии. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrophe: полосит все символы после апострофа (включая сам апостроф). См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: преобразует алфавитные, числовые и символьные символы Юникода, которые не находятся в первых 127 символах ASCII (блок Юникода "Базовый латиница") в эквиваленты ASCII, если такие эквиваленты существуют. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: формирует большие кадры терминов CJK, созданных из стандартного токенизатора. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: нормализует различия ширины CJK. Сворачивать варианты fullwidth ASCII в эквивалентную базовую латиницу и половину ширины вариантов Katakana в эквивалентную Кану. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
классических: удаляет английские пристрастия и точки из акронимов. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams. Создание больших рам для часто возникающих терминов при индексировании. Отдельные термины по-прежнему индексируются слишком, при наложении bigrams. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: создает n-граммы заданных размеров, начиная с передней или задней части входного маркера. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
: удаляет elisions. Например, "l'avion" (плоскость) преобразуется в "avion" (плоскость). См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: нормализует немецкие символы в соответствии с эвристиками алгоритма снежного шара германии 2. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: нормализует текст в Хинди, чтобы удалить некоторые различия в вариантах орфографии. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: нормализует представление текста Юникода на индийских языках. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: дважды выдает каждый входящий маркер, один раз в качестве ключевого слова и один раз как не ключевое слово. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: высокопроизводительный фильтр kstem для английского языка. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
длину: удаляет слова, слишком длинные или слишком короткие. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
ограничение: ограничивает количество маркеров при индексировании. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
строчные: нормализует текст маркера в нижнем регистре. См. https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: создает n-граммы заданных размеров. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: применяет нормализацию для персидского языка. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
фонетические: создание маркеров для фонетических совпадений. См. https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem. Использует алгоритм стебля портера для преобразования потока маркеров. См. http://tartarus.org/~martin/PorterStemmer
обратной: отменяет строку токена. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: нормализует использование взаимозаменяемых скандинавских символов. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Свертывания скандинавских символов åÅääÄÄÄÆ->a и öÖøØ->o. Он также дискриминирует использование двойных гласных aa, ae, ao, oe и oo, оставляя только первый. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
сияние: создает сочетания маркеров в виде одного маркера. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
снежная: фильтр, который стебляет слова с помощью созданного сноубола стебля. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: нормализует представление текста Sorani в Юникоде. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
стеммера: фильтр для конкретного языка. См. https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
стоп-слов: удаляет слова остановки из потока маркеров. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
обрезать: обрезает начальные и конечные пробелы из маркеров. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
усечение: усечение терминов до определенной длины. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
уникальные: отфильтровывает маркеры с тем же текстом, что и предыдущий маркер. См. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
верхнем регистре: нормализует текст маркера в верхний регистр. См. https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: разбивает слова на вложенные слова и выполняет необязательные преобразования в группах подслугов.

UnionToIntersection
UploadDocumentsOptions

Параметры операции отправки документов.

VectorEncodingFormat

Определяет значения для VectorEncodingFormat.
KnownVectorEncodingFormat можно использовать взаимозаменяемо с VectorEncodingFormat, этот перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

упакованные биты: формат кодирования, представляющий биты, упакованные в более широкий тип данных.

VectorFilterMode
VectorQuery

Параметры запроса для векторных и гибридных поисковых запросов.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Содержит параметры конфигурации, относящиеся к алгоритму, используемому во время индексирования и/или запроса.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Содержит параметры конфигурации, относящиеся к методу сжатия, используемому во время индексирования или запроса.

VectorSearchCompressionKind

Определяет значения для VectorSearchCompressionKind.
KnownVectorSearchCompressionKind можно использовать взаимозаменяемо с VectorSearchCompressionKind, этот перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

скалярная квантизация: Скалярная квантизация, тип метода сжатия. В скалярной квантизации исходные значения векторов сжимаются до более узкого типа путем дискретизации и представления каждого компонента вектора с помощью сокращенного набора квантизованных значений, тем самым уменьшая общий размер данных.
binaryQuantization: Binary Quantization, тип метода сжатия. В двоичном квантизации исходные значения векторов сжимаются до более узкого двоичного типа путем дискретизации и представления каждого компонента вектора с использованием двоичных значений, тем самым уменьшая общий размер данных.

VectorSearchCompressionTarget

Определяет значения для VectorSearchCompressionTarget.
KnownVectorSearchCompressionTarget можно использовать взаимозаменяемо с VectorSearchCompressionTarget, эта перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

int8

VectorSearchVectorizer

Содержит параметры конфигурации по векторным запросам вектора текста.

VectorSearchVectorizerKind

Определяет значения для VectorSearchVectorizerKind.
KnownVectorSearchVectorizerKind можно использовать взаимозаменяемо с VectorSearchVectorizerKind, этот перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

azureOpenAI. Создание внедрения с помощью ресурса Azure OpenAI во время запроса.
customWebApi: создание внедрения с помощью пользовательской веб-конечной точки во время запроса.

VisualFeature

Перечисления

KnownAnalyzerNames

Определяет значения для AnalyzerName. См. https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Известные значения AzureOpenAIModelName, которые служба принимает.

KnownBlobIndexerDataToExtract

Известные значения BLOBIndexerDataToExtract, которые служба принимает.

KnownBlobIndexerImageAction

Известные значения BLOBIndexerImageAction, которые служба принимает.

KnownBlobIndexerPDFTextRotationAlgorithm

Известные значения BLOBIndexerPDFTextRotationAlgorithm, которые служба принимает.

KnownBlobIndexerParsingMode

Известные значения BLOBIndexerParsingMode, которые служба принимает.

KnownCharFilterNames

Известные значения CharFilterName, которые служба принимает.

KnownCustomEntityLookupSkillLanguage

Известные значения CustomEntityLookupSkillLanguage, которые служба принимает.

KnownEntityCategory

Известные значения EntityCategory, которые служба принимает.

KnownEntityRecognitionSkillLanguage

Известные значения EntityRecognitionSkillLanguage, которые служба принимает.

KnownImageAnalysisSkillLanguage

Известные значения ImageAnalysisSkillLanguage, которые служба принимает.

KnownImageDetail

Известные значения ImageDetail, которые служба принимает.

KnownIndexProjectionMode

Известные значения IndexProjectionMode, которые служба принимает.

KnownIndexerExecutionEnvironment

Известные значения IndexerExecutionEnvironment, которые служба принимает.

KnownKeyPhraseExtractionSkillLanguage

Известные значения KeyPhraseExtractionSkillLanguage, которые служба принимает.

KnownOcrLineEnding

Известные значения OcrLineEnding, которые принимает служба.

KnownOcrSkillLanguage

Известные значения OcrSkillLanguage, которые служба принимает.

KnownPIIDetectionSkillMaskingMode

Известные значения PIIDetectionSkillM askMode, которые служба принимает.

KnownRegexFlags

Известные значения RegexFlags, которые служба принимает.

KnownSearchAudience

Известные значения для аудитории поиска

KnownSearchFieldDataType

Известные значения SearchFieldDataType, которые служба принимает.

KnownSearchIndexerDataSourceType

Известные значения SearchIndexerDataSourceType, которые принимает служба.

KnownSemanticErrorMode

Известные значения SemanticErrorMode, которые принимает служба.

KnownSemanticErrorReason

Известные значения SemanticErrorReason, которые служба принимает.

KnownSemanticSearchResultsType

Известные значения SemanticSearchResultsType, которые служба принимает.

KnownSentimentSkillLanguage

Известные значения SentimentSkillLanguage, которые служба принимает.

KnownSplitSkillLanguage

Известные значения SplitSkillLanguage, которые служба принимает.

KnownTextSplitMode

Известные значения TextSplitMode, которые служба принимает.

KnownTextTranslationSkillLanguage

Известные значения TextTranslationSkillLanguage, которые служба принимает.

KnownTokenFilterNames

Известные значения TokenFilterName, которые служба принимает.

KnownTokenizerNames

Известные значения LexicalTokenizerName, которые принимает служба.

KnownVectorEncodingFormat

Известные значения VectorEncodingFormat, которые служба принимает.

KnownVectorFilterMode

Известные значения VectorFilterMode, которые служба принимает.

KnownVectorQueryKind

Известные значения VectorQueryKind, которые служба принимает.

KnownVectorSearchAlgorithmKind

Известные значения VectorSearchAlgorithmKind, которые служба принимает.

KnownVectorSearchAlgorithmMetric

Известные значения VectorSearchAlgorithmMetric, которые служба принимает.

KnownVectorSearchCompressionKind

Известные значения VectorSearchCompressionKind, которые принимает служба.

KnownVectorSearchCompressionTarget

Известные значения VectorSearchCompressionTarget, которые служба принимает.

KnownVectorSearchVectorizerKind

Известные значения VectorSearchVectorizerKind, которые служба принимает.

KnownVisualFeature

Известные значения VisualFeature, которые принимает служба.

Функции

createSynonymMapFromFile(string, string)

Вспомогательный метод для создания объекта SynonymMap. Это единственный метод NodeJS.

odata(TemplateStringsArray, unknown[])

Экранирует выражение фильтра odata, чтобы избежать ошибок с помощью строковых литерала. Пример использования:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Дополнительные сведения о поддерживаемом синтаксисе см. в статье https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Сведения о функции

createSynonymMapFromFile(string, string)

Вспомогательный метод для создания объекта SynonymMap. Это единственный метод NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Параметры

name

string

Имя Синоним-карты.

filePath

string

Путь к файлу, который содержит синонимы (разделяется новыми строками)

Возвращаемое значение

Promise<SynonymMap>

Объект SynonymMap

odata(TemplateStringsArray, unknown[])

Экранирует выражение фильтра odata, чтобы избежать ошибок с помощью строковых литерала. Пример использования:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Дополнительные сведения о поддерживаемом синтаксисе см. в статье https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Параметры

strings

TemplateStringsArray

Массив строк для выражения

values

unknown[]

Массив значений для выражения

Возвращаемое значение

string