Udostępnij za pośrednictwem


@azure/search-documents package

Klasy

AzureKeyCredential

Poświadczenie oparte na kluczu statycznym, które obsługuje aktualizowanie bazowej wartości klucza.

GeographyPoint

Reprezentuje punkt geograficzny we współrzędnych globalnych.

IndexDocumentsBatch

Klasa używana do wykonywania operacji wsadowych z wieloma dokumentami do indeksu.

SearchClient

Klasa używana do wykonywania operacji względem indeksu wyszukiwania, w tym wykonywania zapytań dotyczących dokumentów w indeksie, a także dodawania, aktualizowania i usuwania.

SearchIndexClient

Klasa do wykonywania operacji w celu zarządzania (tworzeniem, aktualizowaniem, listą/usuwaniem) indeksów, & synonimami.

SearchIndexerClient

Klasa do wykonywania operacji w celu zarządzania (tworzeniem, aktualizowaniem, listą/usuwaniem) indeksatorów, źródłami danych & zestawami umiejętności.

SearchIndexingBufferedSender

Klasa używana do wykonywania buforowanych operacji względem indeksu wyszukiwania, w tym dodawania, aktualizowania i usuwania.

Interfejsy

AnalyzeRequest

Określa niektóre składniki tekstowe i analityczne używane do dzielenia tego tekstu na tokeny.

AnalyzeResult

Wynik testowania analizatora tekstu.

AnalyzedTokenInfo

Informacje o tokenie zwróconym przez analizator.

AsciiFoldingTokenFilter

Konwertuje znaki alfabetyczne, liczbowe i symboliczne Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (bloku Unicode "Basic Latin") na ich odpowiedniki ASCII, jeśli takie odpowiedniki istnieją. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

AutocompleteItem

Wynik żądań autouzupełniania.

AutocompleteRequest

Parametry dopasowania rozmytego i inne zachowania zapytań autouzupełniania.

AutocompleteResult

Wynik zapytania autouzupełniania.

AzureActiveDirectoryApplicationCredentials

Poświadczenia zarejestrowanej aplikacji utworzonej dla usługi wyszukiwania używane do uwierzytelnionego dostępu do kluczy szyfrowania przechowywanych w usłudze Azure Key Vault.

AzureOpenAIEmbeddingSkill

Umożliwia wygenerowanie wektora osadzania dla danego tekstu wejściowego przy użyciu zasobu Azure OpenAI.

AzureOpenAIParameters

Zawiera parametry specyficzne dla używania usługi Azure Open AI na potrzeby wektoryzacji w czasie wykonywania zapytań.

AzureOpenAIVectorizer

Zawiera parametry specyficzne dla używania usługi Azure Open AI na potrzeby wektoryzacji w czasie wykonywania zapytań.

BM25Similarity

Funkcja klasyfikacji oparta na algorytmie podobieństwa okapi BM25. BM25 to algorytm podobny do tf-IDF, który obejmuje normalizację długości (kontrolowaną przez parametr "b"), a także nasycenie częstotliwości terminów (kontrolowane przez parametr "k1").

BaseCharFilter

Typ podstawowy filtrów znaków.

BaseCognitiveServicesAccount

Typ podstawowy opisujący dowolny zasób usługi Azure AI dołączony do zestawu umiejętności.

BaseDataChangeDetectionPolicy

Typ podstawowy zasad wykrywania zmian danych.

BaseDataDeletionDetectionPolicy

Typ podstawowy zasad wykrywania usuwania danych.

BaseLexicalAnalyzer

Typ podstawowy analizatorów.

BaseLexicalTokenizer

Typ podstawowy tokenizatorów.

BaseScoringFunction

Typ podstawowy funkcji, które mogą modyfikować wyniki dokumentu podczas klasyfikowania.

BaseSearchIndexerDataIdentity

Abstrakcyjny typ podstawowy tożsamości danych.

BaseSearchIndexerSkill

Typ podstawowy umiejętności.

BaseSearchRequestOptions

Parametry do filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania.

BaseTokenFilter

Typ podstawowy filtrów tokenów.

BaseVectorQuery

Parametry zapytania dla wektorów i zapytań wyszukiwania hybrydowego.

BaseVectorSearchAlgorithmConfiguration

Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań.

BaseVectorSearchCompression

Zawiera opcje konfiguracji specyficzne dla metody kompresji używanej podczas indeksowania lub wykonywania zapytań.

BaseVectorSearchVectorizer

Zawiera szczegółowe informacje dotyczące metody wektoryzacji, która ma być używana w czasie zapytania.

BinaryQuantizationCompression

Zawiera opcje konfiguracji specyficzne dla binarnej metody kompresji kwantyzacji używanej podczas indeksowania i wykonywania zapytań.

CjkBigramTokenFilter

Tworzy bigramy terminów CJK generowanych na podstawie standardowego tokenizatora. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

ClassicSimilarity

Starszy algorytm podobieństwa, który używa implementacji TFIDFSimilarity Lucene tf-IDF. Ta odmiana TF-IDF wprowadza normalizację długości dokumentu statycznego, a także koordynujące czynniki, które karują dokumenty, które częściowo pasują tylko do wyszukiwanych zapytań.

ClassicTokenizer

Tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

CognitiveServicesAccountKey

Klucz konta w wielu regionach zasobu usługi Azure AI dołączony do zestawu umiejętności.

CommonGramTokenFilter

Konstruowanie bigramów dla często występujących terminów podczas indeksowania. Pojedyncze terminy są również indeksowane, a bigramy są nakładane. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

ComplexField

Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola.

ConditionalSkill

Umiejętność umożliwiająca scenariusze wymagające operacji logicznej w celu określenia danych do przypisania do danych wyjściowych.

CorsOptions

Definiuje opcje kontrolowania współużytkowania zasobów między źródłami (CORS) dla indeksu.

CreateOrUpdateIndexOptions

Opcje operacji tworzenia/aktualizowania indeksu.

CreateOrUpdateSkillsetOptions

Opcje tworzenia/aktualizowania operacji zestawu umiejętności.

CreateOrUpdateSynonymMapOptions

Opcje operacji tworzenia/aktualizowania synonimu.

CreateorUpdateDataSourceConnectionOptions

Opcje operacji tworzenia/aktualizowania źródła danych.

CreateorUpdateIndexerOptions

Opcje operacji tworzenia/aktualizowania indeksatora.

CustomAnalyzer

Umożliwia przejęcie kontroli nad procesem konwertowania tekstu na tokeny z możliwością indeksowania/wyszukiwania. Jest to konfiguracja zdefiniowana przez użytkownika składająca się z jednego wstępnie zdefiniowanego tokenizera i co najmniej jednego filtru. Tokenizer jest odpowiedzialny za podzielenie tekstu na tokeny i filtry modyfikowania tokenów emitowanych przez tokenizatora.

CustomEntity

Obiekt zawierający informacje o znalezionych dopasowaniach i powiązanych metadanych.

CustomEntityAlias

Obiekt złożony, który może służyć do określania alternatywnych pisowni lub synonimów nazwy jednostki głównej.

CustomEntityLookupSkill

Umiejętność szuka tekstu z niestandardowej, zdefiniowanej przez użytkownika listy wyrazów i fraz.

DefaultCognitiveServicesAccount

Pusty obiekt reprezentujący domyślny zasób usługi Azure AI dla zestawu umiejętności.

DeleteDataSourceConnectionOptions

Opcje operacji usuwania źródła danych.

DeleteIndexOptions

Opcje operacji usuwania indeksu.

DeleteIndexerOptions

Opcje operacji usuwania indeksatora.

DeleteSkillsetOptions

Opcje usuwania operacji zestawu umiejętności.

DeleteSynonymMapOptions

Opcje usuwania operacji synonimów.

DictionaryDecompounderTokenFilter

Rozkłada złożone wyrazy znalezione w wielu językach niemieckich. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

DistanceScoringFunction

Definiuje funkcję, która zwiększa wyniki na podstawie odległości od lokalizacji geograficznej.

DistanceScoringParameters

Udostępnia wartości parametrów funkcji oceniania odległości.

DocumentExtractionSkill

Umiejętność wyodrębniania zawartości z pliku w potoku wzbogacania.

EdgeNGramTokenFilter

Generuje n-gramy danego rozmiaru, zaczynając od przodu lub z tyłu tokenu wejściowego. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

EdgeNGramTokenizer

Tokenizuje dane wejściowe z krawędzi do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

ElisionTokenFilter

Usuwa elizji. Na przykład "l'avion" (płaszczyzna) zostanie przekonwertowana na "avion" (płaszczyzna). Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

EntityLinkingSkill

Przy użyciu interfejsu API analizy tekstu wyodrębnia połączone jednostki z tekstu.

EntityRecognitionSkill

Rozpoznawanie jednostek analizy tekstu.

EntityRecognitionSkillV3

Przy użyciu interfejsu API analizy tekstu wyodrębnia jednostki różnych typów z tekstu.

ExhaustiveKnnParameters

Zawiera parametry specyficzne dla wyczerpującego algorytmu KNN.

ExtractiveQueryAnswer

Wyodrębnia kandydatów odpowiedzi z zawartości dokumentów zwracanych w odpowiedzi na zapytanie wyrażone jako pytanie w języku naturalnym.

ExtractiveQueryCaption

Wyodrębnia podpisy z pasujących dokumentów, które zawierają fragmenty istotne dla zapytania wyszukiwania.

FacetResult

Pojedynczy zasobnik wyniku zapytania aspektowego. Raportuje liczbę dokumentów z wartością pola należącą do określonego zakresu lub z określoną wartością lub interwałem.

FieldMapping

Definiuje mapowanie między polem w źródle danych a polem docelowym w indeksie.

FieldMappingFunction

Reprezentuje funkcję, która przekształca wartość ze źródła danych przed indeksowaniem.

FreshnessScoringFunction

Definiuje funkcję, która zwiększa wyniki na podstawie wartości pola daty i godziny.

FreshnessScoringParameters

Udostępnia wartości parametrów funkcji oceniania świeżości.

GetDocumentOptions

Opcje pobierania pojedynczego dokumentu.

HighWaterMarkChangeDetectionPolicy

Definiuje zasady wykrywania zmian danych, które przechwytują zmiany na podstawie wartości kolumny wysokiego znacznika wody.

HnswParameters

Zawiera parametry specyficzne dla algorytmu hnsw.

ImageAnalysisSkill

Umiejętność analizująca pliki obrazów. Wyodrębnia bogaty zestaw funkcji wizualnych na podstawie zawartości obrazu.

IndexDocumentsClient

Klient indeksowania dokumentów

IndexDocumentsOptions

Opcje modyfikowania operacji wsadowej indeksu.

IndexDocumentsResult

Odpowiedź zawierająca stan operacji dla wszystkich dokumentów w żądaniu indeksowania.

IndexerExecutionResult

Reprezentuje wynik pojedynczego wykonywania indeksatora.

IndexingParameters

Reprezentuje parametry wykonywania indeksatora.

IndexingParametersConfiguration

Słownik właściwości konfiguracji specyficznych dla indeksatora. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego.

IndexingResult

Stan operacji indeksowania dla pojedynczego dokumentu.

IndexingSchedule

Reprezentuje harmonogram wykonywania indeksatora.

InputFieldMappingEntry

Mapowanie pól wejściowych dla umiejętności.

KeepTokenFilter

Filtr tokenu, który przechowuje tylko tokeny z tekstem zawartym na określonej liście wyrazów. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

KeyPhraseExtractionSkill

Umiejętność, która korzysta z analizy tekstu na potrzeby wyodrębniania kluczowych fraz.

KeywordMarkerTokenFilter

Oznacza terminy jako słowa kluczowe. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

KeywordTokenizer

Emituje całe dane wejściowe jako pojedynczy token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

LanguageDetectionSkill

Umiejętność, która wykrywa język tekstu wejściowego i zgłasza pojedynczy kod języka dla każdego dokumentu przesłanego na żądanie. Kod języka jest sparowany z wynikiem wskazującym pewność analizy.

LengthTokenFilter

Usuwa wyrazy, które są za długie lub za krótkie. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

LimitTokenFilter

Ogranicza liczbę tokenów podczas indeksowania. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

ListSearchResultsPageSettings

Argumenty pobierania następnej strony wyników wyszukiwania.

LuceneStandardAnalyzer

Standardowy analizator Apache Lucene; Składa się z standardowego tokenizatora, małe litery filtru i filtru zatrzymania.

LuceneStandardTokenizer

Podział tekstu zgodnie z regułami segmentacji tekstu Unicode. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

MagnitudeScoringFunction

Definiuje funkcję, która zwiększa wyniki na podstawie wielkości pola liczbowego.

MagnitudeScoringParameters

Dostarcza wartości parametrów do funkcji oceniania wielkości.

MappingCharFilter

Filtr znaków, który stosuje mapowania zdefiniowane za pomocą opcji mapowania. Dopasowanie jest chciwe (najdłuższe dopasowanie wzorca w danym punkcie wygrywa). Zastąpienie może być pustym ciągiem. Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene.

MergeSkill

Umiejętność scalania dwóch lub większej liczby ciągów w jeden ujednolicony ciąg z opcjonalnym ogranicznikiem zdefiniowanym przez użytkownika oddzielającym każdą część składnika.

MicrosoftLanguageStemmingTokenizer

Dzieli tekst przy użyciu reguł specyficznych dla języka i zmniejsza liczbę wyrazów do ich podstawowych formularzy.

MicrosoftLanguageTokenizer

Dzieli tekst przy użyciu reguł specyficznych dla języka.

NGramTokenFilter

Generuje n-gramy danego rozmiaru. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

NGramTokenizer

Tokenizuje dane wejściowe do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

OcrSkill

Umiejętność wyodrębniania tekstu z plików obrazów.

OutputFieldMappingEntry

Mapowanie pól wyjściowych dla umiejętności.

PIIDetectionSkill

Korzystając z interfejsu API analizy tekstu, wyodrębnia dane osobowe z tekstu wejściowego i umożliwia ich maskowanie.

PathHierarchyTokenizer

Tokenizer dla hierarchii przypominających ścieżkę. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

PatternAnalyzer

Elastycznie oddziela tekst na terminy za pomocą wzorca wyrażenia regularnego. Ten analizator jest implementowany przy użyciu platformy Apache Lucene.

PatternCaptureTokenFilter

Używa wyrażeń regularnych Języka Java do emitowania wielu tokenów — jednej dla każdej grupy przechwytywania w co najmniej jednym wzorze. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

PatternReplaceCharFilter

Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie wartości "$1#$2", wynikiem będzie "aa#bb aa#bb". Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene.

PatternReplaceTokenFilter

Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie wartości "$1#$2", wynikiem będzie "aa#bb aa#bb". Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

PatternTokenizer

Tokenizer, który używa dopasowania wzorca wyrażeń regularnych do konstruowania unikatowych tokenów. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

PhoneticTokenFilter

Tworzenie tokenów dla dopasowań fonetycznych. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

QueryAnswerResult

Odpowiedź to fragment tekstowy wyodrębniony z zawartości najbardziej odpowiednich dokumentów pasujących do zapytania. Odpowiedzi są wyodrębniane z pierwszych wyników wyszukiwania. Kandydaci odpowiedzi są oceniani i wybierane są najważniejsze odpowiedzi.

QueryCaptionResult

Podpisy są najbardziej reprezentatywnymi fragmentami z dokumentu stosunkowo do zapytania wyszukiwania. Są one często używane jako podsumowanie dokumentu. Podpisy są zwracane tylko w przypadku zapytań typu semantic.

ResourceCounter

Reprezentuje użycie i limit przydziału zasobu.

ScalarQuantizationCompression

Zawiera opcje konfiguracji specyficzne dla metody kompresji kwantyzacji skalarnej używanej podczas indeksowania i wykonywania zapytań.

ScalarQuantizationParameters

Zawiera parametry specyficzne dla kwantyzacji skalarnych.

ScoringProfile

Definiuje parametry indeksu wyszukiwania mającego wpływ na ocenianie w zapytaniach wyszukiwania.

SearchClientOptions

Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego.

SearchDocumentsPageResult

Odpowiedź zawierająca wyniki strony wyszukiwania z indeksu.

SearchDocumentsResult

Odpowiedź zawierająca wyniki wyszukiwania z indeksu.

SearchDocumentsResultBase

Odpowiedź zawierająca wyniki wyszukiwania z indeksu.

SearchIndex

Reprezentuje definicję indeksu wyszukiwania, która opisuje pola i zachowanie wyszukiwania indeksu.

SearchIndexClientOptions

Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego.

SearchIndexStatistics

Statystyki dla danego indeksu. Statystyki są zbierane okresowo i nie mają gwarancji, że zawsze będą up-to-date.

SearchIndexer

Reprezentuje indeksator.

SearchIndexerClientOptions

Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego.

SearchIndexerDataContainer

Reprezentuje informacje o jednostce (takiej jak tabela Azure SQL lub kolekcja CosmosDB), które będą indeksowane.

SearchIndexerDataNoneIdentity

Czyści właściwość tożsamości źródła danych.

SearchIndexerDataSourceConnection

Reprezentuje definicję źródła danych, która może służyć do konfigurowania indeksatora.

SearchIndexerDataUserAssignedIdentity

Określa tożsamość źródła danych do użycia.

SearchIndexerError

Reprezentuje błąd indeksowania na poziomie elementu lub dokumentu.

SearchIndexerIndexProjection

Definicja dodatkowych projekcji do pomocniczych indeksów wyszukiwania.

SearchIndexerIndexProjectionParameters

Słownik właściwości konfiguracji specyficznych dla projekcji indeksu. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego.

SearchIndexerIndexProjectionSelector

Opis danych do przechowywania w wyznaczonym indeksie wyszukiwania.

SearchIndexerKnowledgeStore

Definicja dodatkowych projekcji w obiektach blob platformy Azure, tabelach lub plikach wzbogaconych danych.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Klasa abstrakcyjna do współużytkowania właściwości między selektorami.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definicja projekcji dla danych do przechowywania w usłudze Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definicja projekcji dla danych do przechowywania w obiekcie blob platformy Azure.

SearchIndexerKnowledgeStoreParameters

Słownik właściwości konfiguracji specyficznych dla magazynu wiedzy. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego.

SearchIndexerKnowledgeStoreProjection

Obiekt kontenera dla różnych selektorów projekcji.

SearchIndexerKnowledgeStoreProjectionSelector

Klasa abstrakcyjna do współużytkowania właściwości między selektorami.

SearchIndexerKnowledgeStoreTableProjectionSelector

Opis danych do przechowywania w tabelach platformy Azure.

SearchIndexerLimits
SearchIndexerSkillset

Lista umiejętności.

SearchIndexerStatus

Reprezentuje bieżący stan i historię wykonywania indeksatora.

SearchIndexerWarning

Reprezentuje ostrzeżenie na poziomie elementu.

SearchIndexingBufferedSenderOptions

Opcje wyszukiwaniaIndexingBufferedSender.

SearchResourceEncryptionKey

Klucz szyfrowania zarządzany przez klienta w usłudze Azure Key Vault. Klucze tworzone i zarządzane mogą służyć do szyfrowania lub odszyfrowania danych magazynowanych w usłudze Azure Cognitive Search, takich jak indeksy i mapy synonimów.

SearchServiceStatistics

Odpowiedź z żądania pobierania statystyk usługi. Jeśli to się powiedzie, obejmuje liczniki i limity poziomu usług.

SearchSuggester

Definiuje sposób stosowania interfejsu API sugerowanego do grupy pól w indeksie.

SemanticConfiguration

Definiuje określoną konfigurację, która ma być używana w kontekście możliwości semantycznych.

SemanticField

Pole używane w ramach konfiguracji semantycznej.

SemanticPrioritizedFields

Opisuje pola tytułów, zawartości i słów kluczowych, które mają być używane do semantycznego klasyfikowania, podpisów, wyróżnień i odpowiedzi.

SemanticSearch

Definiuje parametry indeksu wyszukiwania mającego wpływ na możliwości semantyczne.

SemanticSearchOptions

Definiuje opcje semantycznych zapytań wyszukiwania

SentimentSkill

Analiza tekstu dodatnio-ujemna analiza tonacji, oceniana jako wartość zmiennoprzecinkowa w zakresie od zera do 1.

SentimentSkillV3

Korzystając z interfejsu API analizy tekstu, ocenia tekst bez struktury i dla każdego rekordu, udostępnia etykiety tonacji (takie jak "negatywne", "neutralne" i "pozytywne") na podstawie najwyższego wskaźnika ufności znalezionego przez usługę na poziomie zdania i dokumentu.

ServiceCounters

Reprezentuje liczniki zasobów na poziomie usługi i limity przydziału.

ServiceLimits

Reprezentuje różne limity poziomu usług.

ShaperSkill

Umiejętność przekształcania danych wyjściowych. Tworzy typ złożony do obsługi pól złożonych (nazywanych również polami wieloczęściowym).

ShingleTokenFilter

Tworzy kombinacje tokenów jako pojedynczy token. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

Similarity

Typ podstawowy algorytmów podobieństwa. Algorytmy podobieństwa służą do obliczania wyników, które są związane z zapytaniami do dokumentów. Im wyższa ocena, tym bardziej istotne jest, aby dokument był przeznaczony dla tego konkretnego zapytania. Te wyniki są używane do klasyfikacji wyników wyszukiwania.

SimpleField

Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola.

SnowballTokenFilter

Filtr, który wynika ze słów przy użyciu stemmeru wygenerowanego przez Śnieżkę. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Definiuje zasady wykrywania usuwania danych, które implementują strategię usuwania nietrwałego. Określa, czy element powinien zostać usunięty na podstawie wartości wyznaczonej kolumny "usuwanie nietrwałe".

SplitSkill

Umiejętność dzielenia ciągu na fragmenty tekstu.

SqlIntegratedChangeTrackingPolicy

Definiuje zasady wykrywania zmian danych, które przechwytują zmiany przy użyciu funkcji zintegrowanego śledzenia zmian usługi Azure SQL Database.

StemmerOverrideTokenFilter

Zapewnia możliwość zastępowania innych filtrów ściągnięcia za pomocą niestandardowego ściągnięcia opartego na słowniku. Wszystkie terminy oparte na słowniku będą oznaczone jako słowa kluczowe, aby nie były one stemmers w dół łańcucha. Należy umieścić przed wszelkimi filtrami macierzystymi. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

StemmerTokenFilter

Filtr macierzysty specyficzny dla języka. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

StopAnalyzer

Dzieli tekst na litery inne niż litery; Stosuje małe litery i filtry tokenu stopword. Ten analizator jest implementowany przy użyciu platformy Apache Lucene.

StopwordsTokenFilter

Usuwa słowa zatrzymania ze strumienia tokenu. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

SuggestDocumentsResult

Odpowiedź zawierająca wyniki zapytania sugestii z indeksu.

SuggestRequest

Parametry filtrowania, sortowania, dopasowywania rozmytego i innych sugestii dotyczących zachowań zapytań.

SynonymMap

Reprezentuje definicję mapy synonimów.

SynonymTokenFilter

Pasuje do synonimów pojedynczych lub wieloznanych w strumieniu tokenu. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

TagScoringFunction

Definiuje funkcję, która zwiększa wyniki dokumentów przy użyciu wartości ciągów pasujących do danej listy tagów.

TagScoringParameters

Udostępnia wartości parametrów funkcji oceniania tagów.

TextTranslationSkill

Umiejętność tłumaczenia tekstu z jednego języka na inny.

TextWeights

Definiuje wagi pól indeksu, dla których dopasowania powinny zwiększyć ocenianie w zapytaniach wyszukiwania.

TruncateTokenFilter

Obcina terminy do określonej długości. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

UaxUrlEmailTokenizer

Tokenizuje adresy URL i wiadomości e-mail jako jeden token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

UniqueTokenFilter

Filtruje tokeny z tym samym tekstem co poprzedni token. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

VectorSearch

Zawiera opcje konfiguracji związane z wyszukiwaniem wektorów.

VectorSearchOptions

Definiuje opcje zapytań wyszukiwania wektorowego

VectorSearchProfile

Definiuje kombinację konfiguracji do użycia z wyszukiwaniem wektorowym.

VectorizableTextQuery

Parametry zapytania do użycia do wyszukiwania wektorowego, gdy zostanie podana wartość tekstowa, która musi zostać wektoryzowana.

VectorizedQuery

Parametry zapytania do użycia do wyszukiwania wektorów po podaniu nieprzetworzonej wartości wektora.

WebApiParameters

Określa właściwości nawiązywania połączenia z wektoryzatorem zdefiniowanym przez użytkownika.

WebApiSkill

Umiejętność, która może wywołać punkt końcowy internetowego interfejsu API, umożliwiając rozszerzenie zestawu umiejętności przez wywołanie kodu niestandardowego.

WebApiVectorizer

Określa wektoryzator zdefiniowany przez użytkownika do generowania wektora osadzania ciągu zapytania. Integracja zewnętrznego wektoryzatora jest osiągana przy użyciu niestandardowego internetowego interfejsu API zestawu umiejętności.

WordDelimiterTokenFilter

Dzieli wyrazy na subwords i wykonuje opcjonalne przekształcenia w grupach podrzędnych. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

Aliasy typu

AnalyzeTextOptions

Opcje analizowania operacji tekstowej.

AutocompleteMode

Definiuje wartości dla autouzupełnianiaMode.

AutocompleteOptions

Opcje pobierania tekstu uzupełniania dla częściowego tekstu searchText.

AzureOpenAIModelName

Definiuje wartości dla elementu AzureOpenAIModelName.
ZnaneAzureOpenAIModelName można używać zamiennie z usługą AzureOpenAIModelName, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

osadzanie tekstu-ada-002
osadzanie tekstu —3—duże
osadzanie tekstu —3-małe

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Zawiera możliwe przypadki charfilter.

CharFilterName

Definiuje wartości charFilterName.
<xref:KnownCharFilterName> można używać zamiennie z CharFilterName, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

html_strip: filtr znaków, który próbuje usunąć konstrukcje HTML. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Definiuje wartości CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Zawiera możliwe przypadki dla konta CognitiveServicesAccount.

ComplexDataType

Definiuje wartości parametru ComplexDataType. Możliwe wartości obejmują: "Edm.ComplexType", "Collection(Edm.ComplexType)"

CountDocumentsOptions

Opcje wykonywania operacji licznika w indeksie.

CreateDataSourceConnectionOptions

Opcje tworzenia operacji źródła danych.

CreateIndexOptions

Opcje tworzenia operacji indeksu.

CreateIndexerOptions

Opcje tworzenia operacji indeksatora.

CreateSkillsetOptions

Opcje tworzenia operacji zestawu umiejętności.

CreateSynonymMapOptions

Opcje tworzenia operacji synonimów.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Zawiera możliwe przypadki dla elementu DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Zawiera możliwe przypadki dla elementu DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opcje operacji usuwania dokumentów.

EdgeNGramTokenFilterSide

Definiuje wartości elementu EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Zawiera opcje konfiguracji specyficzne dla wyczerpującego algorytmu KNN używanego podczas wykonywania zapytań, które będą wykonywać wyszukiwanie siłowe w całym indeksie wektorów.

ExtractDocumentKey
GetDataSourceConnectionOptions

Opcje pobierania operacji źródła danych.

GetIndexOptions

Opcje pobierania operacji indeksu.

GetIndexStatisticsOptions

Opcje pobierania operacji statystyk indeksu.

GetIndexerOptions

Opcje pobierania operacji indeksatora.

GetIndexerStatusOptions

Opcje pobierania operacji stanu indeksatora.

GetServiceStatisticsOptions

Opcje pobierania operacji statystyk usługi.

GetSkillSetOptions

Opcje uzyskiwania operacji zestawu umiejętności.

GetSynonymMapsOptions

Opcje pobierania operacji synonimów.

HnswAlgorithmConfiguration

Zawiera opcje konfiguracji specyficzne dla algorytmu hnsw przybliżonych najbliższych sąsiadów używanych w czasie indeksowania.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Definiuje wartości parametru IndexActionType.

IndexDocumentsAction

Reprezentuje akcję indeksu działającą w dokumencie.

IndexIterator

Iterator do wyświetlania listy indeksów, które istnieją w usłudze Search. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację.

IndexNameIterator

Iterator do wyświetlania listy indeksów, które istnieją w usłudze Search. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację.

IndexProjectionMode

Definiuje wartości parametru IndexProjectionMode.
KnownIndexProjectionMode można używać zamiennie z indeksem IndexProjectionMode, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

skipIndexingParentDocuments: dokument źródłowy zostanie pominięty podczas zapisywania w indeksie docelowym indeksatora.
includeIndexingParentDocuments: dokument źródłowy zostanie zapisany w indeksie docelowym indeksatora. Jest to wzorzec domyślny.

IndexerExecutionEnvironment
IndexerExecutionStatus

Definiuje wartości parametru IndexerExecutionStatus.

IndexerStatus

Definiuje wartości indeksatoraStatus.

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

Zawiera możliwe przypadki analizatora.

LexicalAnalyzerName

Definiuje wartości lexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> można używać zamiennie z lexicalAnalyzerName, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

ar.microsoft: Microsoft analyzer for Arabski.
ar.lucene: Analizator Lucene dla języka arabskiego.
hy.lucene: Analizator Lucene dla Ormiańskiego.
bn.microsoft: Microsoft analyzer for Bangla.
eu.lucene: Analizator Lucene dla Basków.
bg.microsoft: Microsoft analyzer for Bułgarski.
bg.lucene: Analizator Lucene dla Bułgarii.
ca.microsoft: Microsoft analyzer for Katalończyk.
ca.lucene: Analizator Lucene dla Katalończyków.
zh-Hans.microsoft: Microsoft analyzer for Chinese (uproszczony).
zh-Hans.lucene: Analizator Lucene dla języka chińskiego (uproszczony).
zh-Marketplace.microsoft: Microsoft analyzer for Chinese (Tradycyjny).
zh-Bungalow.lucene: Analizator Lucene dla języka chińskiego (tradycyjny).
hr.microsoft: Microsoft analyzer for Chorwacki.
cs.microsoft: Microsoft analyzer for Czech.
cs.lucene: Analizator Lucene dla Czech.
da.microsoft: Microsoft analyzer for Danish.
da.lucene: Analizator Lucene dla języka duńskiego.
nl.microsoft: Microsoft analyzer for Dutch.
nl.lucene: Analizator Lucene dla Holendrów.
en.microsoft: Microsoft analyzer for English.
en.lucene: Analizator Lucene dla języka angielskiego.
et.microsoft: Microsoft analyzer for Estończyk.
fi.microsoft: Microsoft analyzer for Finnish.
fi.lucene: Analizator Lucene dla fińskiego.
fr.microsoft: Microsoft analyzer for French.
fr.lucene: Analizator Lucene dla języka francuskiego.
gl.lucene: Analizator Lucene dla Galicji.
de.microsoft: Microsoft analyzer for German.
de.lucene: Analizator Lucene dla języka niemieckiego.
el.microsoft: Microsoft analyzer for Greek.
el.lucene: Analizator Lucene dla języka greckiego.
gu.microsoft: Microsoft analyzer for Gujarati.
he.microsoft: Microsoft analyzer for Hebrajski.
hi.microsoft: Microsoft analyzer for Hindi.
hi.lucene: Analizator Lucene dla języka hindi.
hu.microsoft: Microsoft analyzer for Hungarian.
hu.lucene: Analizator Lucene dla Węgier.
is.microsoft: Microsoft analyzer for Icelandic.
id.microsoft: Microsoft analyzer for Indonezyjski (Bahasa).
id.lucene: Analizator Lucene dla Indonezyjczyka.
ga.lucene: Analizator Lucene dla Irlandii.
it.microsoft: Microsoft analyzer dla języka włoskiego.
it.lucene: Analizator Lucene dla Włoch.
ja.microsoft: Microsoft analyzer for Japanese.
ja.lucene: Analizator Lucene dla języka japońskiego.
kn.microsoft: Microsoft analyzer for Kannada.
ko.microsoft: Microsoft analyzer for Korean.
ko.lucene: Analizator Lucene dla języka koreańskiego.
lv.microsoft: Microsoft analyzer for Łotewski.
lv.lucene: Analizator Lucene dla Łotewskiego.
lt.microsoft: Microsoft analyzer for Litewski.
ml.microsoft: Microsoft analyzer for Malayalam.
ms.microsoft: Microsoft analyzer for Malay (Latin).
mr.microsoft: Microsoft analyzer for Marathi.
nb.microsoft: Microsoft analyzer for Norwegian (Bokmål).
no.lucene: Analizator Lucene dla Norweskiego.
fa.lucene: Analizator Lucene perski.
pl.microsoft: Microsoft analyzer for Polish.
pl.lucene: Analizator Lucene dla polski.
pt-BR.microsoft: Microsoft analyzer for Portuguese (Brazylia).
pt-BR.lucene: Analizator Lucene dla języka portugalskiego (Brazylia).
pt-PT.microsoft: Microsoft analyzer for Portuguese (Portugalia).
pt-PT.lucene: Analizator Lucene dla języka portugalskiego (Portugalia).
pa.microsoft: Microsoft analyzer for Punjabi.
ro.microsoft: Microsoft analyzer for Rumun.
ro.lucene: Analizator Lucene dla Rumunii.
ru.microsoft: Microsoft analyzer for Russian.
ru.lucene: Analizator Lucene dla języka rosyjskiego.
sr-cyrylica.microsoft: Microsoft analyzer for Serbian (Cyrylica).
sr-latin.microsoft: Microsoft analyzer for Serbian (Latin).
sk.microsoft: Microsoft analyzer for Słowacki.
sl.microsoft: Microsoft analyzer for Słowenia.
es.microsoft: Microsoft analyzer dla języka hiszpańskiego.
es.lucene: Analizator Lucene dla języka hiszpańskiego.
sv.microsoft: Microsoft analyzer for Swedish.
sv.lucene: Analizator Lucene dla szwecji.
ta.microsoft: Microsoft analyzer for Tamil.
te.microsoft: Microsoft analyzer for Telugu.
th.microsoft: Microsoft analyzer for Thai.
th.lucene: Analizator Lucene dla języka tajskiego.
tr.microsoft: Microsoft analyzer for Turkish.
tr.lucene: Analizator Lucene dla Turcji.
uk.microsoft: Microsoft analyzer for Ukrainian.
your.microsoft: Microsoft analyzer for Urdu.
vi.microsoft: Microsoft analyzer for Vietnamese.
standard.lucene: Standardowy analizator Lucene.
standardasciifolding.lucene: Standardowy analizator składania ASCII Lucene. Zobacz https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
słowo kluczowe: traktuje całą zawartość pola jako pojedynczy token. Jest to przydatne w przypadku danych, takich jak kody pocztowe, identyfikatory i niektóre nazwy produktów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
wzorzec: Elastycznie oddziela tekst na terminy za pomocą wzorca wyrażenia regularnego. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
proste: dzieli tekst na litery inne niż litery i konwertuje je na małe litery. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
zatrzymać: dzieli tekst na litery inne niż litery; Stosuje małe litery i filtry tokenu stopword. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
biały znak: analizator używający tokenizatora odstępów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Zawiera możliwe przypadki tokenizatora.

LexicalTokenizerName

Definiuje wartości lexicalTokenizerName.
<xref:KnownLexicalTokenizerName> można używać zamiennie z lexicalTokenizerName, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

klasyczny: tokenizer oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: Tokenizuje dane wejściowe z krawędzi do n-gramów danego rozmiaru. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: emituje całe dane wejściowe jako pojedynczy token. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
litera: dzieli tekst na litery inne niż litery. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
małe litery: dzieli tekst na litery inne niż litery i konwertuje je na małe litery. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: dzieli tekst przy użyciu reguł specyficznych dla języka.
microsoft_language_stemming_tokenizer: dzieli tekst przy użyciu reguł specyficznych dla języka i zmniejsza wyrazy do ich podstawowych formularzy.
nGram: Tokenizuje dane wejściowe do n-gramów danego rozmiaru. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer dla hierarchii przypominających ścieżkę. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
wzorzec: Tokenizer, który używa dopasowania wzorca wyrażeń regularnych do konstruowania unikatowych tokenów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Standardowy analizator Lucene; Składa się z standardowego tokenizatora, małe litery filtru i filtru zatrzymania. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokenizuje adresy URL i wiadomości e-mail jako jeden token. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
biały znak: dzieli tekst w biały znak. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Opcje operacji list źródeł danych.

ListIndexersOptions

Opcje operacji indeksatorów listy.

ListIndexesOptions

Opcje operacji indeksów listy.

ListSkillsetsOptions

Opcje operacji zestawów umiejętności listy.

ListSynonymMapsOptions

Opcje operacji synonimów listyMaps.

MergeDocumentsOptions

Opcje operacji scalania dokumentów.

MergeOrUploadDocumentsOptions

Opcje operacji scalania lub przekazywania dokumentów.

MicrosoftStemmingTokenizerLanguage

Definiuje wartości microsoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Definiuje wartości dla elementu MicrosoftTokenizerLanguage.

NarrowedModel

Zawęża typ modelu, aby uwzględnić tylko wybrane pola

OcrLineEnding

Definiuje wartości dla funkcji OcrLineEnding.
KnownOcrLineEnding można używać zamiennie z OcrLineEnding, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

spacji: Linie są oddzielone pojedynczym znakiem spacji.
karetkiPrzewróć: Linie są oddzielone znakiem powrotu karetki ("\r').
lineFeed: Linie są oddzielone pojedynczym kanałem informacyjnym wiersza ("\n').
karetkiReturnLineFeed: Linie są oddzielone znakiem powrotu karetki i znakiem wsuwu wiersza ("\r\n').

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Definiuje wartości phoneticEncoder.

QueryAnswer

Wartość określająca, czy odpowiedzi powinny być zwracane w ramach odpowiedzi wyszukiwania. Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania jest "semantyczny". Jeśli ustawiono wartość extractive, zapytanie zwraca odpowiedzi wyodrębnione z kluczowych fragmentów w najbardziej sklasyfikowanych dokumentach.

QueryCaption

Wartość określająca, czy podpisy powinny być zwracane w ramach odpowiedzi wyszukiwania. Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania jest "semantyczny". W przypadku ustawienia zapytanie zwraca podpisy wyodrębnione z kluczowych fragmentów w najwyżej sklasyfikowanych dokumentach. Gdy napisy są "wyodrębnione", wyróżnianie jest domyślnie włączone. Wartość domyślna to "none".

QueryType

Definiuje wartości parametru QueryType.

RegexFlags
ResetIndexerOptions

Opcje resetowania operacji indeksatora.

RunIndexerOptions

Opcje uruchamiania operacji indeksatora.

ScoringFunction

Zawiera możliwe przypadki ocenianiaFunction.

ScoringFunctionAggregation

Definiuje wartości funkcji ScoringFunctionAggregation.

ScoringFunctionInterpolation

Definiuje wartości funkcji ScoringFunctionInterpolation.

ScoringStatistics

Definiuje wartości dla funkcji ScoringStatistics.

SearchField

Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola.

SearchFieldArray

Jeśli TModel jest nietypowym obiektem, nietypowa tablica ciągów w przeciwnym razie pola rozdzielane ukośnikami TModel.

SearchFieldDataType

Definiuje wartości parametru SearchFieldDataType.

Znane wartości obsługiwane przez usługę:

Edm.String: wskazuje, że pole zawiera ciąg.

Edm.Int32: wskazuje, że pole zawiera 32-bitową liczbę całkowitą ze znakiem.

Edm.Int64: wskazuje, że pole zawiera 64-bitową liczbę całkowitą ze znakiem.

Edm.Double: wskazuje, że pole zawiera liczbę zmiennoprzecinkową IEEE o podwójnej precyzji.

Edm.Boolean: wskazuje, że pole zawiera wartość logiczną (prawda lub fałsz).

Edm.DateTimeOffset: wskazuje, że pole zawiera wartość daty/godziny, w tym informacje o strefie czasowej.

Edm.GeographyPoint: Wskazuje, że pole zawiera lokalizację geograficzną pod względem długości geograficznej i szerokości geograficznej.

Edm.ComplexType: wskazuje, że pole zawiera jeden lub więcej złożonych obiektów, które z kolei mają pola podrzędne innych typów.

Edm.Single: wskazuje, że pole zawiera liczbę zmiennoprzecinkową o pojedynczej precyzji. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Single).

Edm.Half: wskazuje, że pole zawiera liczbę zmiennoprzecinkową o pół precyzji. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Half).

Edm.Int16: Wskazuje, że pole zawiera 16-bitową liczbę całkowitą ze znakiem. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Int16).

Edm.SByte: wskazuje, że pole zawiera 8-bitową liczbę całkowitą ze znakiem. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.SByte).

Edm.Byte: wskazuje, że pole zawiera 8-bitową liczbę całkowitą bez znaku. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Byte).

SearchIndexerDataIdentity

Zawiera możliwe przypadki elementu SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Zawiera możliwe przypadki umiejętności.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderUploadDocuments.

SearchIterator

Iterator wyników wyszukiwania zapytania patykowego. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację.

SearchMode

Definiuje wartości dla elementu SearchMode.

SearchOptions

Opcje zatwierdzania pełnego żądania wyszukiwania.

SearchPick

Głęboko wybieraj pola języka T przy użyciu prawidłowych ścieżek OData wyszukiwania poznawczego OData $select.

SearchRequestOptions

Parametry do filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania.

SearchRequestQueryTypeOptions
SearchResult

Zawiera dokument znaleziony przez zapytanie wyszukiwania oraz skojarzone metadane.

SelectArray

Jeśli TFields nigdy, nietypowa tablica ciągów w przeciwnym razie zawęziony typ Fields[], który ma być używany w innym miejscu w typie zużywania.

SelectFields

Tworzy połączenie prawidłowych ścieżek OData wyszukiwania poznawczego OData $select dla języka T przy użyciu przechodzenia po kolejności drzewa pól zakorzenionego w lokalizacji T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

Zawiera możliwe przypadki podobieństwa.

SnowballTokenFilterLanguage

Definiuje wartości snowballTokenFilterLanguage.

SplitSkillLanguage
StemmerTokenFilterLanguage

Definiuje wartości dla stemmerTokenFilterLanguage.

StopwordsList

Definiuje wartości stopwordsList.

SuggestNarrowedModel
SuggestOptions

Opcje pobierania sugestii na podstawie elementu searchText.

SuggestResult

Wynik zawierający dokument znaleziony przez zapytanie sugestii oraz skojarzone metadane.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Definiuje wartości tokenCharacterKind.

TokenFilter

Zawiera możliwe przypadki tokenfiltru.

TokenFilterName

Definiuje wartości TokenFilterName.
<xref:KnownTokenFilterName> można używać zamiennie z TokenFilterName, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

arabic_normalization: filtr tokenu, który stosuje arabski normalizator w celu normalizacji orthografii. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrof: Usuwa wszystkie znaki po apostrofie (w tym sam apostrof). Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: konwertuje alfabetyczne, liczbowe i symboliczne znaki Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (blok Unicode "Basic Latin") na ich odpowiedniki ASCII, jeśli takie odpowiedniki istnieją. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: Tworzy bigramy terminów CJK generowanych na podstawie standardowego tokenizatora. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: normalizuje różnice szerokości zestawu CJK. Składa warianty fullwidth ASCII do równoważnego podstawowego łacińskiego i pół szerokości Warianty Katakana w odpowiednik Kana. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
klasycznego: usuwa angielskie opętacze i kropki z akronimów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: Konstruowanie bigramów dla często występujących terminów podczas indeksowania. Pojedyncze terminy są również indeksowane, a bigramy są nakładane. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: generuje n-gramy danych rozmiarów, począwszy od przodu lub z tyłu tokenu wejściowego. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elizji: usuwa elizji. Na przykład "l'avion" (płaszczyzna) zostanie przekonwertowana na "avion" (płaszczyzna). Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Normalizuje niemieckie znaki według algorytmu heurystyki niemieckiej 2. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: normalizuje tekst w języku hindi, aby usunąć pewne różnice w odmianach pisowni. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normalizuje reprezentację tekstu w formacie Unicode w językach indyjskich. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: emituje dwa razy każdy token przychodzący, raz jako słowo kluczowe i raz jako nie-słowo kluczowe. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: wysokowydajny filtr kstem dla języka angielskiego. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
długości: usuwa wyrazy, które są za długie lub zbyt krótkie. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limit: ogranicza liczbę tokenów podczas indeksowania. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
małe litery: normalizuje tekst tokenu na małe litery. Zobacz https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: generuje n-gramy danego rozmiaru. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Stosuje normalizację dla perskich. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetyczne: tworzenie tokenów dla dopasowań fonetycznych. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: używa algorytmu macierzystego portera do przekształcania strumienia tokenu. Zobacz http://tartarus.org/~martin/PorterStemmer
odwrotne: odwraca ciąg tokenu. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Normalizuje użycie zamiennych znaków skandynawskich. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Składa skandynawskie znaki åÅäæÄÆ->a i öÖøØ->o. Dyskryminuje również stosowanie podwójnych ślubów aa, ae, ao, oe i oo, pozostawiając tylko pierwszy. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle: tworzy kombinacje tokenów jako pojedynczy token. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
śnieżka: filtr, który wynika ze słów przy użyciu stemmera wygenerowanego przez Snowball. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: normalizuje reprezentację Unicode tekstu Sorani. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: filtr macierzysty specyficzny dla języka. Zobacz https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
stopwords: usuwa słowa zatrzymania ze strumienia tokenu. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
przycinanie: przycina wiodące i końcowe białe znaki z tokenów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
obcięcie: obcina terminy do określonej długości. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unikatowy: filtruje tokeny z tym samym tekstem co poprzedni token. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
wielkie litery: normalizuje tekst tokenu na wielkie litery. Zobacz https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: dzieli wyrazy na subwords i wykonuje opcjonalne przekształcenia w grupach podrzędnych.

UnionToIntersection
UploadDocumentsOptions

Opcje operacji przekazywania dokumentów.

VectorEncodingFormat

Definiuje wartości elementu VectorEncodingFormat.
KnownVectorEncodingFormat można używać zamiennie z wektoremEncodingFormat, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

pakowaneBit: format kodowania reprezentujący bity pakowane w szerszy typ danych.

VectorFilterMode
VectorQuery

Parametry zapytania dla wektorów i zapytań wyszukiwania hybrydowego.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Zawiera opcje konfiguracji specyficzne dla metody kompresji używanej podczas indeksowania lub wykonywania zapytań.

VectorSearchCompressionKind

Definiuje wartości elementu VectorSearchCompressionKind.
KnownVectorSearchCompressionKind można używać zamiennie z elementem VectorSearchCompressionKind, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

scalarQuantization: Scalar Quantization, typ metody kompresji. W kwantyzacji skalarnej wartości oryginalnych wektorów są kompresowane do węższego typu przez dyskretyzowanie i reprezentowanie każdego składnika wektora przy użyciu ograniczonego zestawu kwantyzowanych wartości, zmniejszając w ten sposób ogólny rozmiar danych.
binaryQuantization: Kwantyzacja binarna, typ metody kompresji. W kwantyzacji binarnej oryginalne wartości wektorów są kompresowane do węższego typu binarnego przez dyskretyzowanie i reprezentowanie każdego składnika wektora przy użyciu wartości binarnych, zmniejszając w ten sposób ogólny rozmiar danych.

VectorSearchCompressionTarget

Definiuje wartości elementu VectorSearchCompressionTarget.
KnownVectorSearchCompressionTarget można używać zamiennie z elementem VectorSearchCompressionTarget, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

int8

VectorSearchVectorizer

Zawiera opcje konfiguracji dotyczące sposobu wektoryzacji zapytań wektorów tekstowych.

VectorSearchVectorizerKind

Definiuje wartości vectorSearchVectorizerKind.
KnownVectorSearchVectorizerKind można używać zamiennie z vectorSearchVectorizerKind, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

azureOpenAI: Generuj osadzanie przy użyciu zasobu usługi Azure OpenAI w czasie wykonywania zapytania.
customWebApi: Generuj osadzanie przy użyciu niestandardowego internetowego punktu końcowego w czasie wykonywania zapytania.

VisualFeature

Wyliczenia

KnownAnalyzerNames

Definiuje wartości AnalyzerName. Zobacz https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Znane wartości AzureOpenAIModelName, które akceptuje usługa.

KnownBlobIndexerDataToExtract

Znane wartości BlobIndexerDataToExtract akceptowane przez usługę.

KnownBlobIndexerImageAction

Znane wartości BlobIndexerImageAction, które akceptuje usługa.

KnownBlobIndexerPDFTextRotationAlgorithm

Znane wartości BlobIndexerPDFTextRotationAlgorithm, które akceptuje usługa.

KnownBlobIndexerParsingMode

Znane wartości BlobIndexerParsingMode akceptowane przez usługę.

KnownCharFilterNames

Znane wartości CharFilterName akceptowane przez usługę.

KnownCustomEntityLookupSkillLanguage

Znane wartości CustomEntityLookupSkillLanguage, które akceptuje usługa.

KnownEntityCategory

Znane wartości EntityCategory akceptowane przez usługę.

KnownEntityRecognitionSkillLanguage

Znane wartości EntityRecognitionSkillLanguage, które akceptuje usługa.

KnownImageAnalysisSkillLanguage

Znane wartości ImageAnalysisSkillLanguage, które akceptuje usługa.

KnownImageDetail

Znane wartości ImageDetail akceptowane przez usługę.

KnownIndexProjectionMode

Znane wartości IndexProjectionMode akceptowane przez usługę.

KnownIndexerExecutionEnvironment

Znane wartości IndexerExecutionEnvironment, które akceptuje usługa.

KnownKeyPhraseExtractionSkillLanguage

Znane wartości KeyPhraseExtractionSkillLanguage, które akceptuje usługa.

KnownOcrLineEnding

Znane wartości OcrLineEnding akceptowane przez usługę.

KnownOcrSkillLanguage

Znane wartości OcrSkillLanguage, które akceptuje usługa.

KnownPIIDetectionSkillMaskingMode

Znane wartości PIIDetectionSkillMaskingMode, które akceptuje usługa.

KnownRegexFlags

Znane wartości RegexFlags, które akceptuje usługa.

KnownSearchAudience

Znane wartości dla grupy odbiorców wyszukiwania

KnownSearchFieldDataType

Znane wartości SearchFieldDataType akceptowane przez usługę.

KnownSearchIndexerDataSourceType

Znane wartości SearchIndexerDataSourceType akceptowane przez usługę.

KnownSemanticErrorMode

Znane wartości SemanticErrorMode akceptowane przez usługę.

KnownSemanticErrorReason

Znane wartości SemanticErrorReason akceptowane przez usługę.

KnownSemanticSearchResultsType

Znane wartości SemanticSearchResultsType, które akceptuje usługa.

KnownSentimentSkillLanguage

Znane wartości SentimentSkillLanguage, które akceptuje usługa.

KnownSplitSkillLanguage

Znane wartości SplitSkillLanguage akceptowane przez usługę.

KnownTextSplitMode

Znane wartości TextSplitMode akceptowane przez usługę.

KnownTextTranslationSkillLanguage

Znane wartości TextTranslationSkillLanguage akceptowane przez usługę.

KnownTokenFilterNames

Znane wartości TokenFilterName akceptowane przez usługę.

KnownTokenizerNames

Znane wartości LexicalTokenizerName, które akceptuje usługa.

KnownVectorEncodingFormat

Znane wartości VectorEncodingFormat akceptowane przez usługę.

KnownVectorFilterMode

Znane wartości VectorFilterMode akceptowane przez usługę.

KnownVectorQueryKind

Znane wartości VectorQueryKind akceptowane przez usługę.

KnownVectorSearchAlgorithmKind

Znane wartości VectorSearchAlgorithmKind, które akceptuje usługa.

KnownVectorSearchAlgorithmMetric

Znane wartości VectorSearchAlgorithmMetric, które akceptuje usługa.

KnownVectorSearchCompressionKind

Znane wartości VectorSearchCompressionKind akceptowane przez usługę.

KnownVectorSearchCompressionTarget

Znane wartości VectorSearchCompressionTarget, które akceptuje usługa.

KnownVectorSearchVectorizerKind

Znane wartości VectorSearchVectorizerKind, które akceptuje usługa.

KnownVisualFeature

Znane wartości VisualFeature, które akceptuje usługa.

Funkcje

createSynonymMapFromFile(string, string)

Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS.

odata(TemplateStringsArray, unknown[])

Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykładowe użycie:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Szczegóły funkcji

createSynonymMapFromFile(string, string)

Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parametry

name

string

Nazwa synonimuMap.

filePath

string

Ścieżka pliku zawierającego synonimy (oddzielone przez nowe wiersze)

Zwraca

Promise<SynonymMap>

SynonimMap, obiekt

odata(TemplateStringsArray, unknown[])

Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykładowe użycie:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parametry

strings

TemplateStringsArray

Tablica ciągów dla wyrażenia

values

unknown[]

Tablica wartości wyrażenia

Zwraca

string