@azure/search-documents package

Klasy

AzureKeyCredential

Poświadczenie oparte na kluczu statycznym, które obsługuje aktualizowanie bazowej wartości klucza.

GeographyPoint

Reprezentuje punkt geograficzny we współrzędnych globalnych.

IndexDocumentsBatch

Klasa używana do wykonywania operacji wsadowych z wieloma dokumentami do indeksu.

SearchClient

Klasa używana do wykonywania operacji względem indeksu wyszukiwania, w tym wykonywania zapytań dotyczących dokumentów w indeksie, a także dodawania, aktualizowania i usuwania.

SearchIndexClient

Klasa do wykonywania operacji zarządzania indeksami (tworzenie, aktualizowanie, wyświetlanie/usuwanie) & mapami synonimów.

SearchIndexerClient

Klasa do wykonywania operacji na potrzeby zarządzania indeksatorami (tworzenie, aktualizowanie, wyświetlanie/usuwanie) indeksatorów, źródeł danych & zestawów umiejętności.

SearchIndexingBufferedSender

Klasa używana do wykonywania buforowanych operacji względem indeksu wyszukiwania, w tym dodawania, aktualizowania i usuwania.

Interfejsy

AnalyzeRequest

Określa niektóre składniki tekstowe i analityczne używane do dzielenia tego tekstu na tokeny.

AnalyzeResult

Wynik testowania analizatora tekstu.

AnalyzedTokenInfo

Informacje o tokenie zwracanym przez analizator.

AsciiFoldingTokenFilter

Konwertuje znaki alfabetyczne, numeryczne i symboliczne Znaki Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (blok "Basic Latin" Unicode) na ich odpowiedniki ASCII, jeśli takie odpowiedniki istnieją. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

AutocompleteItem

Wynik żądań autouzupełniania.

AutocompleteRequest

Parametry dopasowania rozmytego i inne zachowania zapytań autouzupełniania.

AutocompleteResult

Wynik zapytania autouzupełniania.

AzureActiveDirectoryApplicationCredentials

Poświadczenia zarejestrowanej aplikacji utworzonej dla usługi wyszukiwania używane do uwierzytelnionego dostępu do kluczy szyfrowania przechowywanych w usłudze Azure Key Vault.

BM25Similarity

Funkcja klasyfikacji oparta na algorytmie podobieństwa Okapi BM25. BM25 to algorytm podobny do tf-IDF, który obejmuje normalizację długości (kontrolowaną przez parametr "b"), a także nasycenie terminów (kontrolowane przez parametr k1).

BaseCharFilter

Typ podstawowy filtrów znaków.

BaseCognitiveServicesAccount

Typ podstawowy do opisywania dowolnego zasobu usługi Azure AI dołączonego do zestawu umiejętności.

BaseDataChangeDetectionPolicy

Typ podstawowy zasad wykrywania zmian danych.

BaseDataDeletionDetectionPolicy

Typ podstawowy zasad wykrywania usuwania danych.

BaseLexicalAnalyzer

Typ podstawowy analizatorów.

BaseLexicalTokenizer

Typ podstawowy tokenizatorów.

BaseScoringFunction

Typ podstawowy funkcji, które mogą modyfikować wyniki dokumentu podczas klasyfikowania.

BaseSearchIndexerSkill

Podstawowy typ umiejętności.

BaseSearchRequestOptions

Parametry filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania.

BaseTokenFilter

Typ podstawowy filtrów tokenów.

BaseVectorQuery

Parametry zapytania dla zapytań wektorowych i hybrydowych wyszukiwania.

BaseVectorSearchAlgorithmConfiguration

Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań.

CjkBigramTokenFilter

Tworzy bigramy terminów CJK generowanych na podstawie standardowego tokenizatora. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

ClassicSimilarity

Starszy algorytm podobieństwa, który używa implementacji TFIDFSimilarity Lucene tf-IDF. Ta odmiana tf-IDF wprowadza normalizację długości dokumentu statycznego, a także czynniki koordynujące, które karają dokumenty, które są tylko częściowo zgodne z wyszukiwanymi zapytaniami.

ClassicTokenizer

Tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

CognitiveServicesAccountKey

Zasób usługi Azure AI aprowizacji z kluczem dołączonym do zestawu umiejętności.

CommonGramTokenFilter

Konstruowanie bigramów dla często występujących terminów podczas indeksowania. Pojedyncze terminy są również indeksowane, a bigramy nakładają się. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

ComplexField

Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola.

ConditionalSkill

Umiejętność umożliwiająca scenariusze wymagające operacji logicznej w celu określenia danych do przypisania do danych wyjściowych.

CorsOptions

Definiuje opcje kontrolowania współużytkowania zasobów między źródłami (CORS) dla indeksu.

CreateOrUpdateIndexOptions

Opcje operacji tworzenia/aktualizowania indeksu.

CreateOrUpdateSkillsetOptions

Opcje tworzenia/aktualizowania operacji zestawu umiejętności.

CreateOrUpdateSynonymMapOptions

Opcje operacji tworzenia/aktualizowania synonimów.

CreateorUpdateDataSourceConnectionOptions

Opcje operacji tworzenia/aktualizowania źródła danych.

CreateorUpdateIndexerOptions

Opcje operacji tworzenia/aktualizowania indeksatora.

CustomAnalyzer

Umożliwia przejęcie kontroli nad procesem konwertowania tekstu na tokeny z możliwością indeksowania/wyszukiwania. Jest to konfiguracja zdefiniowana przez użytkownika składająca się z jednego wstępnie zdefiniowanego tokenizatora i co najmniej jednego filtru. Tokenizer jest odpowiedzialny za podzielenie tekstu na tokeny, a filtry do modyfikowania tokenów emitowanych przez tokenizator.

CustomEntity

Obiekt zawierający informacje o znalezionych dopasowaniach i powiązanych metadanych.

CustomEntityAlias

Obiekt złożony, który może służyć do określania alternatywnych pisowni lub synonimów nazwy jednostki głównej.

CustomEntityLookupSkill

Umiejętność wyszukuje tekst z niestandardowej, zdefiniowanej przez użytkownika listy wyrazów i fraz.

DefaultCognitiveServicesAccount

Pusty obiekt reprezentujący domyślny zasób usługi Azure AI dla zestawu umiejętności.

DeleteDataSourceConnectionOptions

Opcje operacji usuwania źródła danych.

DeleteIndexOptions

Opcje operacji usuwania indeksu.

DeleteIndexerOptions

Opcje operacji usuwania indeksatora.

DeleteSkillsetOptions

Opcje usuwania operacji zestawu umiejętności.

DeleteSynonymMapOptions

Opcje usuwania operacji synonimów.

DictionaryDecompounderTokenFilter

Rozkłada złożone wyrazy znalezione w wielu językach niemieckich. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

DistanceScoringFunction

Definiuje funkcję, która zwiększa wyniki na podstawie odległości od lokalizacji geograficznej.

DistanceScoringParameters

Dostarcza wartości parametrów do funkcji oceniania odległości.

DocumentExtractionSkill

Umiejętność wyodrębniania zawartości z pliku w potoku wzbogacania.

EdgeNGramTokenFilter

Generuje n-gramy danych rozmiarów, zaczynając od przodu lub z tyłu tokenu wejściowego. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

EdgeNGramTokenizer

Tokenizuje dane wejściowe z krawędzi do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

ElisionTokenFilter

Usuwa elizji. Na przykład "l'avion" (płaszczyzna) zostanie przekonwertowana na "avion" (płaszczyzna). Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

EntityLinkingSkill

Przy użyciu interfejsu API analiza tekstu wyodrębnia połączone jednostki z tekstu.

EntityRecognitionSkill

Rozpoznawanie jednostek analizy tekstu.

EntityRecognitionSkillV3

Przy użyciu interfejsu API analiza tekstu wyodrębnia jednostki różnych typów z tekstu.

ExhaustiveKnnParameters

Zawiera parametry specyficzne dla wyczerpującego algorytmu KNN.

ExtractiveQueryAnswer

Wyodrębnia kandydatów odpowiedzi z zawartości dokumentów zwróconych w odpowiedzi na zapytanie wyrażone jako pytanie w języku naturalnym.

ExtractiveQueryCaption

Wyodrębnia podpisy z pasujących dokumentów, które zawierają fragmenty istotne dla zapytania wyszukiwania.

FacetResult

Pojedynczy zasobnik wyniku zapytania aspektowego. Raportuje liczbę dokumentów z wartością pola, która mieści się w określonym zakresie lub ma określoną wartość lub interwał.

FieldMapping

Definiuje mapowanie między polem w źródle danych a polem docelowym w indeksie.

FieldMappingFunction

Reprezentuje funkcję, która przekształca wartość ze źródła danych przed indeksowaniem.

FreshnessScoringFunction

Definiuje funkcję, która zwiększa wyniki na podstawie wartości pola daty i godziny.

FreshnessScoringParameters

Udostępnia wartości parametrów funkcji oceniania świeżości.

GetDocumentOptions

Opcje pobierania pojedynczego dokumentu.

HighWaterMarkChangeDetectionPolicy

Definiuje zasady wykrywania zmian danych, które przechwytują zmiany na podstawie wartości kolumny znacznika górnego.

HnswParameters

Zawiera parametry specyficzne dla algorytmu hnsw.

ImageAnalysisSkill

Umiejętność analizująca pliki obrazów. Wyodrębnia bogaty zestaw funkcji wizualnych na podstawie zawartości obrazu.

IndexDocumentsClient

Klient indeksowania dokumentów

IndexDocumentsOptions

Opcje operacji modyfikowania wsadowego indeksu.

IndexDocumentsResult

Odpowiedź zawierająca stan operacji dla wszystkich dokumentów w żądaniu indeksowania.

IndexerExecutionResult

Reprezentuje wynik wykonania pojedynczego indeksatora.

IndexingParameters

Reprezentuje parametry wykonywania indeksatora.

IndexingParametersConfiguration

Słownik właściwości konfiguracji specyficznych dla indeksatora. Każda nazwa jest nazwą określonej właściwości. Każda wartość musi być typu pierwotnego.

IndexingResult

Stan operacji indeksowania dla pojedynczego dokumentu.

IndexingSchedule

Reprezentuje harmonogram wykonywania indeksatora.

InputFieldMappingEntry

Mapowanie pól wejściowych dla umiejętności.

KeepTokenFilter

Filtr tokenu, który przechowuje tylko tokeny z tekstem zawartym na określonej liście wyrazów. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

KeyPhraseExtractionSkill

Umiejętność, która korzysta z analizy tekstu na potrzeby wyodrębniania kluczowych fraz.

KeywordMarkerTokenFilter

Oznacza terminy jako słowa kluczowe. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

KeywordTokenizer

Emituje całe dane wejściowe jako pojedynczy token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

LanguageDetectionSkill

Umiejętność, która wykrywa język tekstu wejściowego i zgłasza pojedynczy kod języka dla każdego dokumentu przesłanego na żądanie. Kod języka jest sparowany z wynikiem wskazującym pewność analizy.

LengthTokenFilter

Usuwa wyrazy, które są za długie lub zbyt krótkie. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

LimitTokenFilter

Ogranicza liczbę tokenów podczas indeksowania. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

ListSearchResultsPageSettings

Argumenty pobierania następnej strony wyników wyszukiwania.

LuceneStandardAnalyzer

Standardowy analizator Apache Lucene; Składa się ze standardowego tokenizatora, małych liter i filtru zatrzymania.

LuceneStandardTokenizer

Przerywa tekst po regułach segmentacji tekstu Unicode. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

MagnitudeScoringFunction

Definiuje funkcję, która zwiększa wyniki na podstawie wielkości pola liczbowego.

MagnitudeScoringParameters

Udostępnia wartości parametrów funkcji oceniania wielkości.

MappingCharFilter

Filtr znaków, który stosuje mapowania zdefiniowane za pomocą opcji mapowań. Dopasowanie jest chciwy (najdłuższy wzór pasujący w danym punkcie wygrywa). Zastąpienie może być pustym ciągiem. Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene.

MergeSkill

Umiejętność scalania dwóch lub większej liczby ciągów w jeden ujednolicony ciąg z opcjonalnym ogranicznikiem zdefiniowanym przez użytkownika oddzielającym każdą część składnika.

MicrosoftLanguageStemmingTokenizer

Dzieli tekst przy użyciu reguł specyficznych dla języka i zmniejsza liczbę wyrazów do ich formularzy podstawowych.

MicrosoftLanguageTokenizer

Dzieli tekst przy użyciu reguł specyficznych dla języka.

NGramTokenFilter

Generuje n-gramy danego rozmiaru. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

NGramTokenizer

Tokenizuje dane wejściowe do n-gramów podanych rozmiarów. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

OcrSkill

Umiejętność wyodrębniania tekstu z plików obrazów.

OutputFieldMappingEntry

Mapowanie pól wyjściowych dla umiejętności.

PIIDetectionSkill

Korzystając z interfejsu API analiza tekstu, wyodrębnia dane osobowe z tekstu wejściowego i umożliwia maskowanie.

PathHierarchyTokenizer

Tokenizer dla hierarchii podobnych do ścieżki. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

PatternAnalyzer

Elastycznie oddziela tekst na terminy za pomocą wzorca wyrażenia regularnego. Ten analizator jest implementowany przy użyciu platformy Apache Lucene.

PatternCaptureTokenFilter

Używa wyrażeń regularnych Języka Java do emitowania wielu tokenów — jednej dla każdej grupy przechwytywania w co najmniej jednym wzorze. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

PatternReplaceCharFilter

Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie "$1#$2", wynik będzie "aa#bb aa#bb". Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene.

PatternReplaceTokenFilter

Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie "$1#$2", wynik będzie "aa#bb aa#bb". Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

PatternTokenizer

Tokenizer, który używa dopasowania wzorca regularnego do konstruowania odrębnych tokenów. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

PhoneticTokenFilter

Tworzenie tokenów dla dopasowań fonetycznych. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

QueryAnswerResult

Odpowiedź to fragment tekstu wyodrębniony z zawartości najbardziej odpowiednich dokumentów pasujących do zapytania. Odpowiedzi są wyodrębniane z najlepszych wyników wyszukiwania. Kandydaci odpowiedzi są oceniani i wybierane są najważniejsze odpowiedzi.

QueryCaptionResult

Podpisy są najbardziej reprezentatywnymi fragmentami z dokumentu stosunkowo do zapytania wyszukiwania. Są one często używane jako podsumowanie dokumentu. Podpisy są zwracane tylko dla zapytań typu semantic.

ResourceCounter

Reprezentuje użycie i limit przydziału zasobu.

ScoringProfile

Definiuje parametry indeksu wyszukiwania, który ma wpływ na ocenianie w zapytaniach wyszukiwania.

SearchClientOptions

Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego.

SearchDocumentsPageResult

Odpowiedź zawierająca wyniki strony wyszukiwania z indeksu.

SearchDocumentsResult

Odpowiedź zawierająca wyniki wyszukiwania z indeksu.

SearchDocumentsResultBase

Odpowiedź zawierająca wyniki wyszukiwania z indeksu.

SearchIndex

Reprezentuje definicję indeksu wyszukiwania, która opisuje pola i zachowanie wyszukiwania indeksu.

SearchIndexClientOptions

Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego.

SearchIndexStatistics

Statystyki dla danego indeksu. Statystyki są zbierane okresowo i nie mają gwarancji, że zawsze będą aktualne.

SearchIndexer

Reprezentuje indeksator.

SearchIndexerClientOptions

Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego.

SearchIndexerDataContainer

Reprezentuje informacje o jednostce (na przykład Azure SQL tabeli lub kolekcji cosmosDB), które zostaną zindeksowane.

SearchIndexerDataSourceConnection

Reprezentuje definicję źródła danych, która może służyć do konfigurowania indeksatora.

SearchIndexerError

Reprezentuje błąd indeksowania na poziomie elementu lub dokumentu.

SearchIndexerKnowledgeStore

Definicja dodatkowych projekcji do obiektów blob platformy Azure, tabel lub plików wzbogaconych danych.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Klasa abstrakcyjna do współużytkowania właściwości między selektorami betonowymi.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definicja projekcji dla danych, które mają być przechowywane w Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definicja projekcji dla danych do przechowywania w obiekcie blob platformy Azure.

SearchIndexerKnowledgeStoreProjection

Obiekt kontenera dla różnych selektorów projekcji.

SearchIndexerKnowledgeStoreProjectionSelector

Klasa abstrakcyjna do współużytkowania właściwości między selektorami betonowymi.

SearchIndexerKnowledgeStoreTableProjectionSelector

Opis danych do przechowywania w tabelach platformy Azure.

SearchIndexerLimits
SearchIndexerSkillset

Lista umiejętności.

SearchIndexerStatus

Reprezentuje bieżący stan i historię wykonywania indeksatora.

SearchIndexerWarning

Reprezentuje ostrzeżenie na poziomie elementu.

SearchIndexingBufferedSenderOptions

Opcje wyszukiwaniaIndexingBufferedSender.

SearchResourceEncryptionKey

Klucz szyfrowania zarządzany przez klienta w usłudze Azure Key Vault. Klucze tworzone i zarządzane mogą służyć do szyfrowania lub odszyfrowywania danych magazynowanych w Azure Cognitive Search, takich jak indeksy i mapy synonimów.

SearchServiceStatistics

Odpowiedź z żądania pobierania statystyk usługi. Jeśli to się powiedzie, obejmuje liczniki i limity poziomu usług.

SearchSuggester

Definiuje sposób stosowania interfejsu API sugerowanego do grupy pól w indeksie.

SemanticConfiguration

Definiuje określoną konfigurację, która ma być używana w kontekście możliwości semantycznych.

SemanticField

Pole, które jest używane jako część konfiguracji semantycznej.

SemanticPrioritizedFields

Opisuje pola tytułu, zawartości i słów kluczowych, które mają być używane do klasyfikacji semantycznej, podpisów, wyróżnień i odpowiedzi.

SemanticSearch

Definiuje parametry indeksu wyszukiwania, który ma wpływ na możliwości semantyczne.

SemanticSearchOptions

Definiuje opcje semantycznych zapytań wyszukiwania

SentimentSkill

Analiza tekstu dodatnio-ujemna analiza tonacji, oceniana jako wartość zmiennoprzecinkowa w zakresie od zera do 1.

SentimentSkillV3

Korzystając z interfejsu API analiza tekstu, ocenia tekst bez struktury i dla każdego rekordu, udostępnia etykiety tonacji (takie jak "negatywne", "neutralne" i "pozytywne") na podstawie najwyższego wyniku ufności znalezionego przez usługę na poziomie zdania i dokumentu.

ServiceCounters

Reprezentuje liczniki zasobów i przydziały na poziomie usługi.

ServiceLimits

Reprezentuje różne limity poziomu usług.

ShaperSkill

Umiejętność przekształcania danych wyjściowych. Tworzy typ złożony do obsługi pól złożonych (nazywanych również polami wieloczęściowym).

ShingleTokenFilter

Tworzy kombinacje tokenów jako pojedynczy token. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

Similarity

Typ podstawowy algorytmów podobieństwa. Algorytmy podobieństwa służą do obliczania wyników, które wiążą zapytania z dokumentami. Im wyższy wynik, tym bardziej istotne jest to, że dokument jest przeznaczony dla tego konkretnego zapytania. Te wyniki są używane do klasyfikacji wyników wyszukiwania.

SimpleField

Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola.

SnowballTokenFilter

Filtr, który tworzy wyrazy przy użyciu stemmeru wygenerowanego przez snowball. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Definiuje zasady wykrywania usuwania danych, które implementują strategię usuwania nietrwałego. Określa, czy element powinien zostać usunięty na podstawie wartości wyznaczonej kolumny "usuwania nietrwałego".

SplitSkill

Umiejętność dzielenia ciągu na fragmenty tekstu.

SqlIntegratedChangeTrackingPolicy

Definiuje zasady wykrywania zmian danych, które przechwytują zmiany przy użyciu funkcji zintegrowanej Change Tracking bazy danych Azure SQL.

StemmerOverrideTokenFilter

Zapewnia możliwość zastępowania innych filtrów macierzystych przy użyciu niestandardowego ściągnięcia opartego na słowniku. Wszystkie terminy powiązane ze słownikiem zostaną oznaczone jako słowa kluczowe, aby nie zostały one powstrzymane od stemmers w dół łańcucha. Należy umieścić przed wszelkimi filtrami macierzystymi. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

StemmerTokenFilter

Filtr macierzysty specyficzny dla języka. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

StopAnalyzer

Dzieli tekst na litery inne niż litery; Stosuje małe litery i filtry tokenów stopword. Ten analizator jest implementowany przy użyciu platformy Apache Lucene.

StopwordsTokenFilter

Usuwa słowa zatrzymania ze strumienia tokenu. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

SuggestDocumentsResult

Odpowiedź zawierająca wyniki zapytania sugestii z indeksu.

SuggestRequest

Parametry filtrowania, sortowania, dopasowywania rozmytego i innych sugestii dotyczących zachowań zapytań.

SynonymMap

Reprezentuje definicję mapy synonimów.

SynonymTokenFilter

Dopasuje synonimy pojedyncze lub wielosypowe w strumieniu tokenu. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

TagScoringFunction

Definiuje funkcję, która zwiększa wyniki dokumentów z wartościami ciągów pasującymi do danej listy tagów.

TagScoringParameters

Udostępnia wartości parametrów funkcji oceniania tagów.

TextTranslationSkill

Umiejętność tłumaczenia tekstu z jednego języka na inny.

TextWeights

Definiuje wagi pól indeksu, dla których dopasowania powinny zwiększyć ocenianie w zapytaniach wyszukiwania.

TruncateTokenFilter

Obcina terminy do określonej długości. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

UaxUrlEmailTokenizer

Tokenizuje adresy URL i wiadomości e-mail jako jeden token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

UniqueTokenFilter

Filtruje tokeny z tym samym tekstem co poprzedni token. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

VectorSearch

Zawiera opcje konfiguracji związane z wyszukiwaniem wektorów.

VectorSearchOptions

Definiuje opcje zapytań wyszukiwania wektorowego

VectorSearchProfile

Definiuje kombinację konfiguracji do użycia z wyszukiwaniem wektorów.

VectorizedQuery

Parametry zapytania do użycia do wyszukiwania wektorów po podaniu wartości nieprzetworzonego wektora.

WebApiSkill

Umiejętność, która może wywołać punkt końcowy internetowego interfejsu API, umożliwiając rozszerzenie zestawu umiejętności przez wywołanie kodu niestandardowego.

WordDelimiterTokenFilter

Dzieli wyrazy na podwordse i wykonuje opcjonalne przekształcenia w grupach podrzędnych. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene.

Aliasy typu

AnalyzeTextOptions

Opcje analizowania operacji tekstowej.

AutocompleteMode

Definiuje wartości dla autouzupełnianiaMode.

AutocompleteOptions

Opcje pobierania tekstu ukończenia dla częściowego tekstu searchText.

BlobIndexerDataToExtract

Znane wartości obsługiwane przez usługę

storageMetadata: indeksuje tylko standardowe właściwości obiektu blob i metadane określone przez użytkownika. allMetadata: wyodrębnia metadane udostępniane przez podsystem magazynu obiektów blob platformy Azure i metadane specyficzne dla typu zawartości (na przykład metadane unikatowe dla tylko .png plików są indeksowane). contentAndMetadata: wyodrębnia wszystkie metadane i zawartość tekstową z każdego obiektu blob.

BlobIndexerImageAction

Znane wartości obsługiwane przez usługę

brak: ignoruje osadzone obrazy lub pliki obrazów w zestawie danych. Jest to opcja domyślna. generateNormalizedImages: wyodrębnia tekst z obrazów (na przykład słowo "STOP" z znaku zatrzymania ruchu) i osadza go w polu zawartości. Ta akcja wymaga ustawienia "dataToExtract" na wartość "contentAndMetadata". Znormalizowany obraz odwołuje się do dodatkowego przetwarzania, co powoduje jednolite dane wyjściowe obrazu, rozmiar i obrócony w celu promowania spójnego renderowania podczas dołączania obrazów do wyników wyszukiwania wizualnego. Te informacje są generowane dla każdego obrazu podczas korzystania z tej opcji. generateNormalizedImagePerPage: wyodrębnia tekst z obrazów (na przykład słowo "STOP" z znaku zatrzymania ruchu) i osadza go w polu zawartości, ale traktuje pliki PDF inaczej w tym, że każda strona będzie renderowana jako obraz i odpowiednio znormalizowana, zamiast wyodrębniać osadzone obrazy. Typy plików innych niż PDF będą traktowane tak samo jak w przypadku ustawienia "generateNormalizedImages".

BlobIndexerPDFTextRotationAlgorithm

Znane wartości obsługiwane przez usługę

brak: wykorzystuje normalne wyodrębnianie tekstu. Jest to opcja domyślna. detectAngles: może tworzyć lepsze i bardziej czytelne wyodrębnianie tekstu z plików PDF, które obrócone w nich tekst. Należy pamiętać, że w przypadku użycia tego parametru może wystąpić niewielki wpływ na szybkość wydajności. Ten parametr dotyczy tylko plików PDF i tylko plików PDF z osadzonym tekstem. Jeśli obrócony tekst pojawi się w osadzonym obrazie w pliku PDF, ten parametr nie ma zastosowania.

BlobIndexerParsingMode

Znane wartości obsługiwane przez usługę

ustawienie domyślne: ustaw wartość domyślną dla normalnego przetwarzania plików. text: ustaw wartość na tekst, aby zwiększyć wydajność indeksowania plików w postaci zwykłego tekstu w magazynie obiektów blob. delimitedText: ustaw wartość na rozdzielanyTekst, gdy obiekty blob są zwykłymi plikami CSV. json: ustaw wartość na JSON, aby wyodrębnić zawartość ustrukturyzowaną z plików JSON. jsonArray: ustaw wartość jsonArray, aby wyodrębnić poszczególne elementy tablicy JSON jako oddzielne dokumenty w Azure Cognitive Search. jsonLines: ustaw wartość jsonLines, aby wyodrębnić poszczególne jednostki JSON oddzielone nowym wierszem jako osobne dokumenty w Azure Cognitive Search.

CharFilter

Zawiera możliwe przypadki dla elementu CharFilter.

CharFilterName

Definiuje wartości elementu CharFilterName.
<xref:KnownCharFilterName> Można używać zamiennie z CharFilterName. To wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

html_strip: filtr znaków, który próbuje usunąć konstrukcje HTML. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Definiuje wartości dla CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Zawiera możliwe przypadki dla konta CognitiveServicesAccount.

ComplexDataType

Definiuje wartości parametru ComplexDataType. Możliwe wartości to: "Edm.ComplexType", "Collection(Edm.ComplexType)"

CountDocumentsOptions

Opcje wykonywania operacji count na indeksie.

CreateDataSourceConnectionOptions

Opcje tworzenia operacji źródła danych.

CreateIndexOptions

Opcje operacji tworzenia indeksu.

CreateIndexerOptions

Opcje operacji tworzenia indeksatora.

CreateSkillsetOptions

Opcje tworzenia operacji zestawu umiejętności.

CreateSynonymMapOptions

Opcje tworzenia operacji synonimów.

CustomEntityLookupSkillLanguage

Definiuje obsługiwane języki dla elementu CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage można używać zamiennie z tym typem

DataChangeDetectionPolicy

Zawiera możliwe przypadki dla elementu DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Zawiera możliwe przypadki dla elementu DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opcje operacji usuwania dokumentów.

EdgeNGramTokenFilterSide

Definiuje wartości elementu EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage

Definiuje obsługiwane języki dla elementu EntityRecognitionSkillKnownEntityRecognitionSkillLanguage można używać zamiennie z tym typem

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Zawiera opcje konfiguracji specyficzne dla wyczerpującego algorytmu KNN używanego podczas wykonywania zapytań, co spowoduje wykonanie wyszukiwania siłowego w całym indeksie wektorowym.

ExtractDocumentKey
GetDataSourceConnectionOptions

Opcje pobierania operacji źródła danych.

GetIndexOptions

Opcje operacji pobierania indeksu.

GetIndexStatisticsOptions

Opcje operacji pobierania statystyk indeksu.

GetIndexerOptions

Opcje operacji pobierania indeksatora.

GetIndexerStatusOptions

Opcje pobierania operacji stanu indeksatora.

GetServiceStatisticsOptions

Opcje pobierania operacji statystyk usługi.

GetSkillSetOptions

Opcje pobierania operacji zestawu umiejętności.

GetSynonymMapsOptions

Opcje operacji pobierania map synonimów.

HnswAlgorithmConfiguration

Zawiera opcje konfiguracji specyficzne dla algorytmu hnsw przybliżonego najbliższego sąsiada używanego podczas indeksowania.

ImageAnalysisSkillLanguage

Definiuje obsługiwane języki dla elementu ImageAnalysisSkillKnownImageAnalysisSkillLanguage mogą być używane zamiennie z tym typem

ImageDetail
IndexActionType

Definiuje wartości indexActionType.

IndexDocumentsAction

Reprezentuje akcję indeksu działającą na dokumencie.

IndexIterator

Iterator do wyświetlania listy indeksów, które istnieją w usługa wyszukiwania. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację.

IndexNameIterator

Iterator do wyświetlania listy indeksów, które istnieją w usługa wyszukiwania. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację.

IndexerExecutionEnvironment

Znane wartości obsługiwane przez usługę

standard: wskazuje, że Azure Cognitive Search może określić miejsce wykonywania indeksatora. Jest to środowisko domyślne, gdy nic nie zostanie określone i jest zalecaną wartością. private: wskazuje, że indeksator powinien działać ze środowiskiem aprowizowanym specjalnie dla usługi wyszukiwania. Należy to określić tylko jako środowisko wykonywania, jeśli indeksator musi bezpiecznie uzyskiwać dostęp do zasobów za pośrednictwem udostępnionych zasobów łącza prywatnego.

IndexerExecutionStatus

Definiuje wartości parametru IndexerExecutionStatus.

IndexerStatus

Definiuje wartości parametru IndexerStatus.

KeyPhraseExtractionSkillLanguage

Definiuje obsługiwane języki dla keyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage mogą być używane zamiennie z tym typem

LexicalAnalyzer

Zawiera możliwe przypadki analizatora.

LexicalAnalyzerName

Definiuje wartości lexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> Można używać zamiennie z lexicalAnalyzerName. To wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

ar.microsoft: Microsoft analyzer dla języka arabskiego.
ar.lucene: Analizator Lucene dla języka arabskiego.
hy.lucene: Analizator Lucene dla Ormiańskiego.
bn.microsoft: Microsoft analyzer dla Bangla.
eu.lucene: Analizator Lucene dla baskijki.
bg.microsoft: Microsoft analyzer dla Bułgarskiego.
bg.lucene: Analizator Lucene dla Bułgara.
ca.microsoft: Microsoft analyzer dla katalońskiego.
ca.lucene: Analizator Lucene dla Katalończyka.
zh-Hans.microsoft: Analizator firmy Microsoft dla języka chińskiego (uproszczony).
zh-Hans.lucene: analizator Lucene dla języka chińskiego (uproszczony).
zh-Hant.microsoft: Analizator firmy Microsoft dla języka chińskiego (tradycyjny).
zh-Hant.lucene: analizator Lucene dla języka chińskiego (tradycyjny).
hr.microsoft: Microsoft analyzer dla Chorwackich.
cs.microsoft: Microsoft analyzer for Czech.
cs.lucene: Analizator Lucene dla języka czeskiego.
da.microsoft: Microsoft analyzer dla języka duńskiego.
da.lucene: Analizator Lucene dla języka duńskiego.
nl.microsoft: Microsoft analyzer for Dutch.
nl.lucene: Analizator Lucene dla holendrów.
en.microsoft: Microsoft analyzer dla języka angielskiego.
en.lucene: Analizator Lucene dla języka angielskiego.
et.microsoft: Microsoft analyzer for Estończyk.
fi.microsoft: Microsoft analyzer for Fiński.
fi.lucene: Analizator Lucene dla fińskiego.
fr.microsoft: Microsoft analyzer dla języka francuskiego.
fr.lucene: Analizator Lucene dla języka francuskiego.
gl.lucene: Analizator Lucene dla Galicji.
de.microsoft: Microsoft analyzer dla języka niemieckiego.
de.lucene: Analizator Lucene dla języka niemieckiego.
el.microsoft: Microsoft analyzer dla języka greckiego.
el.lucene: Analizator Lucene dla języka greckiego.
gu.microsoft: Microsoft analyzer dla Gujarati.
he.microsoft: Microsoft analyzer dla języka hebrajskiego.
hi.microsoft: Microsoft analyzer for Hindi.
hi.lucene: Analizator Lucene dla hindi.
hu.microsoft: Analizator firmy Microsoft dla języka węgierskiego.
hu.lucene: Analizator Lucene dla Węgier.
is.microsoft: Microsoft analyzer for Islandii.
id.microsoft: Microsoft analyzer for Indonezyjski (Bahasa).
id.lucene: Analizator Lucene dla indonezyjskiego.
ga.lucene: Analizator Lucene dla Irlandii.
it.microsoft: Microsoft analyzer dla języka włoskiego.
it.lucene: Analizator Lucene dla Włoch.
ja.microsoft: Microsoft analyzer dla języka japońskiego.
ja.lucene: Analizator Lucene dla języka japońskiego.
kn.microsoft: Microsoft analyzer dla Kannada.
ko.microsoft: Microsoft analyzer dla języka koreańskiego.
ko.lucene: Analizator Lucene dla języka koreańskiego.
lv.microsoft: Microsoft analyzer dla Łotewskiego.
lv.lucene: Analizator Lucene dla Łotewskiego.
lt.microsoft: Analizator firmy Microsoft dla Litwy.
ml.microsoft: Microsoft analyzer for Malayalam.
ms.microsoft: Microsoft analyzer for Malay (Latin).
mr.microsoft: Microsoft analyzer for Marathi.
nb.microsoft: Microsoft analyzer for Norwegian (Bokmål).
no.lucene: Analizator Lucene dla norweskiego.
fa.lucene: Analizator Lucene perski.
pl.microsoft: Microsoft analyzer dla polski.
pl.lucene: Analizator Lucene dla Polski.
pt-BR.microsoft: Microsoft analyzer dla portugalskich (Brazylia).
pt-BR.lucene: Analizator Lucene dla portugalskiego (Brazylia).
pt-PT.microsoft: Microsoft analyzer for Portuguese (Portugalia).
pt-PT.lucene: Analizator Lucene dla portugalskiego (Portugalia).
pa.microsoft: Microsoft analyzer dla Punjabi.
ro.microsoft: Microsoft analyzer dla języka rumuńskiego.
ro.lucene: Analizator Lucene dla języka rumuńskiego.
ru.microsoft: Analizator firmy Microsoft dla języka rosyjskiego.
ru.lucene: Analizator Lucene dla języka rosyjskiego.
sr-cyrylica.microsoft: Microsoft analyzer dla serbskiego (cyrylica).
sr-latin.microsoft: Microsoft analyzer dla serbskiego (łacińskiego).
sk.microsoft: Microsoft analyzer dla języka słowackiego.
sl.microsoft: Analizator firmy Microsoft dla słowenii.
es.microsoft: Microsoft analyzer dla języka hiszpańskiego.
es.lucene: analizator Lucene dla języka hiszpańskiego.
sv.microsoft: Microsoft analyzer dla szwedzkich.
sv.lucene: Analizator Lucene dla szwedzkich.
ta.microsoft: Microsoft analyzer for Tamil.
te.microsoft: Microsoft analyzer for Telugu.
th.microsoft: Microsoft analyzer for Thai.
th.lucene: Analizator Lucene dla Tajlandii.
tr.microsoft: Microsoft analyzer dla języka tureckiego.
tr.lucene: Analizator Lucene dla języka tureckiego.
uk.microsoft: Analizator firmy Microsoft dla Ukrainy.
your.microsoft: Microsoft analyzer for Urdu.
vi.microsoft: Microsoft analyzer dla Wietnamczyków.
standard.lucene: Standardowy analizator Lucene.
standardasciifolding.lucene: standardowy analizator Lucene składania ASCII. Zobacz https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
słowo kluczowe: traktuje całą zawartość pola jako pojedynczy token. Jest to przydatne w przypadku danych, takich jak kody pocztowe, identyfikatory i niektóre nazwy produktów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
wzorzec: Elastycznie oddziela tekst na terminy za pomocą wzorca wyrażenia regularnego. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
proste: dzieli tekst na litery inne niż litery i konwertuje je na małe litery. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop: dzieli tekst na litery inne niż litery; Stosuje małe litery i filtry tokenów stopword. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
biały znak: analizator używający tokenizatora odstępu. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Zawiera możliwe przypadki tokenizatora.

LexicalTokenizerName

Definiuje wartości lexicalTokenizerName.
<xref:KnownLexicalTokenizerName> można używać zamiennie z lexicalTokenizerName. To wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

klasyczny: tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: Tokenizuje dane wejściowe z krawędzi do n-gramów danego rozmiaru. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: Emituje całe dane wejściowe jako pojedynczy token. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
litera: dzieli tekst na litery inne niż litery. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
małe litery: dzieli tekst na litery inne niż litery i konwertuje je na małe litery. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: dzieli tekst przy użyciu reguł specyficznych dla języka.
microsoft_language_stemming_tokenizer: dzieli tekst przy użyciu reguł specyficznych dla języka i zmniejsza wyrazy do ich formularzy podstawowych.
nGram: Tokenizuje dane wejściowe do n-gramów danego rozmiaru. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer dla hierarchii podobnych do ścieżek. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
wzorzec: Tokenizer, który używa dopasowania wzorca regularnego do konstruowania unikatowych tokenów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Analizator Lucene w warstwie Standardowa; Składa się ze standardowego tokenizatora, małych liter i filtru zatrzymania. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokenizuje adresy URL i wiadomości e-mail jako jeden token. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
biały znak: dzieli tekst na białe znaki. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Opcje operacji źródeł danych listy.

ListIndexersOptions

Opcje operacji indeksatorów listy.

ListIndexesOptions

Opcje operacji indeksów listy.

ListSkillsetsOptions

Opcje operacji zestawów umiejętności listy.

ListSynonymMapsOptions

Opcje operacji synonimów listyMaps.

MergeDocumentsOptions

Opcje operacji scalania dokumentów.

MergeOrUploadDocumentsOptions

Opcje operacji scalania lub przekazywania dokumentów.

MicrosoftStemmingTokenizerLanguage

Definiuje wartości microsoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Definiuje wartości microsoftTokenizerLanguage.

NarrowedModel

Zawęża typ modelu do uwzględnienia tylko wybranych pól

OcrSkillLanguage

Definiuje obsługiwane języki dla OcrSkillKnownOcrSkillLanguage można używać zamiennie z tym typem

PIIDetectionSkillMaskingMode

Definiuje wartości dla właściwości PIIDetectionSkillMaskingMode.

Znane wartości obsługiwane przez usługę

brak: nie występuje maskowanie, a dane wyjściowe maskowanego tekstu nie zostaną zwrócone. replace: zastępuje wykryte jednostki znakiem podanym w parametrze maskingCharacter. Znak będzie powtarzany do długości wykrytej jednostki, tak aby przesunięcia prawidłowo odpowiadały zarówno tekstowi wejściowemu, jak i maskowanemu tekstowi wyjściowemu.

PhoneticEncoder

Definiuje wartości dla PhoneticEncoder.

QueryAnswer

Wartość określająca, czy odpowiedzi powinny być zwracane w ramach odpowiedzi wyszukiwania. Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania to "semantyka". Jeśli jest ustawiona extractivewartość , zapytanie zwraca odpowiedzi wyodrębnione z kluczowych fragmentów w najwyżej sklasyfikowanych dokumentach.

QueryCaption

Wartość określająca, czy podpisy powinny być zwracane w ramach odpowiedzi wyszukiwania. Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania to "semantyka". W przypadku ustawienia zapytanie zwraca napisy wyodrębnione z kluczowych fragmentów w najbardziej sklasyfikowanych dokumentach. Gdy napisy są "wyodrębnione", wyróżnianie jest domyślnie włączone. Wartość domyślna to "none".

QueryType

Definiuje wartości parametru QueryType.

RegexFlags

Definiuje flagi dopasowania wzorca wyrażeń regularnych

Znane wartości obsługiwane przez usługę

CANON_EQ: umożliwia równoważność kanoniczną. CASE_INSENSITIVE: włącza dopasowywanie bez uwzględniania wielkości liter. KOMENTARZE: Zezwala na białe znaki i komentarze we wzorcu. DOTALL: włącza tryb dotall. LITERAŁ: Włącza analizowanie literału wzorca. MULTILINE: włącza tryb wielowierszowy. UNICODE_CASE: włącza składanie przypadków obsługujących kod Unicode. UNIX_LINES: włącza tryb linii systemu Unix.

ResetIndexerOptions

Opcje operacji resetowania indeksatora.

RunIndexerOptions

Opcje operacji uruchamiania indeksatora.

ScoringFunction

Zawiera możliwe przypadki ocenianiafunction.

ScoringFunctionAggregation

Definiuje wartości dla scoringFunctionAggregation.

ScoringFunctionInterpolation

Definiuje wartości dla scoringFunctionInterpolation.

ScoringStatistics

Definiuje wartości dla scoringStatistics.

SearchField

Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola.

SearchFieldArray

Jeśli jest nietypowym obiektem, nietypowa tablica ciągów . W TModel przeciwnym razie pola rozdzielane ukośnikami .TModel

SearchFieldDataType

Definiuje wartości parametru SearchFieldDataType. Możliwe wartości to: "Edm.String", "Edm.Int32", "Edm.Int64", "Edm.Double", "Edm.Boolean", "Edm.DateTimeOffset", "Edm.GeographyPoint", "Collection(Edm.String)", "Collection(Edm.Int32)", "Collection(Edm.Int64)", "Collection(Edm.Double)", "Collection(Edm.Boolean)", "Collection(Edm.DateTimeOffset)", "Collection(Edm.GeographyPoint)", "Collection(Edm.Single)"

NB: Edm.Single sam nie jest prawidłowym typem danych. Musi być używana jako część typu kolekcji.

SearchIndexerDataSourceType
SearchIndexerSkill

Zawiera możliwe przypadki umiejętności.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opcje dla SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opcje dla SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Iterator wyników wyszukiwania zapytania patowego. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację.

SearchMode

Definiuje wartości dla elementu SearchMode.

SearchOptions

Opcje zatwierdzania pełnego żądania wyszukiwania.

SearchPick

Głęboko wybieraj pola języka T przy użyciu prawidłowych ścieżek OData wyszukiwania poznawczego OData $select.

SearchRequestOptions

Parametry filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania.

SearchRequestQueryTypeOptions
SearchResult

Zawiera dokument znaleziony przez zapytanie wyszukiwania oraz skojarzone metadane.

SelectArray

Jeśli nigdy nie jest, nietypowa tablica ciągów. W TFields przeciwnym razie zawęziony Fields[] typ, który ma być używany w innym miejscu w typie zużywania.

SelectFields

Tworzy połączenie prawidłowych ścieżek OData wyszukiwania poznawczego OData $select dla języka T przy użyciu przechodzenia po kolejności drzewa pól zakorzenionego w języku T.

SemanticErrorMode

częściowe: jeśli przetwarzanie semantyczne zakończy się niepowodzeniem, wyniki częściowe nadal zwracają. Definicja częściowych wyników zależy od tego, jaki krok semantyczny zakończył się niepowodzeniem i jaka była przyczyna niepowodzenia.

niepowodzenie: jeśli wystąpi wyjątek podczas kroku przetwarzania semantycznego, zapytanie zakończy się niepowodzeniem i zwróci odpowiedni kod HTTP w zależności od błędu.

SemanticErrorReason

maxWaitExceeded: Jeśli ustawiono wartość "semanticMaxWaitInMilliseconds", a czas trwania przetwarzania semantycznego przekroczył ten wartość. Zwracano tylko wyniki podstawowe.

capacityOverloaded: żądanie zostało ograniczone. Zwracano tylko wyniki podstawowe.

przejściowe: Co najmniej jeden krok procesu semantycznego zakończył się niepowodzeniem.

SemanticSearchResultsType

baseResults: Wyniki bez żadnego semantycznego wzbogacania ani ponownego wyrównywania.

re rankingResults: Wyniki zostały ponownie sklasyfikowane za pomocą modelu ponownego generowania i będą zawierać podpisy semantyczne. Nie będą zawierać żadnych odpowiedzi, wyróżniania odpowiedzi ani wyróżniania podpis.

SentimentSkillLanguage

Definiuje obsługiwane języki dla języka SentimentSkillKnownSentimentSkillLanguage można używać zamiennie z tym typem

SimilarityAlgorithm

Zawiera możliwe przypadki podobieństwa.

SnowballTokenFilterLanguage

Definiuje wartości elementu SnowballTokenFilterLanguage.

SplitSkillLanguage

Definiuje obsługiwane języki dla splitSkill KnownSplitSkillLanguage można używać zamiennie z tym typem

StemmerTokenFilterLanguage

Definiuje wartości elementu StemmerTokenFilterLanguage.

StopwordsList

Definiuje wartości stopwordsList.

SuggestNarrowedModel
SuggestOptions

Opcje pobierania sugestii na podstawie tekstu wyszukiwania.

SuggestResult

Wynik zawierający dokument znaleziony przez zapytanie sugestii oraz skojarzone metadane.

TextSplitMode
TextTranslationSkillLanguage

Definiuje obsługiwane języki dla elementu TextTranslationSkillKnownTextTranslationSkillLanguage można używać zamiennie z tym typem

TokenCharacterKind

Definiuje wartości tokenCharacterKind.

TokenFilter

Zawiera możliwe przypadki tokenuFilter.

TokenFilterName

Definiuje wartości TokenFilterName.
<xref:KnownTokenFilterName> można używać zamiennie z TokenFilterName. To wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

arabic_normalization: filtr tokenu, który stosuje arabski normalizator w celu normalizacji orthografii. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrof: Usuwa wszystkie znaki po apostrofie (w tym samo apostrofy). Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: konwertuje alfabetyczne, numeryczne i symboliczne znaki Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (bloku Unicode w języku łacińskim w języku łacińskim) na ich odpowiedniki ASCII, jeśli istnieją takie odpowiedniki. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: Tworzy bigramy terminów CJK generowanych na podstawie tokenizatora standardowego. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: normalizuje różnice szerokości zestawu CJK. Składa warianty fullwidth ASCII do równoważnego podstawowego języka łacińskiego i pół szerokości Warianty Katakana w odpowiednik Kana. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
klasyczny: usuwa angielskie opętacze i kropki z akronimów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: Konstruowanie bigramów dla często występujących terminów podczas indeksowania. Pojedyncze terminy są również indeksowane, a bigramy są nakładane. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: generuje n-gramy danych rozmiarów rozpoczynających się od przodu lub z tyłu tokenu wejściowego. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: usuwa elizji. Na przykład "l'avion" (płaszczyzna) zostanie przekonwertowana na "avion" (płaszczyzna). Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Normalizuje niemieckie znaki według heurystyki algorytmu śnieżki German2. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: Normalizuje tekst w języku Hindi, aby usunąć pewne różnice w odmianach pisowni. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normalizuje reprezentację tekstu Unicode w językach indyjskich. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: Emituje dwa razy każdy token przychodzący, raz jako słowo kluczowe i raz jako niezwerowe. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: wysokowydajny filtr kstem dla języka angielskiego. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
długość: usuwa wyrazy, które są zbyt długie lub zbyt krótkie. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limit: ogranicza liczbę tokenów podczas indeksowania. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
małe litery: normalizuje tekst tokenu do małych liter. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm
nGram_v2: generuje n-gramy danego rozmiaru. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Stosuje normalizację dla perskich. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetyczne: tworzenie tokenów dla dopasowań fonetycznych. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: używa algorytmu macierzystego portera do przekształcania strumienia tokenu. Zobacz http://tartarus.org/~martin/PorterStemmer
reverse: odwraca ciąg tokenu. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Normalizuje użycie zamiennych znaków skandynawskich. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Składa skandynawskie znaki åÅäæÄÆ-a> i öÖøØ-o>. Dyskryminuje również stosowanie podwójnych ślubów aa, ae, ao, oe i oo, pozostawiając tylko pierwszy. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle: tworzy kombinacje tokenów jako pojedynczy token. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
snowball: filtr, który powoduje utworzenie wyrazów przy użyciu stemmeru wygenerowanego przez Snowball. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: normalizuje reprezentację Unicode tekstu Sorani. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: filtr macierzysty specyficzny dla języka. Zobacz https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
stopwords: usuwa słowa zatrzymania ze strumienia tokenu. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
trim: przycina wiodące i końcowe odstępy od tokenów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
obcinanie: obcina terminy na określoną długość. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unique: filtruje tokeny z tym samym tekstem co poprzedni token. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
wielkie litery: normalizuje tekst tokenu na wielkie litery. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: dzieli wyrazy na subwords i wykonuje opcjonalne przekształcenia w grupach podrzędnych.

UnionToIntersection
UploadDocumentsOptions

Opcje operacji przekazywania dokumentów.

VectorFilterMode

Określa, czy filtry są stosowane przed lub po wykonaniu wyszukiwania wektorowego.

VectorQuery

Parametry zapytania dla zapytań wektorowych i hybrydowych wyszukiwania.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

Metryka podobieństwa do użycia dla porównań wektorów.

VisualFeature

Wyliczenia

KnownAnalyzerNames

Definiuje wartości AnalyzerName. Zobacz https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownBlobIndexerDataToExtract

Znane wartości obiektu BlobIndexerDataToExtract akceptowane przez usługę.

KnownBlobIndexerImageAction

Znane wartości obiektu BlobIndexerImageAction akceptowane przez usługę.

KnownBlobIndexerPDFTextRotationAlgorithm

Znane wartości blobIndexerPDFTextRotationAlgorithm akceptowane przez usługę.

KnownBlobIndexerParsingMode

Znane wartości obiektu BlobIndexerParsingMode akceptowane przez usługę.

KnownCharFilterNames

Znane wartości CharFilterName akceptowane przez usługę.

KnownCustomEntityLookupSkillLanguage

Znane wartości CustomEntityLookupSkillLanguage akceptowane przez usługę.

KnownEntityCategory

Znane wartości elementu EntityCategory akceptowane przez usługę.

KnownEntityRecognitionSkillLanguage

Znane wartości entityRecognitionSkillLanguage akceptowane przez usługę.

KnownImageAnalysisSkillLanguage

Znane wartości elementu ImageAnalysisSkillLanguage akceptowane przez usługę.

KnownImageDetail

Znane wartości elementu ImageDetail akceptowane przez usługę.

KnownKeyPhraseExtractionSkillLanguage

Znane wartości KeyPhraseExtractionSkillLanguage akceptowane przez usługę.

KnownOcrSkillLanguage

Znane wartości OcrSkillLanguage akceptowane przez usługę.

KnownRegexFlags

Znane wartości regexFlags akceptowanych przez usługę.

KnownSearchAudience

Znane wartości dla grupy odbiorców wyszukiwania

KnownSearchIndexerDataSourceType

Znane wartości parametru SearchIndexerDataSourceType akceptowane przez usługę.

KnownSentimentSkillLanguage

Znane wartości sentimentSkillLanguage akceptowane przez usługę.

KnownSplitSkillLanguage

Znane wartości SplitSkillLanguage akceptowane przez usługę.

KnownTextSplitMode

Znane wartości TextSplitMode akceptowane przez usługę.

KnownTextTranslationSkillLanguage

Znane wartości textTranslationSkillLanguage akceptowane przez usługę.

KnownTokenFilterNames

Znane wartości TokenFilterName akceptowane przez usługę.

KnownTokenizerNames

Znane wartości LexicalTokenizerName akceptowane przez usługę.

KnownVisualFeature

Znane wartości visualFeature akceptowane przez usługę.

Funkcje

createSynonymMapFromFile(string, string)

Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS.

odata(TemplateStringsArray, unknown[])

Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykład użycia:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Szczegóły funkcji

createSynonymMapFromFile(string, string)

Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parametry

name

string

Nazwa synonimuMap.

filePath

string

Ścieżka pliku zawierającego synonimy (oddzielone przez nowe wiersze)

Zwraca

Promise<SynonymMap>

Obiekt SynonimMap

odata(TemplateStringsArray, unknown[])

Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykład użycia:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parametry

strings

TemplateStringsArray

Tablica ciągów dla wyrażenia

values

unknown[]

Tablica wartości dla wyrażenia

Zwraca

string