@azure/search-documents package
Klasy
AzureKeyCredential |
Poświadczenie oparte na kluczu statycznym, które obsługuje aktualizowanie bazowej wartości klucza. |
GeographyPoint |
Reprezentuje punkt geograficzny we współrzędnych globalnych. |
IndexDocumentsBatch |
Klasa używana do wykonywania operacji wsadowych z wieloma dokumentami do indeksu. |
SearchClient |
Klasa używana do wykonywania operacji względem indeksu wyszukiwania, w tym wykonywania zapytań dotyczących dokumentów w indeksie, a także dodawania, aktualizowania i usuwania. |
SearchIndexClient |
Klasa do wykonywania operacji zarządzania indeksami (tworzenie, aktualizowanie, wyświetlanie/usuwanie) & mapami synonimów. |
SearchIndexerClient |
Klasa do wykonywania operacji na potrzeby zarządzania indeksatorami (tworzenie, aktualizowanie, wyświetlanie/usuwanie) indeksatorów, źródeł danych & zestawów umiejętności. |
SearchIndexingBufferedSender |
Klasa używana do wykonywania buforowanych operacji względem indeksu wyszukiwania, w tym dodawania, aktualizowania i usuwania. |
Interfejsy
AnalyzeRequest |
Określa niektóre składniki tekstowe i analityczne używane do dzielenia tego tekstu na tokeny. |
AnalyzeResult |
Wynik testowania analizatora tekstu. |
AnalyzedTokenInfo |
Informacje o tokenie zwracanym przez analizator. |
AsciiFoldingTokenFilter |
Konwertuje znaki alfabetyczne, numeryczne i symboliczne Znaki Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (blok "Basic Latin" Unicode) na ich odpowiedniki ASCII, jeśli takie odpowiedniki istnieją. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
AutocompleteItem |
Wynik żądań autouzupełniania. |
AutocompleteRequest |
Parametry dopasowania rozmytego i inne zachowania zapytań autouzupełniania. |
AutocompleteResult |
Wynik zapytania autouzupełniania. |
AzureActiveDirectoryApplicationCredentials |
Poświadczenia zarejestrowanej aplikacji utworzonej dla usługi wyszukiwania używane do uwierzytelnionego dostępu do kluczy szyfrowania przechowywanych w usłudze Azure Key Vault. |
BM25Similarity |
Funkcja klasyfikacji oparta na algorytmie podobieństwa Okapi BM25. BM25 to algorytm podobny do tf-IDF, który obejmuje normalizację długości (kontrolowaną przez parametr "b"), a także nasycenie terminów (kontrolowane przez parametr k1). |
BaseCharFilter |
Typ podstawowy filtrów znaków. |
BaseCognitiveServicesAccount |
Typ podstawowy do opisywania dowolnego zasobu usługi Azure AI dołączonego do zestawu umiejętności. |
BaseDataChangeDetectionPolicy |
Typ podstawowy zasad wykrywania zmian danych. |
BaseDataDeletionDetectionPolicy |
Typ podstawowy zasad wykrywania usuwania danych. |
BaseLexicalAnalyzer |
Typ podstawowy analizatorów. |
BaseLexicalTokenizer |
Typ podstawowy tokenizatorów. |
BaseScoringFunction |
Typ podstawowy funkcji, które mogą modyfikować wyniki dokumentu podczas klasyfikowania. |
BaseSearchIndexerSkill |
Podstawowy typ umiejętności. |
BaseSearchRequestOptions |
Parametry filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania. |
BaseTokenFilter |
Typ podstawowy filtrów tokenów. |
BaseVectorQuery |
Parametry zapytania dla zapytań wektorowych i hybrydowych wyszukiwania. |
BaseVectorSearchAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań. |
CjkBigramTokenFilter |
Tworzy bigramy terminów CJK generowanych na podstawie standardowego tokenizatora. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
ClassicSimilarity |
Starszy algorytm podobieństwa, który używa implementacji TFIDFSimilarity Lucene tf-IDF. Ta odmiana tf-IDF wprowadza normalizację długości dokumentu statycznego, a także czynniki koordynujące, które karają dokumenty, które są tylko częściowo zgodne z wyszukiwanymi zapytaniami. |
ClassicTokenizer |
Tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
CognitiveServicesAccountKey |
Zasób usługi Azure AI aprowizacji z kluczem dołączonym do zestawu umiejętności. |
CommonGramTokenFilter |
Konstruowanie bigramów dla często występujących terminów podczas indeksowania. Pojedyncze terminy są również indeksowane, a bigramy nakładają się. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
ComplexField |
Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola. |
ConditionalSkill |
Umiejętność umożliwiająca scenariusze wymagające operacji logicznej w celu określenia danych do przypisania do danych wyjściowych. |
CorsOptions |
Definiuje opcje kontrolowania współużytkowania zasobów między źródłami (CORS) dla indeksu. |
CreateOrUpdateIndexOptions |
Opcje operacji tworzenia/aktualizowania indeksu. |
CreateOrUpdateSkillsetOptions |
Opcje tworzenia/aktualizowania operacji zestawu umiejętności. |
CreateOrUpdateSynonymMapOptions |
Opcje operacji tworzenia/aktualizowania synonimów. |
CreateorUpdateDataSourceConnectionOptions |
Opcje operacji tworzenia/aktualizowania źródła danych. |
CreateorUpdateIndexerOptions |
Opcje operacji tworzenia/aktualizowania indeksatora. |
CustomAnalyzer |
Umożliwia przejęcie kontroli nad procesem konwertowania tekstu na tokeny z możliwością indeksowania/wyszukiwania. Jest to konfiguracja zdefiniowana przez użytkownika składająca się z jednego wstępnie zdefiniowanego tokenizatora i co najmniej jednego filtru. Tokenizer jest odpowiedzialny za podzielenie tekstu na tokeny, a filtry do modyfikowania tokenów emitowanych przez tokenizator. |
CustomEntity |
Obiekt zawierający informacje o znalezionych dopasowaniach i powiązanych metadanych. |
CustomEntityAlias |
Obiekt złożony, który może służyć do określania alternatywnych pisowni lub synonimów nazwy jednostki głównej. |
CustomEntityLookupSkill |
Umiejętność wyszukuje tekst z niestandardowej, zdefiniowanej przez użytkownika listy wyrazów i fraz. |
DefaultCognitiveServicesAccount |
Pusty obiekt reprezentujący domyślny zasób usługi Azure AI dla zestawu umiejętności. |
DeleteDataSourceConnectionOptions |
Opcje operacji usuwania źródła danych. |
DeleteIndexOptions |
Opcje operacji usuwania indeksu. |
DeleteIndexerOptions |
Opcje operacji usuwania indeksatora. |
DeleteSkillsetOptions |
Opcje usuwania operacji zestawu umiejętności. |
DeleteSynonymMapOptions |
Opcje usuwania operacji synonimów. |
DictionaryDecompounderTokenFilter |
Rozkłada złożone wyrazy znalezione w wielu językach niemieckich. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
DistanceScoringFunction |
Definiuje funkcję, która zwiększa wyniki na podstawie odległości od lokalizacji geograficznej. |
DistanceScoringParameters |
Dostarcza wartości parametrów do funkcji oceniania odległości. |
DocumentExtractionSkill |
Umiejętność wyodrębniania zawartości z pliku w potoku wzbogacania. |
EdgeNGramTokenFilter |
Generuje n-gramy danych rozmiarów, zaczynając od przodu lub z tyłu tokenu wejściowego. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
EdgeNGramTokenizer |
Tokenizuje dane wejściowe z krawędzi do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
ElisionTokenFilter |
Usuwa elizji. Na przykład "l'avion" (płaszczyzna) zostanie przekonwertowana na "avion" (płaszczyzna). Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
EntityLinkingSkill |
Przy użyciu interfejsu API analiza tekstu wyodrębnia połączone jednostki z tekstu. |
EntityRecognitionSkill |
Rozpoznawanie jednostek analizy tekstu. |
EntityRecognitionSkillV3 |
Przy użyciu interfejsu API analiza tekstu wyodrębnia jednostki różnych typów z tekstu. |
ExhaustiveKnnParameters |
Zawiera parametry specyficzne dla wyczerpującego algorytmu KNN. |
ExtractiveQueryAnswer |
Wyodrębnia kandydatów odpowiedzi z zawartości dokumentów zwróconych w odpowiedzi na zapytanie wyrażone jako pytanie w języku naturalnym. |
ExtractiveQueryCaption |
Wyodrębnia podpisy z pasujących dokumentów, które zawierają fragmenty istotne dla zapytania wyszukiwania. |
FacetResult |
Pojedynczy zasobnik wyniku zapytania aspektowego. Raportuje liczbę dokumentów z wartością pola, która mieści się w określonym zakresie lub ma określoną wartość lub interwał. |
FieldMapping |
Definiuje mapowanie między polem w źródle danych a polem docelowym w indeksie. |
FieldMappingFunction |
Reprezentuje funkcję, która przekształca wartość ze źródła danych przed indeksowaniem. |
FreshnessScoringFunction |
Definiuje funkcję, która zwiększa wyniki na podstawie wartości pola daty i godziny. |
FreshnessScoringParameters |
Udostępnia wartości parametrów funkcji oceniania świeżości. |
GetDocumentOptions |
Opcje pobierania pojedynczego dokumentu. |
HighWaterMarkChangeDetectionPolicy |
Definiuje zasady wykrywania zmian danych, które przechwytują zmiany na podstawie wartości kolumny znacznika górnego. |
HnswParameters |
Zawiera parametry specyficzne dla algorytmu hnsw. |
ImageAnalysisSkill |
Umiejętność analizująca pliki obrazów. Wyodrębnia bogaty zestaw funkcji wizualnych na podstawie zawartości obrazu. |
IndexDocumentsClient |
Klient indeksowania dokumentów |
IndexDocumentsOptions |
Opcje operacji modyfikowania wsadowego indeksu. |
IndexDocumentsResult |
Odpowiedź zawierająca stan operacji dla wszystkich dokumentów w żądaniu indeksowania. |
IndexerExecutionResult |
Reprezentuje wynik wykonania pojedynczego indeksatora. |
IndexingParameters |
Reprezentuje parametry wykonywania indeksatora. |
IndexingParametersConfiguration |
Słownik właściwości konfiguracji specyficznych dla indeksatora. Każda nazwa jest nazwą określonej właściwości. Każda wartość musi być typu pierwotnego. |
IndexingResult |
Stan operacji indeksowania dla pojedynczego dokumentu. |
IndexingSchedule |
Reprezentuje harmonogram wykonywania indeksatora. |
InputFieldMappingEntry |
Mapowanie pól wejściowych dla umiejętności. |
KeepTokenFilter |
Filtr tokenu, który przechowuje tylko tokeny z tekstem zawartym na określonej liście wyrazów. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
KeyPhraseExtractionSkill |
Umiejętność, która korzysta z analizy tekstu na potrzeby wyodrębniania kluczowych fraz. |
KeywordMarkerTokenFilter |
Oznacza terminy jako słowa kluczowe. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
KeywordTokenizer |
Emituje całe dane wejściowe jako pojedynczy token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
LanguageDetectionSkill |
Umiejętność, która wykrywa język tekstu wejściowego i zgłasza pojedynczy kod języka dla każdego dokumentu przesłanego na żądanie. Kod języka jest sparowany z wynikiem wskazującym pewność analizy. |
LengthTokenFilter |
Usuwa wyrazy, które są za długie lub zbyt krótkie. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
LimitTokenFilter |
Ogranicza liczbę tokenów podczas indeksowania. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
ListSearchResultsPageSettings |
Argumenty pobierania następnej strony wyników wyszukiwania. |
LuceneStandardAnalyzer |
Standardowy analizator Apache Lucene; Składa się ze standardowego tokenizatora, małych liter i filtru zatrzymania. |
LuceneStandardTokenizer |
Przerywa tekst po regułach segmentacji tekstu Unicode. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
MagnitudeScoringFunction |
Definiuje funkcję, która zwiększa wyniki na podstawie wielkości pola liczbowego. |
MagnitudeScoringParameters |
Udostępnia wartości parametrów funkcji oceniania wielkości. |
MappingCharFilter |
Filtr znaków, który stosuje mapowania zdefiniowane za pomocą opcji mapowań. Dopasowanie jest chciwy (najdłuższy wzór pasujący w danym punkcie wygrywa). Zastąpienie może być pustym ciągiem. Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene. |
MergeSkill |
Umiejętność scalania dwóch lub większej liczby ciągów w jeden ujednolicony ciąg z opcjonalnym ogranicznikiem zdefiniowanym przez użytkownika oddzielającym każdą część składnika. |
MicrosoftLanguageStemmingTokenizer |
Dzieli tekst przy użyciu reguł specyficznych dla języka i zmniejsza liczbę wyrazów do ich formularzy podstawowych. |
MicrosoftLanguageTokenizer |
Dzieli tekst przy użyciu reguł specyficznych dla języka. |
NGramTokenFilter |
Generuje n-gramy danego rozmiaru. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
NGramTokenizer |
Tokenizuje dane wejściowe do n-gramów podanych rozmiarów. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
OcrSkill |
Umiejętność wyodrębniania tekstu z plików obrazów. |
OutputFieldMappingEntry |
Mapowanie pól wyjściowych dla umiejętności. |
PIIDetectionSkill |
Korzystając z interfejsu API analiza tekstu, wyodrębnia dane osobowe z tekstu wejściowego i umożliwia maskowanie. |
PathHierarchyTokenizer |
Tokenizer dla hierarchii podobnych do ścieżki. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
PatternAnalyzer |
Elastycznie oddziela tekst na terminy za pomocą wzorca wyrażenia regularnego. Ten analizator jest implementowany przy użyciu platformy Apache Lucene. |
PatternCaptureTokenFilter |
Używa wyrażeń regularnych Języka Java do emitowania wielu tokenów — jednej dla każdej grupy przechwytywania w co najmniej jednym wzorze. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
PatternReplaceCharFilter |
Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie "$1#$2", wynik będzie "aa#bb aa#bb". Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene. |
PatternReplaceTokenFilter |
Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie "$1#$2", wynik będzie "aa#bb aa#bb". Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
PatternTokenizer |
Tokenizer, który używa dopasowania wzorca regularnego do konstruowania odrębnych tokenów. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
PhoneticTokenFilter |
Tworzenie tokenów dla dopasowań fonetycznych. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
QueryAnswerResult |
Odpowiedź to fragment tekstu wyodrębniony z zawartości najbardziej odpowiednich dokumentów pasujących do zapytania. Odpowiedzi są wyodrębniane z najlepszych wyników wyszukiwania. Kandydaci odpowiedzi są oceniani i wybierane są najważniejsze odpowiedzi. |
QueryCaptionResult |
Podpisy są najbardziej reprezentatywnymi fragmentami z dokumentu stosunkowo do zapytania wyszukiwania. Są one często używane jako podsumowanie dokumentu. Podpisy są zwracane tylko dla zapytań typu |
ResourceCounter |
Reprezentuje użycie i limit przydziału zasobu. |
ScoringProfile |
Definiuje parametry indeksu wyszukiwania, który ma wpływ na ocenianie w zapytaniach wyszukiwania. |
SearchClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego. |
SearchDocumentsPageResult |
Odpowiedź zawierająca wyniki strony wyszukiwania z indeksu. |
SearchDocumentsResult |
Odpowiedź zawierająca wyniki wyszukiwania z indeksu. |
SearchDocumentsResultBase |
Odpowiedź zawierająca wyniki wyszukiwania z indeksu. |
SearchIndex |
Reprezentuje definicję indeksu wyszukiwania, która opisuje pola i zachowanie wyszukiwania indeksu. |
SearchIndexClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego. |
SearchIndexStatistics |
Statystyki dla danego indeksu. Statystyki są zbierane okresowo i nie mają gwarancji, że zawsze będą aktualne. |
SearchIndexer |
Reprezentuje indeksator. |
SearchIndexerClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego. |
SearchIndexerDataContainer |
Reprezentuje informacje o jednostce (na przykład Azure SQL tabeli lub kolekcji cosmosDB), które zostaną zindeksowane. |
SearchIndexerDataSourceConnection |
Reprezentuje definicję źródła danych, która może służyć do konfigurowania indeksatora. |
SearchIndexerError |
Reprezentuje błąd indeksowania na poziomie elementu lub dokumentu. |
SearchIndexerKnowledgeStore |
Definicja dodatkowych projekcji do obiektów blob platformy Azure, tabel lub plików wzbogaconych danych. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Klasa abstrakcyjna do współużytkowania właściwości między selektorami betonowymi. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definicja projekcji dla danych, które mają być przechowywane w Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definicja projekcji dla danych do przechowywania w obiekcie blob platformy Azure. |
SearchIndexerKnowledgeStoreProjection |
Obiekt kontenera dla różnych selektorów projekcji. |
SearchIndexerKnowledgeStoreProjectionSelector |
Klasa abstrakcyjna do współużytkowania właściwości między selektorami betonowymi. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Opis danych do przechowywania w tabelach platformy Azure. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Lista umiejętności. |
SearchIndexerStatus |
Reprezentuje bieżący stan i historię wykonywania indeksatora. |
SearchIndexerWarning |
Reprezentuje ostrzeżenie na poziomie elementu. |
SearchIndexingBufferedSenderOptions |
Opcje wyszukiwaniaIndexingBufferedSender. |
SearchResourceEncryptionKey |
Klucz szyfrowania zarządzany przez klienta w usłudze Azure Key Vault. Klucze tworzone i zarządzane mogą służyć do szyfrowania lub odszyfrowywania danych magazynowanych w Azure Cognitive Search, takich jak indeksy i mapy synonimów. |
SearchServiceStatistics |
Odpowiedź z żądania pobierania statystyk usługi. Jeśli to się powiedzie, obejmuje liczniki i limity poziomu usług. |
SearchSuggester |
Definiuje sposób stosowania interfejsu API sugerowanego do grupy pól w indeksie. |
SemanticConfiguration |
Definiuje określoną konfigurację, która ma być używana w kontekście możliwości semantycznych. |
SemanticField |
Pole, które jest używane jako część konfiguracji semantycznej. |
SemanticPrioritizedFields |
Opisuje pola tytułu, zawartości i słów kluczowych, które mają być używane do klasyfikacji semantycznej, podpisów, wyróżnień i odpowiedzi. |
SemanticSearch |
Definiuje parametry indeksu wyszukiwania, który ma wpływ na możliwości semantyczne. |
SemanticSearchOptions |
Definiuje opcje semantycznych zapytań wyszukiwania |
SentimentSkill |
Analiza tekstu dodatnio-ujemna analiza tonacji, oceniana jako wartość zmiennoprzecinkowa w zakresie od zera do 1. |
SentimentSkillV3 |
Korzystając z interfejsu API analiza tekstu, ocenia tekst bez struktury i dla każdego rekordu, udostępnia etykiety tonacji (takie jak "negatywne", "neutralne" i "pozytywne") na podstawie najwyższego wyniku ufności znalezionego przez usługę na poziomie zdania i dokumentu. |
ServiceCounters |
Reprezentuje liczniki zasobów i przydziały na poziomie usługi. |
ServiceLimits |
Reprezentuje różne limity poziomu usług. |
ShaperSkill |
Umiejętność przekształcania danych wyjściowych. Tworzy typ złożony do obsługi pól złożonych (nazywanych również polami wieloczęściowym). |
ShingleTokenFilter |
Tworzy kombinacje tokenów jako pojedynczy token. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
Similarity |
Typ podstawowy algorytmów podobieństwa. Algorytmy podobieństwa służą do obliczania wyników, które wiążą zapytania z dokumentami. Im wyższy wynik, tym bardziej istotne jest to, że dokument jest przeznaczony dla tego konkretnego zapytania. Te wyniki są używane do klasyfikacji wyników wyszukiwania. |
SimpleField |
Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola. |
SnowballTokenFilter |
Filtr, który tworzy wyrazy przy użyciu stemmeru wygenerowanego przez snowball. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Definiuje zasady wykrywania usuwania danych, które implementują strategię usuwania nietrwałego. Określa, czy element powinien zostać usunięty na podstawie wartości wyznaczonej kolumny "usuwania nietrwałego". |
SplitSkill |
Umiejętność dzielenia ciągu na fragmenty tekstu. |
SqlIntegratedChangeTrackingPolicy |
Definiuje zasady wykrywania zmian danych, które przechwytują zmiany przy użyciu funkcji zintegrowanej Change Tracking bazy danych Azure SQL. |
StemmerOverrideTokenFilter |
Zapewnia możliwość zastępowania innych filtrów macierzystych przy użyciu niestandardowego ściągnięcia opartego na słowniku. Wszystkie terminy powiązane ze słownikiem zostaną oznaczone jako słowa kluczowe, aby nie zostały one powstrzymane od stemmers w dół łańcucha. Należy umieścić przed wszelkimi filtrami macierzystymi. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
StemmerTokenFilter |
Filtr macierzysty specyficzny dla języka. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
StopAnalyzer |
Dzieli tekst na litery inne niż litery; Stosuje małe litery i filtry tokenów stopword. Ten analizator jest implementowany przy użyciu platformy Apache Lucene. |
StopwordsTokenFilter |
Usuwa słowa zatrzymania ze strumienia tokenu. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
SuggestDocumentsResult |
Odpowiedź zawierająca wyniki zapytania sugestii z indeksu. |
SuggestRequest |
Parametry filtrowania, sortowania, dopasowywania rozmytego i innych sugestii dotyczących zachowań zapytań. |
SynonymMap |
Reprezentuje definicję mapy synonimów. |
SynonymTokenFilter |
Dopasuje synonimy pojedyncze lub wielosypowe w strumieniu tokenu. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
TagScoringFunction |
Definiuje funkcję, która zwiększa wyniki dokumentów z wartościami ciągów pasującymi do danej listy tagów. |
TagScoringParameters |
Udostępnia wartości parametrów funkcji oceniania tagów. |
TextTranslationSkill |
Umiejętność tłumaczenia tekstu z jednego języka na inny. |
TextWeights |
Definiuje wagi pól indeksu, dla których dopasowania powinny zwiększyć ocenianie w zapytaniach wyszukiwania. |
TruncateTokenFilter |
Obcina terminy do określonej długości. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
UaxUrlEmailTokenizer |
Tokenizuje adresy URL i wiadomości e-mail jako jeden token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
UniqueTokenFilter |
Filtruje tokeny z tym samym tekstem co poprzedni token. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
VectorSearch |
Zawiera opcje konfiguracji związane z wyszukiwaniem wektorów. |
VectorSearchOptions |
Definiuje opcje zapytań wyszukiwania wektorowego |
VectorSearchProfile |
Definiuje kombinację konfiguracji do użycia z wyszukiwaniem wektorów. |
VectorizedQuery |
Parametry zapytania do użycia do wyszukiwania wektorów po podaniu wartości nieprzetworzonego wektora. |
WebApiSkill |
Umiejętność, która może wywołać punkt końcowy internetowego interfejsu API, umożliwiając rozszerzenie zestawu umiejętności przez wywołanie kodu niestandardowego. |
WordDelimiterTokenFilter |
Dzieli wyrazy na podwordse i wykonuje opcjonalne przekształcenia w grupach podrzędnych. Ten filtr tokenu jest implementowany przy użyciu rozwiązania Apache Lucene. |
Aliasy typu
AnalyzeTextOptions |
Opcje analizowania operacji tekstowej. |
AutocompleteMode |
Definiuje wartości dla autouzupełnianiaMode. |
AutocompleteOptions |
Opcje pobierania tekstu ukończenia dla częściowego tekstu searchText. |
BlobIndexerDataToExtract |
Znane wartości obsługiwane przez usługęstorageMetadata: indeksuje tylko standardowe właściwości obiektu blob i metadane określone przez użytkownika. allMetadata: wyodrębnia metadane udostępniane przez podsystem magazynu obiektów blob platformy Azure i metadane specyficzne dla typu zawartości (na przykład metadane unikatowe dla tylko .png plików są indeksowane). contentAndMetadata: wyodrębnia wszystkie metadane i zawartość tekstową z każdego obiektu blob. |
BlobIndexerImageAction |
Znane wartości obsługiwane przez usługębrak: ignoruje osadzone obrazy lub pliki obrazów w zestawie danych. Jest to opcja domyślna. generateNormalizedImages: wyodrębnia tekst z obrazów (na przykład słowo "STOP" z znaku zatrzymania ruchu) i osadza go w polu zawartości. Ta akcja wymaga ustawienia "dataToExtract" na wartość "contentAndMetadata". Znormalizowany obraz odwołuje się do dodatkowego przetwarzania, co powoduje jednolite dane wyjściowe obrazu, rozmiar i obrócony w celu promowania spójnego renderowania podczas dołączania obrazów do wyników wyszukiwania wizualnego. Te informacje są generowane dla każdego obrazu podczas korzystania z tej opcji. generateNormalizedImagePerPage: wyodrębnia tekst z obrazów (na przykład słowo "STOP" z znaku zatrzymania ruchu) i osadza go w polu zawartości, ale traktuje pliki PDF inaczej w tym, że każda strona będzie renderowana jako obraz i odpowiednio znormalizowana, zamiast wyodrębniać osadzone obrazy. Typy plików innych niż PDF będą traktowane tak samo jak w przypadku ustawienia "generateNormalizedImages". |
BlobIndexerPDFTextRotationAlgorithm |
Znane wartości obsługiwane przez usługębrak: wykorzystuje normalne wyodrębnianie tekstu. Jest to opcja domyślna. detectAngles: może tworzyć lepsze i bardziej czytelne wyodrębnianie tekstu z plików PDF, które obrócone w nich tekst. Należy pamiętać, że w przypadku użycia tego parametru może wystąpić niewielki wpływ na szybkość wydajności. Ten parametr dotyczy tylko plików PDF i tylko plików PDF z osadzonym tekstem. Jeśli obrócony tekst pojawi się w osadzonym obrazie w pliku PDF, ten parametr nie ma zastosowania. |
BlobIndexerParsingMode |
Znane wartości obsługiwane przez usługęustawienie domyślne: ustaw wartość domyślną dla normalnego przetwarzania plików. text: ustaw wartość na tekst, aby zwiększyć wydajność indeksowania plików w postaci zwykłego tekstu w magazynie obiektów blob. delimitedText: ustaw wartość na rozdzielanyTekst, gdy obiekty blob są zwykłymi plikami CSV. json: ustaw wartość na JSON, aby wyodrębnić zawartość ustrukturyzowaną z plików JSON. jsonArray: ustaw wartość jsonArray, aby wyodrębnić poszczególne elementy tablicy JSON jako oddzielne dokumenty w Azure Cognitive Search. jsonLines: ustaw wartość jsonLines, aby wyodrębnić poszczególne jednostki JSON oddzielone nowym wierszem jako osobne dokumenty w Azure Cognitive Search. |
CharFilter |
Zawiera możliwe przypadki dla elementu CharFilter. |
CharFilterName |
Definiuje wartości elementu CharFilterName. Znane wartości obsługiwane przez usługęhtml_strip: filtr znaków, który próbuje usunąć konstrukcje HTML. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Definiuje wartości dla CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Zawiera możliwe przypadki dla konta CognitiveServicesAccount. |
ComplexDataType |
Definiuje wartości parametru ComplexDataType. Możliwe wartości to: "Edm.ComplexType", "Collection(Edm.ComplexType)" |
CountDocumentsOptions |
Opcje wykonywania operacji count na indeksie. |
CreateDataSourceConnectionOptions |
Opcje tworzenia operacji źródła danych. |
CreateIndexOptions |
Opcje operacji tworzenia indeksu. |
CreateIndexerOptions |
Opcje operacji tworzenia indeksatora. |
CreateSkillsetOptions |
Opcje tworzenia operacji zestawu umiejętności. |
CreateSynonymMapOptions |
Opcje tworzenia operacji synonimów. |
CustomEntityLookupSkillLanguage |
Definiuje obsługiwane języki dla elementu CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage można używać zamiennie z tym typem |
DataChangeDetectionPolicy |
Zawiera możliwe przypadki dla elementu DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Zawiera możliwe przypadki dla elementu DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Opcje operacji usuwania dokumentów. |
EdgeNGramTokenFilterSide |
Definiuje wartości elementu EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage |
Definiuje obsługiwane języki dla elementu EntityRecognitionSkillKnownEntityRecognitionSkillLanguage można używać zamiennie z tym typem |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla wyczerpującego algorytmu KNN używanego podczas wykonywania zapytań, co spowoduje wykonanie wyszukiwania siłowego w całym indeksie wektorowym. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Opcje pobierania operacji źródła danych. |
GetIndexOptions |
Opcje operacji pobierania indeksu. |
GetIndexStatisticsOptions |
Opcje operacji pobierania statystyk indeksu. |
GetIndexerOptions |
Opcje operacji pobierania indeksatora. |
GetIndexerStatusOptions |
Opcje pobierania operacji stanu indeksatora. |
GetServiceStatisticsOptions |
Opcje pobierania operacji statystyk usługi. |
GetSkillSetOptions |
Opcje pobierania operacji zestawu umiejętności. |
GetSynonymMapsOptions |
Opcje operacji pobierania map synonimów. |
HnswAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla algorytmu hnsw przybliżonego najbliższego sąsiada używanego podczas indeksowania. |
ImageAnalysisSkillLanguage |
Definiuje obsługiwane języki dla elementu ImageAnalysisSkillKnownImageAnalysisSkillLanguage mogą być używane zamiennie z tym typem |
ImageDetail | |
IndexActionType |
Definiuje wartości indexActionType. |
IndexDocumentsAction |
Reprezentuje akcję indeksu działającą na dokumencie. |
IndexIterator |
Iterator do wyświetlania listy indeksów, które istnieją w usługa wyszukiwania. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
IndexNameIterator |
Iterator do wyświetlania listy indeksów, które istnieją w usługa wyszukiwania. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
IndexerExecutionEnvironment |
Znane wartości obsługiwane przez usługęstandard: wskazuje, że Azure Cognitive Search może określić miejsce wykonywania indeksatora. Jest to środowisko domyślne, gdy nic nie zostanie określone i jest zalecaną wartością. private: wskazuje, że indeksator powinien działać ze środowiskiem aprowizowanym specjalnie dla usługi wyszukiwania. Należy to określić tylko jako środowisko wykonywania, jeśli indeksator musi bezpiecznie uzyskiwać dostęp do zasobów za pośrednictwem udostępnionych zasobów łącza prywatnego. |
IndexerExecutionStatus |
Definiuje wartości parametru IndexerExecutionStatus. |
IndexerStatus |
Definiuje wartości parametru IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Definiuje obsługiwane języki dla keyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage mogą być używane zamiennie z tym typem |
LexicalAnalyzer |
Zawiera możliwe przypadki analizatora. |
LexicalAnalyzerName |
Definiuje wartości lexicalAnalyzerName. Znane wartości obsługiwane przez usługęar.microsoft: Microsoft analyzer dla języka arabskiego. |
LexicalTokenizer |
Zawiera możliwe przypadki tokenizatora. |
LexicalTokenizerName |
Definiuje wartości lexicalTokenizerName. Znane wartości obsługiwane przez usługęklasyczny: tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Opcje operacji źródeł danych listy. |
ListIndexersOptions |
Opcje operacji indeksatorów listy. |
ListIndexesOptions |
Opcje operacji indeksów listy. |
ListSkillsetsOptions |
Opcje operacji zestawów umiejętności listy. |
ListSynonymMapsOptions |
Opcje operacji synonimów listyMaps. |
MergeDocumentsOptions |
Opcje operacji scalania dokumentów. |
MergeOrUploadDocumentsOptions |
Opcje operacji scalania lub przekazywania dokumentów. |
MicrosoftStemmingTokenizerLanguage |
Definiuje wartości microsoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Definiuje wartości microsoftTokenizerLanguage. |
NarrowedModel |
Zawęża typ modelu do uwzględnienia tylko wybranych pól |
OcrSkillLanguage |
Definiuje obsługiwane języki dla OcrSkillKnownOcrSkillLanguage można używać zamiennie z tym typem |
PIIDetectionSkillMaskingMode |
Definiuje wartości dla właściwości PIIDetectionSkillMaskingMode. Znane wartości obsługiwane przez usługębrak: nie występuje maskowanie, a dane wyjściowe maskowanego tekstu nie zostaną zwrócone. replace: zastępuje wykryte jednostki znakiem podanym w parametrze maskingCharacter. Znak będzie powtarzany do długości wykrytej jednostki, tak aby przesunięcia prawidłowo odpowiadały zarówno tekstowi wejściowemu, jak i maskowanemu tekstowi wyjściowemu. |
PhoneticEncoder |
Definiuje wartości dla PhoneticEncoder. |
QueryAnswer |
Wartość określająca, czy odpowiedzi powinny być zwracane w ramach odpowiedzi wyszukiwania.
Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania to "semantyka". Jeśli jest ustawiona |
QueryCaption |
Wartość określająca, czy podpisy powinny być zwracane w ramach odpowiedzi wyszukiwania. Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania to "semantyka". W przypadku ustawienia zapytanie zwraca napisy wyodrębnione z kluczowych fragmentów w najbardziej sklasyfikowanych dokumentach. Gdy napisy są "wyodrębnione", wyróżnianie jest domyślnie włączone. Wartość domyślna to "none". |
QueryType |
Definiuje wartości parametru QueryType. |
RegexFlags |
Definiuje flagi dopasowania wzorca wyrażeń regularnych Znane wartości obsługiwane przez usługęCANON_EQ: umożliwia równoważność kanoniczną. CASE_INSENSITIVE: włącza dopasowywanie bez uwzględniania wielkości liter. KOMENTARZE: Zezwala na białe znaki i komentarze we wzorcu. DOTALL: włącza tryb dotall. LITERAŁ: Włącza analizowanie literału wzorca. MULTILINE: włącza tryb wielowierszowy. UNICODE_CASE: włącza składanie przypadków obsługujących kod Unicode. UNIX_LINES: włącza tryb linii systemu Unix. |
ResetIndexerOptions |
Opcje operacji resetowania indeksatora. |
RunIndexerOptions |
Opcje operacji uruchamiania indeksatora. |
ScoringFunction |
Zawiera możliwe przypadki ocenianiafunction. |
ScoringFunctionAggregation |
Definiuje wartości dla scoringFunctionAggregation. |
ScoringFunctionInterpolation |
Definiuje wartości dla scoringFunctionInterpolation. |
ScoringStatistics |
Definiuje wartości dla scoringStatistics. |
SearchField |
Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola. |
SearchFieldArray |
Jeśli jest nietypowym obiektem, nietypowa tablica ciągów . W |
SearchFieldDataType |
Definiuje wartości parametru SearchFieldDataType. Możliwe wartości to: "Edm.String", "Edm.Int32", "Edm.Int64", "Edm.Double", "Edm.Boolean", "Edm.DateTimeOffset", "Edm.GeographyPoint", "Collection(Edm.String)", "Collection(Edm.Int32)", "Collection(Edm.Int64)", "Collection(Edm.Double)", "Collection(Edm.Boolean)", "Collection(Edm.DateTimeOffset)", "Collection(Edm.GeographyPoint)", "Collection(Edm.Single)" NB: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Zawiera możliwe przypadki umiejętności. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opcje dla SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Opcje dla SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Iterator wyników wyszukiwania zapytania patowego. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
SearchMode |
Definiuje wartości dla elementu SearchMode. |
SearchOptions |
Opcje zatwierdzania pełnego żądania wyszukiwania. |
SearchPick |
Głęboko wybieraj pola języka T przy użyciu prawidłowych ścieżek OData wyszukiwania poznawczego OData $select. |
SearchRequestOptions |
Parametry filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania. |
SearchRequestQueryTypeOptions | |
SearchResult |
Zawiera dokument znaleziony przez zapytanie wyszukiwania oraz skojarzone metadane. |
SelectArray |
Jeśli nigdy nie jest, nietypowa tablica ciągów. W |
SelectFields |
Tworzy połączenie prawidłowych ścieżek OData wyszukiwania poznawczego OData $select dla języka T przy użyciu przechodzenia po kolejności drzewa pól zakorzenionego w języku T. |
SemanticErrorMode |
częściowe: jeśli przetwarzanie semantyczne zakończy się niepowodzeniem, wyniki częściowe nadal zwracają. Definicja częściowych wyników zależy od tego, jaki krok semantyczny zakończył się niepowodzeniem i jaka była przyczyna niepowodzenia. niepowodzenie: jeśli wystąpi wyjątek podczas kroku przetwarzania semantycznego, zapytanie zakończy się niepowodzeniem i zwróci odpowiedni kod HTTP w zależności od błędu. |
SemanticErrorReason |
maxWaitExceeded: Jeśli ustawiono wartość "semanticMaxWaitInMilliseconds", a czas trwania przetwarzania semantycznego przekroczył ten wartość. Zwracano tylko wyniki podstawowe. capacityOverloaded: żądanie zostało ograniczone. Zwracano tylko wyniki podstawowe. przejściowe: Co najmniej jeden krok procesu semantycznego zakończył się niepowodzeniem. |
SemanticSearchResultsType |
baseResults: Wyniki bez żadnego semantycznego wzbogacania ani ponownego wyrównywania. re rankingResults: Wyniki zostały ponownie sklasyfikowane za pomocą modelu ponownego generowania i będą zawierać podpisy semantyczne. Nie będą zawierać żadnych odpowiedzi, wyróżniania odpowiedzi ani wyróżniania podpis. |
SentimentSkillLanguage |
Definiuje obsługiwane języki dla języka SentimentSkillKnownSentimentSkillLanguage można używać zamiennie z tym typem |
SimilarityAlgorithm |
Zawiera możliwe przypadki podobieństwa. |
SnowballTokenFilterLanguage |
Definiuje wartości elementu SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Definiuje obsługiwane języki dla splitSkill KnownSplitSkillLanguage można używać zamiennie z tym typem |
StemmerTokenFilterLanguage |
Definiuje wartości elementu StemmerTokenFilterLanguage. |
StopwordsList |
Definiuje wartości stopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Opcje pobierania sugestii na podstawie tekstu wyszukiwania. |
SuggestResult |
Wynik zawierający dokument znaleziony przez zapytanie sugestii oraz skojarzone metadane. |
TextSplitMode | |
TextTranslationSkillLanguage |
Definiuje obsługiwane języki dla elementu TextTranslationSkillKnownTextTranslationSkillLanguage można używać zamiennie z tym typem |
TokenCharacterKind |
Definiuje wartości tokenCharacterKind. |
TokenFilter |
Zawiera możliwe przypadki tokenuFilter. |
TokenFilterName |
Definiuje wartości TokenFilterName. Znane wartości obsługiwane przez usługęarabic_normalization: filtr tokenu, który stosuje arabski normalizator w celu normalizacji orthografii. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Opcje operacji przekazywania dokumentów. |
VectorFilterMode |
Określa, czy filtry są stosowane przed lub po wykonaniu wyszukiwania wektorowego. |
VectorQuery |
Parametry zapytania dla zapytań wektorowych i hybrydowych wyszukiwania. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
Metryka podobieństwa do użycia dla porównań wektorów. |
VisualFeature |
Wyliczenia
Funkcje
create |
Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS. |
odata(Template |
Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykład użycia:
Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Szczegóły funkcji
createSynonymMapFromFile(string, string)
Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametry
- name
-
string
Nazwa synonimuMap.
- filePath
-
string
Ścieżka pliku zawierającego synonimy (oddzielone przez nowe wiersze)
Zwraca
Promise<SynonymMap>
Obiekt SynonimMap
odata(TemplateStringsArray, unknown[])
Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykład użycia:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametry
- strings
-
TemplateStringsArray
Tablica ciągów dla wyrażenia
- values
-
unknown[]
Tablica wartości dla wyrażenia
Zwraca
string