@azure/search-documents package
Klasy
AzureKeyCredential |
Poświadczenie oparte na kluczu statycznym, które obsługuje aktualizowanie bazowej wartości klucza. |
GeographyPoint |
Reprezentuje punkt geograficzny we współrzędnych globalnych. |
IndexDocumentsBatch |
Klasa używana do wykonywania operacji wsadowych z wieloma dokumentami do indeksu. |
SearchClient |
Klasa używana do wykonywania operacji względem indeksu wyszukiwania, w tym wykonywania zapytań dotyczących dokumentów w indeksie, a także dodawania, aktualizowania i usuwania. |
SearchIndexClient |
Klasa do wykonywania operacji w celu zarządzania (tworzeniem, aktualizowaniem, listą/usuwaniem) indeksów, & synonimami. |
SearchIndexerClient |
Klasa do wykonywania operacji w celu zarządzania (tworzeniem, aktualizowaniem, listą/usuwaniem) indeksatorów, źródłami danych & zestawami umiejętności. |
SearchIndexingBufferedSender |
Klasa używana do wykonywania buforowanych operacji względem indeksu wyszukiwania, w tym dodawania, aktualizowania i usuwania. |
Interfejsy
AnalyzeRequest |
Określa niektóre składniki tekstowe i analityczne używane do dzielenia tego tekstu na tokeny. |
AnalyzeResult |
Wynik testowania analizatora tekstu. |
AnalyzedTokenInfo |
Informacje o tokenie zwróconym przez analizator. |
AsciiFoldingTokenFilter |
Konwertuje znaki alfabetyczne, liczbowe i symboliczne Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (bloku Unicode "Basic Latin") na ich odpowiedniki ASCII, jeśli takie odpowiedniki istnieją. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
AutocompleteItem |
Wynik żądań autouzupełniania. |
AutocompleteRequest |
Parametry dopasowania rozmytego i inne zachowania zapytań autouzupełniania. |
AutocompleteResult |
Wynik zapytania autouzupełniania. |
AzureActiveDirectoryApplicationCredentials |
Poświadczenia zarejestrowanej aplikacji utworzonej dla usługi wyszukiwania używane do uwierzytelnionego dostępu do kluczy szyfrowania przechowywanych w usłudze Azure Key Vault. |
AzureOpenAIEmbeddingSkill |
Umożliwia wygenerowanie wektora osadzania dla danego tekstu wejściowego przy użyciu zasobu Azure OpenAI. |
AzureOpenAIParameters |
Zawiera parametry specyficzne dla używania usługi Azure Open AI na potrzeby wektoryzacji w czasie wykonywania zapytań. |
AzureOpenAIVectorizer |
Zawiera parametry specyficzne dla używania usługi Azure Open AI na potrzeby wektoryzacji w czasie wykonywania zapytań. |
BM25Similarity |
Funkcja klasyfikacji oparta na algorytmie podobieństwa okapi BM25. BM25 to algorytm podobny do tf-IDF, który obejmuje normalizację długości (kontrolowaną przez parametr "b"), a także nasycenie częstotliwości terminów (kontrolowane przez parametr "k1"). |
BaseCharFilter |
Typ podstawowy filtrów znaków. |
BaseCognitiveServicesAccount |
Typ podstawowy opisujący dowolny zasób usługi Azure AI dołączony do zestawu umiejętności. |
BaseDataChangeDetectionPolicy |
Typ podstawowy zasad wykrywania zmian danych. |
BaseDataDeletionDetectionPolicy |
Typ podstawowy zasad wykrywania usuwania danych. |
BaseLexicalAnalyzer |
Typ podstawowy analizatorów. |
BaseLexicalTokenizer |
Typ podstawowy tokenizatorów. |
BaseScoringFunction |
Typ podstawowy funkcji, które mogą modyfikować wyniki dokumentu podczas klasyfikowania. |
BaseSearchIndexerDataIdentity |
Abstrakcyjny typ podstawowy tożsamości danych. |
BaseSearchIndexerSkill |
Typ podstawowy umiejętności. |
BaseSearchRequestOptions |
Parametry do filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania. |
BaseTokenFilter |
Typ podstawowy filtrów tokenów. |
BaseVectorQuery |
Parametry zapytania dla wektorów i zapytań wyszukiwania hybrydowego. |
BaseVectorSearchAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań. |
BaseVectorSearchCompression |
Zawiera opcje konfiguracji specyficzne dla metody kompresji używanej podczas indeksowania lub wykonywania zapytań. |
BaseVectorSearchVectorizer |
Zawiera szczegółowe informacje dotyczące metody wektoryzacji, która ma być używana w czasie zapytania. |
BinaryQuantizationCompression |
Zawiera opcje konfiguracji specyficzne dla binarnej metody kompresji kwantyzacji używanej podczas indeksowania i wykonywania zapytań. |
CjkBigramTokenFilter |
Tworzy bigramy terminów CJK generowanych na podstawie standardowego tokenizatora. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
ClassicSimilarity |
Starszy algorytm podobieństwa, który używa implementacji TFIDFSimilarity Lucene tf-IDF. Ta odmiana TF-IDF wprowadza normalizację długości dokumentu statycznego, a także koordynujące czynniki, które karują dokumenty, które częściowo pasują tylko do wyszukiwanych zapytań. |
ClassicTokenizer |
Tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
CognitiveServicesAccountKey |
Klucz konta w wielu regionach zasobu usługi Azure AI dołączony do zestawu umiejętności. |
CommonGramTokenFilter |
Konstruowanie bigramów dla często występujących terminów podczas indeksowania. Pojedyncze terminy są również indeksowane, a bigramy są nakładane. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
ComplexField |
Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola. |
ConditionalSkill |
Umiejętność umożliwiająca scenariusze wymagające operacji logicznej w celu określenia danych do przypisania do danych wyjściowych. |
CorsOptions |
Definiuje opcje kontrolowania współużytkowania zasobów między źródłami (CORS) dla indeksu. |
CreateOrUpdateIndexOptions |
Opcje operacji tworzenia/aktualizowania indeksu. |
CreateOrUpdateSkillsetOptions |
Opcje tworzenia/aktualizowania operacji zestawu umiejętności. |
CreateOrUpdateSynonymMapOptions |
Opcje operacji tworzenia/aktualizowania synonimu. |
CreateorUpdateDataSourceConnectionOptions |
Opcje operacji tworzenia/aktualizowania źródła danych. |
CreateorUpdateIndexerOptions |
Opcje operacji tworzenia/aktualizowania indeksatora. |
CustomAnalyzer |
Umożliwia przejęcie kontroli nad procesem konwertowania tekstu na tokeny z możliwością indeksowania/wyszukiwania. Jest to konfiguracja zdefiniowana przez użytkownika składająca się z jednego wstępnie zdefiniowanego tokenizera i co najmniej jednego filtru. Tokenizer jest odpowiedzialny za podzielenie tekstu na tokeny i filtry modyfikowania tokenów emitowanych przez tokenizatora. |
CustomEntity |
Obiekt zawierający informacje o znalezionych dopasowaniach i powiązanych metadanych. |
CustomEntityAlias |
Obiekt złożony, który może służyć do określania alternatywnych pisowni lub synonimów nazwy jednostki głównej. |
CustomEntityLookupSkill |
Umiejętność szuka tekstu z niestandardowej, zdefiniowanej przez użytkownika listy wyrazów i fraz. |
DefaultCognitiveServicesAccount |
Pusty obiekt reprezentujący domyślny zasób usługi Azure AI dla zestawu umiejętności. |
DeleteDataSourceConnectionOptions |
Opcje operacji usuwania źródła danych. |
DeleteIndexOptions |
Opcje operacji usuwania indeksu. |
DeleteIndexerOptions |
Opcje operacji usuwania indeksatora. |
DeleteSkillsetOptions |
Opcje usuwania operacji zestawu umiejętności. |
DeleteSynonymMapOptions |
Opcje usuwania operacji synonimów. |
DictionaryDecompounderTokenFilter |
Rozkłada złożone wyrazy znalezione w wielu językach niemieckich. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
DistanceScoringFunction |
Definiuje funkcję, która zwiększa wyniki na podstawie odległości od lokalizacji geograficznej. |
DistanceScoringParameters |
Udostępnia wartości parametrów funkcji oceniania odległości. |
DocumentExtractionSkill |
Umiejętność wyodrębniania zawartości z pliku w potoku wzbogacania. |
EdgeNGramTokenFilter |
Generuje n-gramy danego rozmiaru, zaczynając od przodu lub z tyłu tokenu wejściowego. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
EdgeNGramTokenizer |
Tokenizuje dane wejściowe z krawędzi do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
ElisionTokenFilter |
Usuwa elizji. Na przykład "l'avion" (płaszczyzna) zostanie przekonwertowana na "avion" (płaszczyzna). Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
EntityLinkingSkill |
Przy użyciu interfejsu API analizy tekstu wyodrębnia połączone jednostki z tekstu. |
EntityRecognitionSkill |
Rozpoznawanie jednostek analizy tekstu. |
EntityRecognitionSkillV3 |
Przy użyciu interfejsu API analizy tekstu wyodrębnia jednostki różnych typów z tekstu. |
ExhaustiveKnnParameters |
Zawiera parametry specyficzne dla wyczerpującego algorytmu KNN. |
ExtractiveQueryAnswer |
Wyodrębnia kandydatów odpowiedzi z zawartości dokumentów zwracanych w odpowiedzi na zapytanie wyrażone jako pytanie w języku naturalnym. |
ExtractiveQueryCaption |
Wyodrębnia podpisy z pasujących dokumentów, które zawierają fragmenty istotne dla zapytania wyszukiwania. |
FacetResult |
Pojedynczy zasobnik wyniku zapytania aspektowego. Raportuje liczbę dokumentów z wartością pola należącą do określonego zakresu lub z określoną wartością lub interwałem. |
FieldMapping |
Definiuje mapowanie między polem w źródle danych a polem docelowym w indeksie. |
FieldMappingFunction |
Reprezentuje funkcję, która przekształca wartość ze źródła danych przed indeksowaniem. |
FreshnessScoringFunction |
Definiuje funkcję, która zwiększa wyniki na podstawie wartości pola daty i godziny. |
FreshnessScoringParameters |
Udostępnia wartości parametrów funkcji oceniania świeżości. |
GetDocumentOptions |
Opcje pobierania pojedynczego dokumentu. |
HighWaterMarkChangeDetectionPolicy |
Definiuje zasady wykrywania zmian danych, które przechwytują zmiany na podstawie wartości kolumny wysokiego znacznika wody. |
HnswParameters |
Zawiera parametry specyficzne dla algorytmu hnsw. |
ImageAnalysisSkill |
Umiejętność analizująca pliki obrazów. Wyodrębnia bogaty zestaw funkcji wizualnych na podstawie zawartości obrazu. |
IndexDocumentsClient |
Klient indeksowania dokumentów |
IndexDocumentsOptions |
Opcje modyfikowania operacji wsadowej indeksu. |
IndexDocumentsResult |
Odpowiedź zawierająca stan operacji dla wszystkich dokumentów w żądaniu indeksowania. |
IndexerExecutionResult |
Reprezentuje wynik pojedynczego wykonywania indeksatora. |
IndexingParameters |
Reprezentuje parametry wykonywania indeksatora. |
IndexingParametersConfiguration |
Słownik właściwości konfiguracji specyficznych dla indeksatora. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego. |
IndexingResult |
Stan operacji indeksowania dla pojedynczego dokumentu. |
IndexingSchedule |
Reprezentuje harmonogram wykonywania indeksatora. |
InputFieldMappingEntry |
Mapowanie pól wejściowych dla umiejętności. |
KeepTokenFilter |
Filtr tokenu, który przechowuje tylko tokeny z tekstem zawartym na określonej liście wyrazów. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
KeyPhraseExtractionSkill |
Umiejętność, która korzysta z analizy tekstu na potrzeby wyodrębniania kluczowych fraz. |
KeywordMarkerTokenFilter |
Oznacza terminy jako słowa kluczowe. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
KeywordTokenizer |
Emituje całe dane wejściowe jako pojedynczy token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
LanguageDetectionSkill |
Umiejętność, która wykrywa język tekstu wejściowego i zgłasza pojedynczy kod języka dla każdego dokumentu przesłanego na żądanie. Kod języka jest sparowany z wynikiem wskazującym pewność analizy. |
LengthTokenFilter |
Usuwa wyrazy, które są za długie lub za krótkie. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
LimitTokenFilter |
Ogranicza liczbę tokenów podczas indeksowania. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
ListSearchResultsPageSettings |
Argumenty pobierania następnej strony wyników wyszukiwania. |
LuceneStandardAnalyzer |
Standardowy analizator Apache Lucene; Składa się z standardowego tokenizatora, małe litery filtru i filtru zatrzymania. |
LuceneStandardTokenizer |
Podział tekstu zgodnie z regułami segmentacji tekstu Unicode. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
MagnitudeScoringFunction |
Definiuje funkcję, która zwiększa wyniki na podstawie wielkości pola liczbowego. |
MagnitudeScoringParameters |
Dostarcza wartości parametrów do funkcji oceniania wielkości. |
MappingCharFilter |
Filtr znaków, który stosuje mapowania zdefiniowane za pomocą opcji mapowania. Dopasowanie jest chciwe (najdłuższe dopasowanie wzorca w danym punkcie wygrywa). Zastąpienie może być pustym ciągiem. Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene. |
MergeSkill |
Umiejętność scalania dwóch lub większej liczby ciągów w jeden ujednolicony ciąg z opcjonalnym ogranicznikiem zdefiniowanym przez użytkownika oddzielającym każdą część składnika. |
MicrosoftLanguageStemmingTokenizer |
Dzieli tekst przy użyciu reguł specyficznych dla języka i zmniejsza liczbę wyrazów do ich podstawowych formularzy. |
MicrosoftLanguageTokenizer |
Dzieli tekst przy użyciu reguł specyficznych dla języka. |
NGramTokenFilter |
Generuje n-gramy danego rozmiaru. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
NGramTokenizer |
Tokenizuje dane wejściowe do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
OcrSkill |
Umiejętność wyodrębniania tekstu z plików obrazów. |
OutputFieldMappingEntry |
Mapowanie pól wyjściowych dla umiejętności. |
PIIDetectionSkill |
Korzystając z interfejsu API analizy tekstu, wyodrębnia dane osobowe z tekstu wejściowego i umożliwia ich maskowanie. |
PathHierarchyTokenizer |
Tokenizer dla hierarchii przypominających ścieżkę. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
PatternAnalyzer |
Elastycznie oddziela tekst na terminy za pomocą wzorca wyrażenia regularnego. Ten analizator jest implementowany przy użyciu platformy Apache Lucene. |
PatternCaptureTokenFilter |
Używa wyrażeń regularnych Języka Java do emitowania wielu tokenów — jednej dla każdej grupy przechwytywania w co najmniej jednym wzorze. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
PatternReplaceCharFilter |
Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie wartości "$1#$2", wynikiem będzie "aa#bb aa#bb". Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene. |
PatternReplaceTokenFilter |
Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie wartości "$1#$2", wynikiem będzie "aa#bb aa#bb". Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
PatternTokenizer |
Tokenizer, który używa dopasowania wzorca wyrażeń regularnych do konstruowania unikatowych tokenów. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
PhoneticTokenFilter |
Tworzenie tokenów dla dopasowań fonetycznych. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
QueryAnswerResult |
Odpowiedź to fragment tekstowy wyodrębniony z zawartości najbardziej odpowiednich dokumentów pasujących do zapytania. Odpowiedzi są wyodrębniane z pierwszych wyników wyszukiwania. Kandydaci odpowiedzi są oceniani i wybierane są najważniejsze odpowiedzi. |
QueryCaptionResult |
Podpisy są najbardziej reprezentatywnymi fragmentami z dokumentu stosunkowo do zapytania wyszukiwania. Są one często używane jako podsumowanie dokumentu. Podpisy są zwracane tylko w przypadku zapytań typu |
ResourceCounter |
Reprezentuje użycie i limit przydziału zasobu. |
ScalarQuantizationCompression |
Zawiera opcje konfiguracji specyficzne dla metody kompresji kwantyzacji skalarnej używanej podczas indeksowania i wykonywania zapytań. |
ScalarQuantizationParameters |
Zawiera parametry specyficzne dla kwantyzacji skalarnych. |
ScoringProfile |
Definiuje parametry indeksu wyszukiwania mającego wpływ na ocenianie w zapytaniach wyszukiwania. |
SearchClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego. |
SearchDocumentsPageResult |
Odpowiedź zawierająca wyniki strony wyszukiwania z indeksu. |
SearchDocumentsResult |
Odpowiedź zawierająca wyniki wyszukiwania z indeksu. |
SearchDocumentsResultBase |
Odpowiedź zawierająca wyniki wyszukiwania z indeksu. |
SearchIndex |
Reprezentuje definicję indeksu wyszukiwania, która opisuje pola i zachowanie wyszukiwania indeksu. |
SearchIndexClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego. |
SearchIndexStatistics |
Statystyki dla danego indeksu. Statystyki są zbierane okresowo i nie mają gwarancji, że zawsze będą up-to-date. |
SearchIndexer |
Reprezentuje indeksator. |
SearchIndexerClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego. |
SearchIndexerDataContainer |
Reprezentuje informacje o jednostce (takiej jak tabela Azure SQL lub kolekcja CosmosDB), które będą indeksowane. |
SearchIndexerDataNoneIdentity |
Czyści właściwość tożsamości źródła danych. |
SearchIndexerDataSourceConnection |
Reprezentuje definicję źródła danych, która może służyć do konfigurowania indeksatora. |
SearchIndexerDataUserAssignedIdentity |
Określa tożsamość źródła danych do użycia. |
SearchIndexerError |
Reprezentuje błąd indeksowania na poziomie elementu lub dokumentu. |
SearchIndexerIndexProjection |
Definicja dodatkowych projekcji do pomocniczych indeksów wyszukiwania. |
SearchIndexerIndexProjectionParameters |
Słownik właściwości konfiguracji specyficznych dla projekcji indeksu. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego. |
SearchIndexerIndexProjectionSelector |
Opis danych do przechowywania w wyznaczonym indeksie wyszukiwania. |
SearchIndexerKnowledgeStore |
Definicja dodatkowych projekcji w obiektach blob platformy Azure, tabelach lub plikach wzbogaconych danych. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Klasa abstrakcyjna do współużytkowania właściwości między selektorami. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definicja projekcji dla danych do przechowywania w usłudze Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definicja projekcji dla danych do przechowywania w obiekcie blob platformy Azure. |
SearchIndexerKnowledgeStoreParameters |
Słownik właściwości konfiguracji specyficznych dla magazynu wiedzy. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego. |
SearchIndexerKnowledgeStoreProjection |
Obiekt kontenera dla różnych selektorów projekcji. |
SearchIndexerKnowledgeStoreProjectionSelector |
Klasa abstrakcyjna do współużytkowania właściwości między selektorami. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Opis danych do przechowywania w tabelach platformy Azure. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Lista umiejętności. |
SearchIndexerStatus |
Reprezentuje bieżący stan i historię wykonywania indeksatora. |
SearchIndexerWarning |
Reprezentuje ostrzeżenie na poziomie elementu. |
SearchIndexingBufferedSenderOptions |
Opcje wyszukiwaniaIndexingBufferedSender. |
SearchResourceEncryptionKey |
Klucz szyfrowania zarządzany przez klienta w usłudze Azure Key Vault. Klucze tworzone i zarządzane mogą służyć do szyfrowania lub odszyfrowania danych magazynowanych w usłudze Azure Cognitive Search, takich jak indeksy i mapy synonimów. |
SearchServiceStatistics |
Odpowiedź z żądania pobierania statystyk usługi. Jeśli to się powiedzie, obejmuje liczniki i limity poziomu usług. |
SearchSuggester |
Definiuje sposób stosowania interfejsu API sugerowanego do grupy pól w indeksie. |
SemanticConfiguration |
Definiuje określoną konfigurację, która ma być używana w kontekście możliwości semantycznych. |
SemanticField |
Pole używane w ramach konfiguracji semantycznej. |
SemanticPrioritizedFields |
Opisuje pola tytułów, zawartości i słów kluczowych, które mają być używane do semantycznego klasyfikowania, podpisów, wyróżnień i odpowiedzi. |
SemanticSearch |
Definiuje parametry indeksu wyszukiwania mającego wpływ na możliwości semantyczne. |
SemanticSearchOptions |
Definiuje opcje semantycznych zapytań wyszukiwania |
SentimentSkill |
Analiza tekstu dodatnio-ujemna analiza tonacji, oceniana jako wartość zmiennoprzecinkowa w zakresie od zera do 1. |
SentimentSkillV3 |
Korzystając z interfejsu API analizy tekstu, ocenia tekst bez struktury i dla każdego rekordu, udostępnia etykiety tonacji (takie jak "negatywne", "neutralne" i "pozytywne") na podstawie najwyższego wskaźnika ufności znalezionego przez usługę na poziomie zdania i dokumentu. |
ServiceCounters |
Reprezentuje liczniki zasobów na poziomie usługi i limity przydziału. |
ServiceLimits |
Reprezentuje różne limity poziomu usług. |
ShaperSkill |
Umiejętność przekształcania danych wyjściowych. Tworzy typ złożony do obsługi pól złożonych (nazywanych również polami wieloczęściowym). |
ShingleTokenFilter |
Tworzy kombinacje tokenów jako pojedynczy token. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
Similarity |
Typ podstawowy algorytmów podobieństwa. Algorytmy podobieństwa służą do obliczania wyników, które są związane z zapytaniami do dokumentów. Im wyższa ocena, tym bardziej istotne jest, aby dokument był przeznaczony dla tego konkretnego zapytania. Te wyniki są używane do klasyfikacji wyników wyszukiwania. |
SimpleField |
Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola. |
SnowballTokenFilter |
Filtr, który wynika ze słów przy użyciu stemmeru wygenerowanego przez Śnieżkę. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Definiuje zasady wykrywania usuwania danych, które implementują strategię usuwania nietrwałego. Określa, czy element powinien zostać usunięty na podstawie wartości wyznaczonej kolumny "usuwanie nietrwałe". |
SplitSkill |
Umiejętność dzielenia ciągu na fragmenty tekstu. |
SqlIntegratedChangeTrackingPolicy |
Definiuje zasady wykrywania zmian danych, które przechwytują zmiany przy użyciu funkcji zintegrowanego śledzenia zmian usługi Azure SQL Database. |
StemmerOverrideTokenFilter |
Zapewnia możliwość zastępowania innych filtrów ściągnięcia za pomocą niestandardowego ściągnięcia opartego na słowniku. Wszystkie terminy oparte na słowniku będą oznaczone jako słowa kluczowe, aby nie były one stemmers w dół łańcucha. Należy umieścić przed wszelkimi filtrami macierzystymi. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
StemmerTokenFilter |
Filtr macierzysty specyficzny dla języka. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
StopAnalyzer |
Dzieli tekst na litery inne niż litery; Stosuje małe litery i filtry tokenu stopword. Ten analizator jest implementowany przy użyciu platformy Apache Lucene. |
StopwordsTokenFilter |
Usuwa słowa zatrzymania ze strumienia tokenu. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
SuggestDocumentsResult |
Odpowiedź zawierająca wyniki zapytania sugestii z indeksu. |
SuggestRequest |
Parametry filtrowania, sortowania, dopasowywania rozmytego i innych sugestii dotyczących zachowań zapytań. |
SynonymMap |
Reprezentuje definicję mapy synonimów. |
SynonymTokenFilter |
Pasuje do synonimów pojedynczych lub wieloznanych w strumieniu tokenu. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
TagScoringFunction |
Definiuje funkcję, która zwiększa wyniki dokumentów przy użyciu wartości ciągów pasujących do danej listy tagów. |
TagScoringParameters |
Udostępnia wartości parametrów funkcji oceniania tagów. |
TextTranslationSkill |
Umiejętność tłumaczenia tekstu z jednego języka na inny. |
TextWeights |
Definiuje wagi pól indeksu, dla których dopasowania powinny zwiększyć ocenianie w zapytaniach wyszukiwania. |
TruncateTokenFilter |
Obcina terminy do określonej długości. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
UaxUrlEmailTokenizer |
Tokenizuje adresy URL i wiadomości e-mail jako jeden token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
UniqueTokenFilter |
Filtruje tokeny z tym samym tekstem co poprzedni token. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
VectorSearch |
Zawiera opcje konfiguracji związane z wyszukiwaniem wektorów. |
VectorSearchOptions |
Definiuje opcje zapytań wyszukiwania wektorowego |
VectorSearchProfile |
Definiuje kombinację konfiguracji do użycia z wyszukiwaniem wektorowym. |
VectorizableTextQuery |
Parametry zapytania do użycia do wyszukiwania wektorowego, gdy zostanie podana wartość tekstowa, która musi zostać wektoryzowana. |
VectorizedQuery |
Parametry zapytania do użycia do wyszukiwania wektorów po podaniu nieprzetworzonej wartości wektora. |
WebApiParameters |
Określa właściwości nawiązywania połączenia z wektoryzatorem zdefiniowanym przez użytkownika. |
WebApiSkill |
Umiejętność, która może wywołać punkt końcowy internetowego interfejsu API, umożliwiając rozszerzenie zestawu umiejętności przez wywołanie kodu niestandardowego. |
WebApiVectorizer |
Określa wektoryzator zdefiniowany przez użytkownika do generowania wektora osadzania ciągu zapytania. Integracja zewnętrznego wektoryzatora jest osiągana przy użyciu niestandardowego internetowego interfejsu API zestawu umiejętności. |
WordDelimiterTokenFilter |
Dzieli wyrazy na subwords i wykonuje opcjonalne przekształcenia w grupach podrzędnych. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
Aliasy typu
AnalyzeTextOptions |
Opcje analizowania operacji tekstowej. |
AutocompleteMode |
Definiuje wartości dla autouzupełnianiaMode. |
AutocompleteOptions |
Opcje pobierania tekstu uzupełniania dla częściowego tekstu searchText. |
AzureOpenAIModelName |
Definiuje wartości dla elementu AzureOpenAIModelName. Znane wartości obsługiwane przez usługę
osadzanie tekstu-ada-002 |
BlobIndexerDataToExtract | |
BlobIndexerImageAction | |
BlobIndexerPDFTextRotationAlgorithm | |
BlobIndexerParsingMode | |
CharFilter |
Zawiera możliwe przypadki charfilter. |
CharFilterName |
Definiuje wartości charFilterName. Znane wartości obsługiwane przez usługęhtml_strip: filtr znaków, który próbuje usunąć konstrukcje HTML. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Definiuje wartości CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Zawiera możliwe przypadki dla konta CognitiveServicesAccount. |
ComplexDataType |
Definiuje wartości parametru ComplexDataType. Możliwe wartości obejmują: "Edm.ComplexType", "Collection(Edm.ComplexType)" |
CountDocumentsOptions |
Opcje wykonywania operacji licznika w indeksie. |
CreateDataSourceConnectionOptions |
Opcje tworzenia operacji źródła danych. |
CreateIndexOptions |
Opcje tworzenia operacji indeksu. |
CreateIndexerOptions |
Opcje tworzenia operacji indeksatora. |
CreateSkillsetOptions |
Opcje tworzenia operacji zestawu umiejętności. |
CreateSynonymMapOptions |
Opcje tworzenia operacji synonimów. |
CustomEntityLookupSkillLanguage | |
DataChangeDetectionPolicy |
Zawiera możliwe przypadki dla elementu DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Zawiera możliwe przypadki dla elementu DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Opcje operacji usuwania dokumentów. |
EdgeNGramTokenFilterSide |
Definiuje wartości elementu EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage | |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla wyczerpującego algorytmu KNN używanego podczas wykonywania zapytań, które będą wykonywać wyszukiwanie siłowe w całym indeksie wektorów. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Opcje pobierania operacji źródła danych. |
GetIndexOptions |
Opcje pobierania operacji indeksu. |
GetIndexStatisticsOptions |
Opcje pobierania operacji statystyk indeksu. |
GetIndexerOptions |
Opcje pobierania operacji indeksatora. |
GetIndexerStatusOptions |
Opcje pobierania operacji stanu indeksatora. |
GetServiceStatisticsOptions |
Opcje pobierania operacji statystyk usługi. |
GetSkillSetOptions |
Opcje uzyskiwania operacji zestawu umiejętności. |
GetSynonymMapsOptions |
Opcje pobierania operacji synonimów. |
HnswAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla algorytmu hnsw przybliżonych najbliższych sąsiadów używanych w czasie indeksowania. |
ImageAnalysisSkillLanguage | |
ImageDetail | |
IndexActionType |
Definiuje wartości parametru IndexActionType. |
IndexDocumentsAction |
Reprezentuje akcję indeksu działającą w dokumencie. |
IndexIterator |
Iterator do wyświetlania listy indeksów, które istnieją w usłudze Search. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
IndexNameIterator |
Iterator do wyświetlania listy indeksów, które istnieją w usłudze Search. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
IndexProjectionMode |
Definiuje wartości parametru IndexProjectionMode. Znane wartości obsługiwane przez usługę
skipIndexingParentDocuments: dokument źródłowy zostanie pominięty podczas zapisywania w indeksie docelowym indeksatora. |
IndexerExecutionEnvironment | |
IndexerExecutionStatus |
Definiuje wartości parametru IndexerExecutionStatus. |
IndexerStatus |
Definiuje wartości indeksatoraStatus. |
KeyPhraseExtractionSkillLanguage | |
LexicalAnalyzer |
Zawiera możliwe przypadki analizatora. |
LexicalAnalyzerName |
Definiuje wartości lexicalAnalyzerName. Znane wartości obsługiwane przez usługę
ar.microsoft: Microsoft analyzer for Arabski. |
LexicalTokenizer |
Zawiera możliwe przypadki tokenizatora. |
LexicalTokenizerName |
Definiuje wartości lexicalTokenizerName. Znane wartości obsługiwane przez usługę
klasyczny: tokenizer oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Opcje operacji list źródeł danych. |
ListIndexersOptions |
Opcje operacji indeksatorów listy. |
ListIndexesOptions |
Opcje operacji indeksów listy. |
ListSkillsetsOptions |
Opcje operacji zestawów umiejętności listy. |
ListSynonymMapsOptions |
Opcje operacji synonimów listyMaps. |
MergeDocumentsOptions |
Opcje operacji scalania dokumentów. |
MergeOrUploadDocumentsOptions |
Opcje operacji scalania lub przekazywania dokumentów. |
MicrosoftStemmingTokenizerLanguage |
Definiuje wartości microsoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Definiuje wartości dla elementu MicrosoftTokenizerLanguage. |
NarrowedModel |
Zawęża typ modelu, aby uwzględnić tylko wybrane pola |
OcrLineEnding |
Definiuje wartości dla funkcji OcrLineEnding. Znane wartości obsługiwane przez usługę
spacji: Linie są oddzielone pojedynczym znakiem spacji. |
OcrSkillLanguage | |
PIIDetectionSkillMaskingMode | |
PhoneticEncoder |
Definiuje wartości phoneticEncoder. |
QueryAnswer |
Wartość określająca, czy odpowiedzi powinny być zwracane w ramach odpowiedzi wyszukiwania.
Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania jest "semantyczny". Jeśli ustawiono wartość |
QueryCaption |
Wartość określająca, czy podpisy powinny być zwracane w ramach odpowiedzi wyszukiwania. Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania jest "semantyczny". W przypadku ustawienia zapytanie zwraca podpisy wyodrębnione z kluczowych fragmentów w najwyżej sklasyfikowanych dokumentach. Gdy napisy są "wyodrębnione", wyróżnianie jest domyślnie włączone. Wartość domyślna to "none". |
QueryType |
Definiuje wartości parametru QueryType. |
RegexFlags | |
ResetIndexerOptions |
Opcje resetowania operacji indeksatora. |
RunIndexerOptions |
Opcje uruchamiania operacji indeksatora. |
ScoringFunction |
Zawiera możliwe przypadki ocenianiaFunction. |
ScoringFunctionAggregation |
Definiuje wartości funkcji ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Definiuje wartości funkcji ScoringFunctionInterpolation. |
ScoringStatistics |
Definiuje wartości dla funkcji ScoringStatistics. |
SearchField |
Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola. |
SearchFieldArray |
Jeśli |
SearchFieldDataType |
Definiuje wartości parametru SearchFieldDataType. Znane wartości obsługiwane przez usługę:Edm.String: wskazuje, że pole zawiera ciąg. Edm.Int32: wskazuje, że pole zawiera 32-bitową liczbę całkowitą ze znakiem. Edm.Int64: wskazuje, że pole zawiera 64-bitową liczbę całkowitą ze znakiem. Edm.Double: wskazuje, że pole zawiera liczbę zmiennoprzecinkową IEEE o podwójnej precyzji. Edm.Boolean: wskazuje, że pole zawiera wartość logiczną (prawda lub fałsz). Edm.DateTimeOffset: wskazuje, że pole zawiera wartość daty/godziny, w tym informacje o strefie czasowej. Edm.GeographyPoint: Wskazuje, że pole zawiera lokalizację geograficzną pod względem długości geograficznej i szerokości geograficznej. Edm.ComplexType: wskazuje, że pole zawiera jeden lub więcej złożonych obiektów, które z kolei mają pola podrzędne innych typów. Edm.Single: wskazuje, że pole zawiera liczbę zmiennoprzecinkową o pojedynczej precyzji. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Single). Edm.Half: wskazuje, że pole zawiera liczbę zmiennoprzecinkową o pół precyzji. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Half). Edm.Int16: Wskazuje, że pole zawiera 16-bitową liczbę całkowitą ze znakiem. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Int16). Edm.SByte: wskazuje, że pole zawiera 8-bitową liczbę całkowitą ze znakiem. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.SByte). Edm.Byte: wskazuje, że pole zawiera 8-bitową liczbę całkowitą bez znaku. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Byte). |
SearchIndexerDataIdentity |
Zawiera możliwe przypadki elementu SearchIndexerDataIdentity. |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Zawiera możliwe przypadki umiejętności. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Iterator wyników wyszukiwania zapytania patykowego. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
SearchMode |
Definiuje wartości dla elementu SearchMode. |
SearchOptions |
Opcje zatwierdzania pełnego żądania wyszukiwania. |
SearchPick |
Głęboko wybieraj pola języka T przy użyciu prawidłowych ścieżek OData wyszukiwania poznawczego OData $select. |
SearchRequestOptions |
Parametry do filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania. |
SearchRequestQueryTypeOptions | |
SearchResult |
Zawiera dokument znaleziony przez zapytanie wyszukiwania oraz skojarzone metadane. |
SelectArray |
Jeśli |
SelectFields |
Tworzy połączenie prawidłowych ścieżek OData wyszukiwania poznawczego OData $select dla języka T przy użyciu przechodzenia po kolejności drzewa pól zakorzenionego w lokalizacji T. |
SemanticErrorMode | |
SemanticErrorReason | |
SemanticSearchResultsType | |
SentimentSkillLanguage | |
SimilarityAlgorithm |
Zawiera możliwe przypadki podobieństwa. |
SnowballTokenFilterLanguage |
Definiuje wartości snowballTokenFilterLanguage. |
SplitSkillLanguage | |
StemmerTokenFilterLanguage |
Definiuje wartości dla stemmerTokenFilterLanguage. |
StopwordsList |
Definiuje wartości stopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Opcje pobierania sugestii na podstawie elementu searchText. |
SuggestResult |
Wynik zawierający dokument znaleziony przez zapytanie sugestii oraz skojarzone metadane. |
TextSplitMode | |
TextTranslationSkillLanguage | |
TokenCharacterKind |
Definiuje wartości tokenCharacterKind. |
TokenFilter |
Zawiera możliwe przypadki tokenfiltru. |
TokenFilterName |
Definiuje wartości TokenFilterName. Znane wartości obsługiwane przez usługę
arabic_normalization: filtr tokenu, który stosuje arabski normalizator w celu normalizacji orthografii. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Opcje operacji przekazywania dokumentów. |
VectorEncodingFormat |
Definiuje wartości elementu VectorEncodingFormat. Znane wartości obsługiwane przez usługępakowaneBit: format kodowania reprezentujący bity pakowane w szerszy typ danych. |
VectorFilterMode | |
VectorQuery |
Parametry zapytania dla wektorów i zapytań wyszukiwania hybrydowego. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric | |
VectorSearchCompression |
Zawiera opcje konfiguracji specyficzne dla metody kompresji używanej podczas indeksowania lub wykonywania zapytań. |
VectorSearchCompressionKind |
Definiuje wartości elementu VectorSearchCompressionKind. Znane wartości obsługiwane przez usługę
scalarQuantization: Scalar Quantization, typ metody kompresji. W kwantyzacji skalarnej wartości oryginalnych wektorów są kompresowane do węższego typu przez dyskretyzowanie i reprezentowanie każdego składnika wektora przy użyciu ograniczonego zestawu kwantyzowanych wartości, zmniejszając w ten sposób ogólny rozmiar danych. |
VectorSearchCompressionTarget |
Definiuje wartości elementu VectorSearchCompressionTarget. Znane wartości obsługiwane przez usługęint8 |
VectorSearchVectorizer |
Zawiera opcje konfiguracji dotyczące sposobu wektoryzacji zapytań wektorów tekstowych. |
VectorSearchVectorizerKind |
Definiuje wartości vectorSearchVectorizerKind. Znane wartości obsługiwane przez usługę
azureOpenAI: Generuj osadzanie przy użyciu zasobu usługi Azure OpenAI w czasie wykonywania zapytania. |
VisualFeature |
Wyliczenia
Funkcje
create |
Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS. |
odata(Template |
Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykładowe użycie:
Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Szczegóły funkcji
createSynonymMapFromFile(string, string)
Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametry
- name
-
string
Nazwa synonimuMap.
- filePath
-
string
Ścieżka pliku zawierającego synonimy (oddzielone przez nowe wiersze)
Zwraca
Promise<SynonymMap>
SynonimMap, obiekt
odata(TemplateStringsArray, unknown[])
Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykładowe użycie:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametry
- strings
-
TemplateStringsArray
Tablica ciągów dla wyrażenia
- values
-
unknown[]
Tablica wartości wyrażenia
Zwraca
string