@azure/search-documents package

Klasy

AzureKeyCredential

Poświadczenie oparte na kluczu statycznym, które obsługuje aktualizowanie bazowej wartości klucza.

GeographyPoint

Reprezentuje punkt geograficzny we współrzędnych globalnych.

IndexDocumentsBatch

Klasa używana do wykonywania operacji wsadowych z wieloma dokumentami do indeksu.

KnowledgeRetrievalClient

Klasa używana do wykonywania operacji na bazie wiedzy.

SearchClient

Klasa używana do wykonywania operacji względem indeksu wyszukiwania, w tym wykonywania zapytań dotyczących dokumentów w indeksie, a także dodawania, aktualizowania i usuwania.

SearchIndexClient

Klasa do wykonywania operacji w celu zarządzania (tworzeniem, aktualizowaniem, listą/usuwaniem) indeksów, & synonimami.

SearchIndexerClient

Klasa do wykonywania operacji w celu zarządzania (tworzeniem, aktualizowaniem, listą/usuwaniem) indeksatorów, źródłami danych & zestawami umiejętności.

SearchIndexingBufferedSender

Klasa używana do wykonywania buforowanych operacji względem indeksu wyszukiwania, w tym dodawania, aktualizowania i usuwania.

Interfejsy

AIServices

Parametry dla usług AI.

AIServicesAccountIdentity

Konto wieloregionalne zasobu usługi Azure AI, przypisane do zestawu umiejętności.

AIServicesAccountKey

Klucz konta zasobu usługi Azure AI, powiązany z zestawem umiejętności, do wykorzystania z poddomeną tego zasobu.

AnalyzeRequest

Określa niektóre składniki tekstowe i analityczne używane do dzielenia tego tekstu na tokeny.

AnalyzeResult

Wynik testowania analizatora tekstu.

AnalyzedTokenInfo

Informacje o tokenie zwróconym przez analizator.

AsciiFoldingTokenFilter

Konwertuje znaki alfabetyczne, liczbowe i symboliczne Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (bloku Unicode "Basic Latin") na ich odpowiedniki ASCII, jeśli takie odpowiedniki istnieją. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

AutocompleteItem

Wynik żądań autouzupełniania.

AutocompleteRequest

Parametry dopasowania rozmytego i inne zachowania zapytań autouzupełniania.

AutocompleteResult

Wynik zapytania autouzupełniania.

AzureActiveDirectoryApplicationCredentials

Poświadczenia zarejestrowanej aplikacji utworzonej dla usługi wyszukiwania używane do uwierzytelnionego dostępu do kluczy szyfrowania przechowywanych w usłudze Azure Key Vault.

AzureBlobKnowledgeSource

Konfiguracja źródła wiedzy Azure Blob Storage.

AzureBlobKnowledgeSourceParameters

Parametry źródła wiedzy Azure Blob Storage.

AzureBlobKnowledgeSourceParams

Określa parametry środowiska uruchomieniowego dla źródła wiedzy obiektu blob platformy Azure

AzureMachineLearningVectorizer

Określa punkt końcowy Azure Machine Learning wdrożony za pomocą katalogu modeli Azure AI Foundry do generowania osadzenia wektorowego ciągu zapytania.

AzureOpenAIEmbeddingSkill

Umożliwia wygenerowanie wektora osadzania dla danego tekstu wejściowego przy użyciu zasobu Azure OpenAI.

AzureOpenAIParameters

Określa parametry nawiązywania połączenia z zasobem usługi Azure OpenAI.

AzureOpenAIVectorizer

Zawiera parametry specyficzne dla używania usługi Azure Open AI na potrzeby wektoryzacji w czasie wykonywania zapytań.

BM25Similarity

Funkcja klasyfikacji oparta na algorytmie podobieństwa okapi BM25. BM25 to algorytm podobny do tf-IDF, który obejmuje normalizację długości (kontrolowaną przez parametr "b"), a także nasycenie częstotliwości terminów (kontrolowane przez parametr "k1").

BaseAzureMachineLearningVectorizerParameters

Określa właściwości wspólne dla wszystkich typów uwierzytelniania wektoryzatora AML.

BaseCharFilter

Typ podstawowy filtrów znaków.

BaseCognitiveServicesAccount

Typ podstawowy opisujący dowolny zasób usługi Azure AI dołączony do zestawu umiejętności.

BaseDataChangeDetectionPolicy

Typ podstawowy zasad wykrywania zmian danych.

BaseDataDeletionDetectionPolicy

Typ podstawowy zasad wykrywania usuwania danych.

BaseKnowledgeBaseActivityRecord

Typ podstawowy dla rekordów aktywności. Śledzi szczegóły wykonania, czas i błędy dotyczące operacji bazy wiedzy.

BaseKnowledgeBaseMessageContent

Określa typ treści wiadomości.

BaseKnowledgeBaseModel

Określa parametry połączenia dla modelu, które mają być używane do planowania zapytania.

BaseKnowledgeBaseReference

Typ podstawowy dla referencji.

BaseKnowledgeRetrievalReasoningEffort

Podstawowy typ wysiłku rozumowania.

BaseKnowledgeSource

Reprezentuje definicję źródła wiedzy.

BaseKnowledgeSourceParams

Typ bazowy dla parametrów wykonawczych źródła wiedzy.

BaseKnowledgeSourceVectorizer

Określa metodę wektoryzacji stosowaną w modelu osadzania źródeł wiedzy.

BaseLexicalAnalyzer

Typ podstawowy analizatorów.

BaseLexicalNormalizer

Typ podstawowy normalizowania.

BaseLexicalTokenizer

Typ podstawowy tokenizatorów.

BaseScoringFunction

Typ podstawowy funkcji, które mogą modyfikować wyniki dokumentu podczas klasyfikowania.

BaseSearchIndexerDataIdentity

Abstrakcyjny typ podstawowy tożsamości danych.

BaseSearchIndexerSkill

Typ podstawowy umiejętności.

BaseSearchRequestOptions

Parametry do filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania.

BaseSimilarityAlgorithm

Typ podstawowy algorytmów podobieństwa. Algorytmy podobieństwa służą do obliczania wyników, które są związane z zapytaniami do dokumentów. Im wyższa ocena, tym bardziej istotne jest, aby dokument był przeznaczony dla tego konkretnego zapytania. Te wyniki są używane do klasyfikacji wyników wyszukiwania.

BaseTokenFilter

Typ podstawowy filtrów tokenów.

BaseVectorQuery

Parametry zapytania dla wektorów i zapytań wyszukiwania hybrydowego.

BaseVectorSearchAlgorithmConfiguration

Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań.

BaseVectorSearchCompression

Zawiera opcje konfiguracji specyficzne dla metody kompresji używanej podczas indeksowania lub wykonywania zapytań.

BaseVectorSearchVectorizer

Zawiera szczegółowe informacje dotyczące metody wektoryzacji, która ma być używana w czasie zapytania.

BinaryQuantizationCompression

Zawiera opcje konfiguracji specyficzne dla binarnej metody kompresji kwantyzacji używanej podczas indeksowania i wykonywania zapytań.

ChatCompletionResponseFormat

Określa, w jaki sposób odpowiedź modelu językowego powinna być serializowana. Wartość domyślna to "text".

ChatCompletionResponseFormatJsonSchemaProperties

Właściwości formatu odpowiedzi na schemat JSON.

ChatCompletionSchema

Obiekt definiujący niestandardowy schemat, którego model będzie używał do tworzenia struktury danych wyjściowych.

ChatCompletionSkill

Umiejętność, która wywołuje model językowy za pośrednictwem punktu końcowego Chat Completions Azure AI Foundry.

CjkBigramTokenFilter

Tworzy bigramy terminów CJK generowanych na podstawie standardowego tokenizatora. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

ClassicSimilarity

Starszy algorytm podobieństwa, który używa implementacji TFIDFSimilarity Lucene tf-IDF. Ta odmiana TF-IDF wprowadza normalizację długości dokumentu statycznego, a także koordynujące czynniki, które karują dokumenty, które częściowo pasują tylko do wyszukiwanych zapytań.

ClassicTokenizer

Tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

CognitiveServicesAccountKey

Klucz konta w wielu regionach zasobu usługi Azure AI dołączony do zestawu umiejętności.

CommonGramTokenFilter

Konstruowanie bigramów dla często występujących terminów podczas indeksowania. Pojedyncze terminy są również indeksowane, a bigramy są nakładane. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

CommonModelParameters

Typowe parametry modelu językowego dla uzupełniania czatu. W przypadku pominięcia zostaną użyte wartości domyślne.

CompletedSynchronizationState

Reprezentuje stan ukończenia ostatniej synchronizacji.

ComplexField

Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola.

ConditionalSkill

Umiejętność umożliwiająca scenariusze wymagające operacji logicznej w celu określenia danych do przypisania do danych wyjściowych.

ContentUnderstandingSkill

Umiejętność wykorzystująca Azure AI Content Understanding do przetwarzania i wydobywania uporządkowanych wniosków z dokumentów, umożliwiając wzbogacone, przeszukiwalne treści dla ulepszonego indeksowania i wyszukiwania dokumentów.

ContentUnderstandingSkillChunkingProperties

Steruje kardynalnością dzielenia zawartości na fragmenty.

CorsOptions

Definiuje opcje kontrolowania współużytkowania zasobów między źródłami (CORS) dla indeksu.

CreateKnowledgeBaseOptions
CreateKnowledgeSourceOptions
CreateOrUpdateAliasOptions

Opcje operacji tworzenia lub aktualizowania aliasu.

CreateOrUpdateIndexOptions

Opcje operacji tworzenia/aktualizowania indeksu.

CreateOrUpdateKnowledgeBaseOptions
CreateOrUpdateKnowledgeSourceOptions
CreateOrUpdateSkillsetOptions

Opcje tworzenia/aktualizowania operacji zestawu umiejętności.

CreateOrUpdateSynonymMapOptions

Opcje operacji tworzenia/aktualizowania synonimu.

CreateorUpdateDataSourceConnectionOptions

Opcje operacji tworzenia/aktualizowania źródła danych.

CreateorUpdateIndexerOptions

Opcje operacji tworzenia/aktualizowania indeksatora.

CustomAnalyzer

Umożliwia przejęcie kontroli nad procesem konwertowania tekstu na tokeny z możliwością indeksowania/wyszukiwania. Jest to konfiguracja zdefiniowana przez użytkownika składająca się z jednego wstępnie zdefiniowanego tokenizera i co najmniej jednego filtru. Tokenizer jest odpowiedzialny za podzielenie tekstu na tokeny i filtry modyfikowania tokenów emitowanych przez tokenizatora.

CustomEntity

Obiekt zawierający informacje o znalezionych dopasowaniach i powiązanych metadanych.

CustomEntityAlias

Obiekt złożony, który może służyć do określania alternatywnych pisowni lub synonimów nazwy jednostki głównej.

CustomEntityLookupSkill

Umiejętność szuka tekstu z niestandardowej, zdefiniowanej przez użytkownika listy wyrazów i fraz.

CustomLexicalNormalizer

Umożliwia skonfigurowanie normalizacji dla pól możliwych do filtrowania, sortowania i tworzenia aspektów, które domyślnie działają z ścisłym dopasowaniem. Jest to konfiguracja zdefiniowana przez użytkownika składająca się z co najmniej jednego filtru, który modyfikuje przechowywany token.

DefaultCognitiveServicesAccount

Pusty obiekt reprezentujący domyślny zasób usługi Azure AI dla zestawu umiejętności.

DeleteAliasOptions

Opcje operacji usuwania aliasu.

DeleteDataSourceConnectionOptions

Opcje operacji usuwania źródła danych.

DeleteIndexOptions

Opcje operacji usuwania indeksu.

DeleteIndexerOptions

Opcje operacji usuwania indeksatora.

DeleteKnowledgeBaseOptions
DeleteKnowledgeSourceOptions
DeleteSkillsetOptions

Opcje usuwania operacji zestawu umiejętności.

DeleteSynonymMapOptions

Opcje usuwania operacji synonimów.

DictionaryDecompounderTokenFilter

Rozkłada złożone wyrazy znalezione w wielu językach niemieckich. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

DistanceScoringFunction

Definiuje funkcję, która zwiększa wyniki na podstawie odległości od lokalizacji geograficznej.

DistanceScoringParameters

Udostępnia wartości parametrów funkcji oceniania odległości.

DocumentDebugInfo

Zawiera informacje debugowania, których można użyć do dalszego eksplorowania wyników wyszukiwania.

DocumentExtractionSkill

Umiejętność wyodrębniania zawartości z pliku w potoku wzbogacania.

DocumentIntelligenceLayoutSkill

Umiejętność wyodrębniania informacji o zawartości i układzie (jako znaczników markdown) za pośrednictwem usług Azure AI z plików w potoku wzbogacania.

DocumentIntelligenceLayoutSkillChunkingProperties

Steruje kardynalnością dzielenia zawartości na fragmenty.

EdgeNGramTokenFilter

Generuje n-gramy danego rozmiaru, zaczynając od przodu lub z tyłu tokenu wejściowego. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

EdgeNGramTokenizer

Tokenizuje dane wejściowe z krawędzi do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

ElisionTokenFilter

Usuwa elizji. Na przykład "l'avion" (płaszczyzna) zostanie przekonwertowana na "avion" (płaszczyzna). Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

EntityLinkingSkill

Przy użyciu interfejsu API analizy tekstu wyodrębnia połączone jednostki z tekstu.

EntityRecognitionSkill

Rozpoznawanie jednostek analizy tekstu.

EntityRecognitionSkillV3

Przy użyciu interfejsu API analizy tekstu wyodrębnia jednostki różnych typów z tekstu.

ExhaustiveKnnParameters

Zawiera parametry specyficzne dla wyczerpującego algorytmu KNN.

ExtractiveQueryAnswer

Wyodrębnia kandydatów odpowiedzi z zawartości dokumentów zwracanych w odpowiedzi na zapytanie wyrażone jako pytanie w języku naturalnym.

ExtractiveQueryCaption

Wyodrębnia podpisy z pasujących dokumentów, które zawierają fragmenty istotne dla zapytania wyszukiwania.

FacetResult

Pojedynczy zasobnik wyniku zapytania aspektowego. Raportuje liczbę dokumentów z wartością pola należącą do określonego zakresu lub z określoną wartością lub interwałem.

FieldMapping

Definiuje mapowanie między polem w źródle danych a polem docelowym w indeksie.

FieldMappingFunction

Reprezentuje funkcję, która przekształca wartość ze źródła danych przed indeksowaniem.

FreshnessScoringFunction

Definiuje funkcję, która zwiększa wyniki na podstawie wartości pola daty i godziny.

FreshnessScoringParameters

Udostępnia wartości parametrów funkcji oceniania świeżości.

GenerativeQueryRewrites

Wygeneruj alternatywne terminy zapytania, aby zwiększyć kompletność żądania wyszukiwania.

GetDocumentOptions

Opcje pobierania pojedynczego dokumentu.

GetKnowledgeBaseOptions
GetKnowledgeSourceOptions
GetKnowledgeSourceStatusOptions
HighWaterMarkChangeDetectionPolicy

Definiuje zasady wykrywania zmian danych, które przechwytują zmiany na podstawie wartości kolumny wysokiego znacznika wody.

HnswParameters

Zawiera parametry specyficzne dla algorytmu hnsw.

ImageAnalysisSkill

Umiejętność analizująca pliki obrazów. Wyodrębnia bogaty zestaw funkcji wizualnych na podstawie zawartości obrazu.

IndexDocumentsClient

Klient indeksowania dokumentów

IndexDocumentsOptions

Opcje modyfikowania operacji wsadowej indeksu.

IndexDocumentsResult

Odpowiedź zawierająca stan operacji dla wszystkich dokumentów w żądaniu indeksowania.

IndexedOneLakeKnowledgeSource

Konfiguracja dla źródła wiedzy OneLake.

IndexedOneLakeKnowledgeSourceParameters

Parametry źródła wiedzy OneLake.

IndexedOneLakeKnowledgeSourceParams

Określa parametry środowiska uruchomieniowego dla indeksowanego źródła wiedzy OneLake

IndexerExecutionResult

Reprezentuje wynik pojedynczego wykonywania indeksatora.

IndexingParameters

Reprezentuje parametry wykonywania indeksatora.

IndexingParametersConfiguration

Słownik właściwości konfiguracji specyficznych dla indeksatora. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego.

IndexingResult

Stan operacji indeksowania dla pojedynczego dokumentu.

IndexingSchedule

Reprezentuje harmonogram wykonywania indeksatora.

InputFieldMappingEntry

Mapowanie pól wejściowych dla umiejętności.

KeepTokenFilter

Filtr tokenu, który przechowuje tylko tokeny z tekstem zawartym na określonej liście wyrazów. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

KeyAuthAzureMachineLearningVectorizerParameters

Określa właściwości nawiązywania połączenia z wektoryzatorem AML przy użyciu klucza uwierzytelniania.

KeyPhraseExtractionSkill

Umiejętność, która korzysta z analizy tekstu na potrzeby wyodrębniania kluczowych fraz.

KeywordMarkerTokenFilter

Oznacza terminy jako słowa kluczowe. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

KeywordTokenizer

Emituje całe dane wejściowe jako pojedynczy token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

KnowledgeBase
KnowledgeBaseAgenticReasoningActivityRecord

Reprezentuje rekord działania wnioskowania agentycznego.

KnowledgeBaseAzureBlobReference

Reprezentuje dokumentację Azure Blob Storage.

KnowledgeBaseAzureOpenAIModel

Określa zasób usługi Azure OpenAI używany do planowania zapytań.

KnowledgeBaseErrorAdditionalInfo

Dodatkowe informacje o błędzie zarządzania zasobami.

KnowledgeBaseErrorDetail

Szczegóły błędu.

KnowledgeBaseIndexedOneLakeReference

Reprezentuje indeksowany dokument OneLake.

KnowledgeBaseMessage

Obiekt stylu komunikatu w języku naturalnym.

KnowledgeBaseMessageImageContent

Typ wiadomości obrazu.

KnowledgeBaseMessageImageContentImage

Treści obrazowe.

KnowledgeBaseMessageTextContent

Typ wiadomości tekstowej.

KnowledgeBaseModelWebSummarizationActivityRecord

Reprezentuje rekord aktywności streszczającej LLM w sieci.

KnowledgeBaseRetrievalRequest

Kontrakt wejściowy dla żądania pobrania.

KnowledgeBaseRetrievalResponse

Kontrakt wyjściowy dla odpowiedzi pobierania.

KnowledgeBaseSearchIndexReference

Reprezentuje dokumentację usługi Azure Search.

KnowledgeBaseWebReference

Reprezentuje odniesienie do dokumentu sieci Web.

KnowledgeRetrievalClientOptions

Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego.

KnowledgeRetrievalIntent

Zamierzone zapytanie do wykonania bez planowania zapytań modelowych.

KnowledgeRetrievalMinimalReasoningEffort

Uruchamiaj wyszukiwanie wiedzy przy minimalnym wysiłku związanym z rozumowaniem.

KnowledgeRetrievalSemanticIntent

Zamiar zapytania semantycznego.

KnowledgeSourceAzureOpenAIVectorizer

Określa zasób usługi Azure OpenAI używany do wektoryzacji ciągu zapytania.

KnowledgeSourceIngestionParameters

Konsoliduje wszystkie ogólne ustawienia pozyskiwania dla źródeł wiedzy.

KnowledgeSourceReference

Odniesienie do źródła wiedzy.

KnowledgeSourceStatistics

Informacje statystyczne o historii synchronizacji źródeł wiedzy.

KnowledgeSourceStatus

Reprezentuje stan i historię synchronizacji źródła wiedzy.

KnowledgeSourceSynchronizationError

Reprezentuje błąd indeksowania na poziomie dokumentu napotkany podczas synchronizacji źródeł wiedzy.

LanguageDetectionSkill

Umiejętność, która wykrywa język tekstu wejściowego i zgłasza pojedynczy kod języka dla każdego dokumentu przesłanego na żądanie. Kod języka jest sparowany z wynikiem wskazującym pewność analizy.

LengthTokenFilter

Usuwa wyrazy, które są za długie lub za krótkie. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

LimitTokenFilter

Ogranicza liczbę tokenów podczas indeksowania. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

ListKnowledgeBasesOptions
ListKnowledgeSourcesOptions
ListSearchResultsPageSettings

Argumenty pobierania następnej strony wyników wyszukiwania.

LuceneStandardAnalyzer

Standardowy analizator Apache Lucene; Składa się z standardowego tokenizatora, małe litery filtru i filtru zatrzymania.

LuceneStandardTokenizer

Podział tekstu zgodnie z regułami segmentacji tekstu Unicode. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

MagnitudeScoringFunction

Definiuje funkcję, która zwiększa wyniki na podstawie wielkości pola liczbowego.

MagnitudeScoringParameters

Dostarcza wartości parametrów do funkcji oceniania wielkości.

MappingCharFilter

Filtr znaków, który stosuje mapowania zdefiniowane za pomocą opcji mapowania. Dopasowanie jest chciwe (najdłuższe dopasowanie wzorca w danym punkcie wygrywa). Zastąpienie może być pustym ciągiem. Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene.

MergeSkill

Umiejętność scalania dwóch lub większej liczby ciągów w jeden ujednolicony ciąg z opcjonalnym ogranicznikiem zdefiniowanym przez użytkownika oddzielającym każdą część składnika.

MicrosoftLanguageStemmingTokenizer

Dzieli tekst przy użyciu reguł specyficznych dla języka i zmniejsza liczbę wyrazów do ich podstawowych formularzy.

MicrosoftLanguageTokenizer

Dzieli tekst przy użyciu reguł specyficznych dla języka.

NGramTokenFilter

Generuje n-gramy danego rozmiaru. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

NGramTokenizer

Tokenizuje dane wejściowe do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

NativeBlobSoftDeleteDeletionDetectionPolicy

Definiuje zasady wykrywania usuwania danych korzystające z natywnej funkcji usuwania nietrwałego usługi Azure Blob Storage na potrzeby wykrywania usuwania.

NoAuthAzureMachineLearningVectorizerParameters

Określa właściwości nawiązywania połączenia z wektoryzatorem AML bez uwierzytelniania.

OcrSkill

Umiejętność wyodrębniania tekstu z plików obrazów.

OutputFieldMappingEntry

Mapowanie pól wyjściowych dla umiejętności.

PIIDetectionSkill

Korzystając z interfejsu API analizy tekstu, wyodrębnia dane osobowe z tekstu wejściowego i umożliwia ich maskowanie.

PageSettings

Opcje dla metody byPage

PagedAsyncIterableIterator

Interfejs, który umożliwia iterację asynchronialną zarówno do ukończenia, jak i według strony.

PathHierarchyTokenizer

Tokenizer dla hierarchii przypominających ścieżkę. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

PatternAnalyzer

Elastycznie oddziela tekst na terminy za pomocą wzorca wyrażenia regularnego. Ten analizator jest implementowany przy użyciu platformy Apache Lucene.

PatternCaptureTokenFilter

Używa wyrażeń regularnych Języka Java do emitowania wielu tokenów — jednej dla każdej grupy przechwytywania w co najmniej jednym wzorze. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

PatternReplaceCharFilter

Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie wartości "$1#$2", wynikiem będzie "aa#bb aa#bb". Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene.

PatternReplaceTokenFilter

Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie wartości "$1#$2", wynikiem będzie "aa#bb aa#bb". Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

PatternTokenizer

Tokenizer, który używa dopasowania wzorca wyrażeń regularnych do konstruowania unikatowych tokenów. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

PhoneticTokenFilter

Tworzenie tokenów dla dopasowań fonetycznych. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

QueryAnswerResult

Odpowiedź to fragment tekstowy wyodrębniony z zawartości najbardziej odpowiednich dokumentów pasujących do zapytania. Odpowiedzi są wyodrębniane z pierwszych wyników wyszukiwania. Kandydaci odpowiedzi są oceniani i wybierane są najważniejsze odpowiedzi.

QueryCaptionResult

Podpisy są najbardziej reprezentatywnymi fragmentami z dokumentu stosunkowo do zapytania wyszukiwania. Są one często używane jako podsumowanie dokumentu. Podpisy są zwracane tylko w przypadku zapytań typu semantic.

QueryResultDocumentSemanticField

Opis pól, które zostały wysłane do procesu wzbogacania semantycznego, a także sposobu ich użycia

QueryResultDocumentSubscores

Podział podscores między składnikami zapytania tekstowego i wektorowego dla tego dokumentu. Każde zapytanie wektorowe jest wyświetlane jako oddzielny obiekt w tej samej kolejności, w której zostały odebrane.

RescoringOptions

Zawiera opcje rescoringu.

ResourceCounter

Reprezentuje użycie i limit przydziału zasobu.

RetrieveOptions
ScalarQuantizationCompression

Zawiera opcje konfiguracji specyficzne dla metody kompresji kwantyzacji skalarnej używanej podczas indeksowania i wykonywania zapytań.

ScalarQuantizationParameters

Zawiera parametry specyficzne dla kwantyzacji skalarnych.

ScoringProfile

Definiuje parametry indeksu wyszukiwania mającego wpływ na ocenianie w zapytaniach wyszukiwania.

SearchAlias

Reprezentuje alias indeksu, który opisuje mapowanie z nazwy aliasu na indeks. Nazwa aliasu może być używana zamiast nazwy indeksu dla obsługiwanych operacji.

SearchClientOptions

Opcje klienta używane do konfigurowania żądań interfejsu API AI Search.

SearchDocumentsPageResult

Odpowiedź zawierająca wyniki strony wyszukiwania z indeksu.

SearchDocumentsResult

Odpowiedź zawierająca wyniki wyszukiwania z indeksu.

SearchDocumentsResultBase

Odpowiedź zawierająca wyniki wyszukiwania z indeksu.

SearchIndex

Reprezentuje definicję indeksu wyszukiwania, która opisuje pola i zachowanie wyszukiwania indeksu.

SearchIndexClientOptions

Opcje klienta używane do konfigurowania żądań interfejsu API AI Search.

SearchIndexFieldReference

Referencja polowa dla indeksu wyszukiwania.

SearchIndexKnowledgeSource

Źródło wiedzy przeznaczone dla indeksu wyszukiwania.

SearchIndexKnowledgeSourceParameters

Parametry źródła wiedzy indeksu wyszukiwania.

SearchIndexKnowledgeSourceParams

Określa parametry środowiska uruchomieniowego dla źródła wiedzy indeksu wyszukiwania

SearchIndexStatistics

Statystyki dla danego indeksu. Statystyki są zbierane okresowo i nie mają gwarancji, że zawsze będą up-to-date.

SearchIndexer

Reprezentuje indeksator.

SearchIndexerClientOptions

Opcje klienta używane do konfigurowania żądań interfejsu API AI Search.

SearchIndexerDataContainer

Reprezentuje informacje o jednostce (takiej jak tabela Azure SQL lub kolekcja CosmosDB), które będą indeksowane.

SearchIndexerDataNoneIdentity

Czyści właściwość tożsamości źródła danych.

SearchIndexerDataSourceConnection

Reprezentuje definicję źródła danych, która może służyć do konfigurowania indeksatora.

SearchIndexerDataUserAssignedIdentity

Określa tożsamość źródła danych do użycia.

SearchIndexerError

Reprezentuje błąd indeksowania na poziomie elementu lub dokumentu.

SearchIndexerIndexProjection

Definicja dodatkowych projekcji do pomocniczych indeksów wyszukiwania.

SearchIndexerIndexProjectionParameters

Słownik właściwości konfiguracji specyficznych dla projekcji indeksu. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego.

SearchIndexerIndexProjectionSelector

Opis danych do przechowywania w wyznaczonym indeksie wyszukiwania.

SearchIndexerKnowledgeStore

Definicja dodatkowych projekcji w obiektach blob platformy Azure, tabelach lub plikach wzbogaconych danych.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Klasa abstrakcyjna do współużytkowania właściwości między selektorami.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definicja projekcji dla danych do przechowywania w usłudze Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definicja projekcji dla danych do przechowywania w obiekcie blob platformy Azure.

SearchIndexerKnowledgeStoreParameters

Słownik właściwości konfiguracji specyficznych dla magazynu wiedzy. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego.

SearchIndexerKnowledgeStoreProjection

Obiekt kontenera dla różnych selektorów projekcji.

SearchIndexerKnowledgeStoreProjectionSelector

Klasa abstrakcyjna do współużytkowania właściwości między selektorami.

SearchIndexerKnowledgeStoreTableProjectionSelector

Opis danych do przechowywania w tabelach platformy Azure.

SearchIndexerLimits

Reprezentuje granice, które można zastosować do indeksatora.

SearchIndexerSkillset

Lista umiejętności.

SearchIndexerStatus

Reprezentuje bieżący stan i historię wykonywania indeksatora.

SearchIndexerWarning

Reprezentuje ostrzeżenie na poziomie elementu.

SearchIndexingBufferedSenderOptions

Opcje wyszukiwaniaIndexingBufferedSender.

SearchResourceEncryptionKey

Klucz szyfrowania zarządzany przez klienta w usłudze Azure Key Vault. Klucze, które tworzysz i którymi zarządzasz, mogą służyć do szyfrowania lub odszyfrowywania danych magazynowanych w usłudze Wyszukiwanie AI platformy Azure, takich jak indeksy i mapy synonimów.

SearchServiceStatistics

Odpowiedź z żądania pobierania statystyk usługi. Jeśli to się powiedzie, obejmuje liczniki i limity poziomu usług.

SemanticConfiguration

Definiuje określoną konfigurację, która ma być używana w kontekście możliwości semantycznych.

SemanticDebugInfo

Opcje debugowania dla semantycznych zapytań wyszukiwania.

SemanticField

Pole używane w ramach konfiguracji semantycznej.

SemanticPrioritizedFields

Opisuje pola tytułów, zawartości i słów kluczowych, które mają być używane do semantycznego klasyfikowania, podpisów, wyróżnień i odpowiedzi.

SemanticSearch

Definiuje parametry indeksu wyszukiwania mającego wpływ na możliwości semantyczne.

SemanticSearchOptions

Definiuje opcje semantycznych zapytań wyszukiwania

SentimentSkill

Analiza tekstu dodatnio-ujemna analiza tonacji, oceniana jako wartość zmiennoprzecinkowa w zakresie od zera do 1.

SentimentSkillV3

Korzystając z interfejsu API analizy tekstu, ocenia tekst bez struktury i dla każdego rekordu, udostępnia etykiety tonacji (takie jak "negatywne", "neutralne" i "pozytywne") na podstawie najwyższego wskaźnika ufności znalezionego przez usługę na poziomie zdania i dokumentu.

ServiceCounters

Reprezentuje liczniki zasobów na poziomie usługi i limity przydziału.

ServiceLimits

Reprezentuje różne limity poziomu usług.

ShaperSkill

Umiejętność przekształcania danych wyjściowych. Tworzy typ złożony do obsługi pól złożonych (nazywanych również polami wieloczęściowym).

ShingleTokenFilter

Tworzy kombinacje tokenów jako pojedynczy token. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

SimpleField

Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola.

SingleVectorFieldResult

Wynik pojedynczego pola wektorowego. Both

SnowballTokenFilter

Filtr, który wynika ze słów przy użyciu stemmeru wygenerowanego przez Śnieżkę. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Definiuje zasady wykrywania usuwania danych, które implementują strategię usuwania nietrwałego. Określa, czy element powinien zostać usunięty na podstawie wartości wyznaczonej kolumny "usuwanie nietrwałe".

SplitSkill

Umiejętność dzielenia ciągu na fragmenty tekstu.

SqlIntegratedChangeTrackingPolicy

Definiuje zasady wykrywania zmian danych, które przechwytują zmiany przy użyciu funkcji zintegrowanego śledzenia zmian usługi Azure SQL Database.

StemmerOverrideTokenFilter

Zapewnia możliwość zastępowania innych filtrów ściągnięcia za pomocą niestandardowego ściągnięcia opartego na słowniku. Wszystkie terminy oparte na słowniku będą oznaczone jako słowa kluczowe, aby nie były one stemmers w dół łańcucha. Należy umieścić przed wszelkimi filtrami macierzystymi. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

Filtr macierzysty specyficzny dla języka. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. Zobacz https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StopAnalyzer

Dzieli tekst na litery inne niż litery; Stosuje małe litery i filtry tokenu stopword. Ten analizator jest implementowany przy użyciu platformy Apache Lucene.

StopwordsTokenFilter

Usuwa słowa zatrzymania ze strumienia tokenu. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

SuggestDocumentsResult

Odpowiedź zawierająca wyniki zapytania sugestii z indeksu.

SuggestRequest

Parametry filtrowania, sortowania, dopasowywania rozmytego i innych sugestii dotyczących zachowań zapytań.

Suggester

Definiuje sposób stosowania interfejsu API sugerowanego do grupy pól w indeksie.

SynchronizationState

Reprezentuje bieżący stan trwającej synchronizacji, która obejmuje wiele przebiegów indeksatora.

SynonymMap

Reprezentuje definicję mapy synonimów.

SynonymTokenFilter

Pasuje do synonimów pojedynczych lub wieloznanych w strumieniu tokenu. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

TagScoringFunction

Definiuje funkcję, która zwiększa wyniki dokumentów przy użyciu wartości ciągów pasujących do danej listy tagów.

TagScoringParameters

Udostępnia wartości parametrów funkcji oceniania tagów.

TextResult

Wynik BM25 lub klasyczny dla części tekstowej zapytania.

TextTranslationSkill

Umiejętność tłumaczenia tekstu z jednego języka na inny.

TextWeights

Definiuje wagi pól indeksu, dla których dopasowania powinny zwiększyć ocenianie w zapytaniach wyszukiwania.

TokenAuthAzureMachineLearningVectorizerParameters

Określa właściwości nawiązywania połączenia z wektoryzatorem AML przy użyciu tożsamości zarządzanej.

TruncateTokenFilter

Obcina terminy do określonej długości. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

UaxUrlEmailTokenizer

Tokenizuje adresy URL i wiadomości e-mail jako jeden token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

UniqueTokenFilter

Filtruje tokeny z tym samym tekstem co poprzedni token. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

VectorSearch

Zawiera opcje konfiguracji związane z wyszukiwaniem wektorów.

VectorSearchOptions

Definiuje opcje zapytań wyszukiwania wektorowego

VectorSearchProfile

Definiuje kombinację konfiguracji do użycia z wyszukiwaniem wektorowym.

VectorizableImageBinaryQuery

Parametry zapytania, które mają być używane do wyszukiwania wektorowego, gdy jest udostępniany zakodowany w formacie base 64 plik binarny obrazu, który musi zostać wektoryzowany.

VectorizableImageUrlQuery

Parametry zapytania do użycia do wyszukiwania wektorowego, gdy podano adres URL reprezentujący wartość obrazu, która musi być wektoryzowana.

VectorizableTextQuery

Parametry zapytania do użycia do wyszukiwania wektorowego, gdy zostanie podana wartość tekstowa, która musi zostać wektoryzowana.

VectorizedQuery

Parametry zapytania do użycia do wyszukiwania wektorów po podaniu nieprzetworzonej wartości wektora.

VectorsDebugInfo

"Zawiera informacje o debugowaniu specyficzne dla wyszukiwania wektorowego i hybrydowego.")

WebApiParameters

Określa właściwości nawiązywania połączenia z wektoryzatorem zdefiniowanym przez użytkownika.

WebApiSkill

Umiejętność, która może wywołać punkt końcowy internetowego interfejsu API, umożliwiając rozszerzenie zestawu umiejętności przez wywołanie kodu niestandardowego.

WebApiVectorizer

Określa wektoryzator zdefiniowany przez użytkownika do generowania wektora osadzania ciągu zapytania. Integracja zewnętrznego wektoryzatora jest osiągana przy użyciu niestandardowego internetowego interfejsu API zestawu umiejętności.

WebKnowledgeSource

Źródło wiedzy kierowane na wyniki w internecie.

WebKnowledgeSourceDomain

Konfiguracja domeny źródła wiedzy sieci Web.

WebKnowledgeSourceDomains

Konfiguracja zezwalania/blokowania domeny dla internetowego źródła wiedzy.

WebKnowledgeSourceParameters

Parametry źródła wiedzy internetowej.

WebKnowledgeSourceParams

Określa parametry środowiska uruchomieniowego dla internetowego źródła wiedzy

WordDelimiterTokenFilter

Dzieli wyrazy na subwords i wykonuje opcjonalne przekształcenia w grupach podrzędnych. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene.

Aliasy typu

AIFoundryModelCatalogName

Nazwa modelu osadzania z katalogu Azure AI Foundry, który zostanie wywołany.
KnownAIFoundryModelCatalogName może być używany zamiennie z AIFoundryModelCatalogName, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32: OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32
OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336: OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336
Facebook-DinoV2-Osadzenia obrazów-ViT-Baza: Facebook-DinoV2-Osadzenia obrazów-ViT-Base
Facebook-DinoV2-Osadzenia obrazów-ViT-Giant: Facebook-DinoV2-Osadzenia obrazów-ViT-Giant
Cohere-embed-v3-english: Cohere-embed-v3-english
Cohere-embed-v3-multilingual: Cohere-embed-v3-multilingual
Cohere-embed-v4: model Cohere embed v4 do generowania osadzania zarówno z tekstu, jak i obrazów.

AliasIterator

Iterator do wyświetlania listy aliasów, które istnieją w usłudze Search. Spowoduje to wykonanie żądań zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację.

AnalyzeTextOptions

Opcje analizowania operacji tekstowej.

AutocompleteMode

Określa tryb autouzupełniania. Wartość domyślna to "oneTerm". Użyj "twoTerms", aby uzyskać półpasiec i "oneTermWithContext", aby użyć bieżącego kontekstu do tworzenia terminów autouzupełniania.

AutocompleteOptions

Opcje pobierania tekstu uzupełniania dla częściowego tekstu searchText.

AzureMachineLearningVectorizerParameters

Określa właściwości nawiązywania połączenia z wektoryzatorem AML.

AzureOpenAIModelName

Nazwa modelu Azure Open AI, który zostanie wywołany.
ZnaneAzureOpenAIModelName można używać zamiennie z usługą AzureOpenAIModelName, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

text-embedding-ada-002: TextEmbeddingAda002 model.
text-embedding-3-large: TextEmbedding3Large model.
text-embedding-3-small: TextEmbedding3Small model.
gpt-5-mini: Model Gpt5Mini.
gpt-5-nano: Model Gpt5Nano.
gpt-5.4-mini: Model Gpt54Mini.
gpt-5.4-nano: Model Gpt54Nano.

BaseKnowledgeRetrievalIntent

Alias dla KnowledgeRetrievalIntentUnion

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Zawiera możliwe przypadki charfilter.

CharFilterName

Definiuje nazwy wszystkich filtrów znaków obsługiwanych przez wyszukiwarkę.
<xref:KnownCharFilterName> można używać zamiennie z CharFilterName, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

html_strip: filtr znaków, który próbuje usunąć konstrukcje HTML. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

ChatCompletionExtraParametersBehavior

Określa, jak Azure AI Foundry powinien obsługiwać 'extraParameters'. Wartość domyślna to "error".
KnownChatCompletionExtraParametersBehavior może być używany zamiennie z ChatCompletionExtraParametersBehavior, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

passThrough: przekazuje wszelkie dodatkowe parametry bezpośrednio do modelu.
drop: Usuwa wszystkie dodatkowe parametry.
error: Zgłasza błąd, jeśli występuje dowolny dodatkowy parametr.

ChatCompletionResponseFormatType

Określa, w jaki sposób LLM powinien sformatować odpowiedź.
KnownChatCompletionResponseFormatType może być używany zamiennie z ChatCompletionResponseFormatType, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

tekst: Format odpowiedzi w formie tekstu zwykłego.
jsonObject: Dowolny format odpowiedzi na obiekt JSON.
jsonSchema: format odpowiedzi zgodny ze schematem JSON.

CjkBigramTokenFilterScripts

Skrypty, które mogą być ignorowane przez CjkBigramTokenFilter.

CognitiveServicesAccount

Zawiera możliwe przypadki dla konta CognitiveServicesAccount.

ComplexDataType

Definiuje wartości parametru ComplexDataType. Możliwe wartości obejmują: "Edm.ComplexType", "Collection(Edm.ComplexType)"

ContentUnderstandingSkillChunkingUnit

Steruje kardynalnością jednostki porcji. Domyślnie to 'postacie'
KnownContentUnderstandingSkillChunkingUnit może być używany zamiennie z ContentUnderstandingSkillChunkingUnit, a ten enrum zawiera znane wartości, które usługa wspiera.

Znane wartości obsługiwane przez usługę

characters: Określa fragment według znaków.

ContentUnderstandingSkillExtractionOptions

Steruje kardynalnością zawartości wyodrębnionej z dokumentu przez umiejętność.
KnownContentUnderstandingSkillExtractionOptions mogą być używane zamiennie z ContentUnderstandingSkillExtractionOptions, to enum zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

images: Określ, że zawartość obrazu ma zostać wyodrębniona z dokumentu.
locationMetadata: Określ, że metadane lokalizacji powinny zostać wyodrębnione z dokumentu.

ContinuablePage

Interfejs opisujący stronę wyników.

CountDocumentsOptions

Opcje wykonywania operacji licznika w indeksie.

CreateAliasOptions

Opcje operacji tworzenia aliasu.

CreateDataSourceConnectionOptions

Opcje tworzenia operacji źródła danych.

CreateIndexOptions

Opcje tworzenia operacji indeksu.

CreateIndexerOptions

Opcje tworzenia operacji indeksatora.

CreateSkillsetOptions

Opcje tworzenia operacji zestawu umiejętności.

CreateSynonymMapOptions

Opcje tworzenia operacji synonimów.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Zawiera możliwe przypadki dla elementu DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Zawiera możliwe przypadki dla elementu DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opcje operacji usuwania dokumentów.

DocumentIntelligenceLayoutSkillChunkingUnit

Steruje kardynalnością jednostki porcji. Domyślnie to 'postacie'
KnownDocumentIntelligenceLayoutSkillChunkingUnit może być używany zamiennie z DocumentIntelligenceLayoutSkillChunkingUnit, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

characters: Określa fragment według znaków.

DocumentIntelligenceLayoutSkillExtractionOptions

Steruje kardynalnością zawartości wyodrębnionej z dokumentu przez umiejętność.
KnownDocumentIntelligenceLayoutSkillExtractionOptions może być używany zamiennie z DocumentIntelligenceLayoutSkillExtractionOptions, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

images: Określ, że zawartość obrazu ma zostać wyodrębniona z dokumentu.
locationMetadata: Określ, że metadane lokalizacji powinny zostać wyodrębnione z dokumentu.

DocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Głębokość nagłówków w danych wyjściowych języka Markdown. Wartość domyślna to h6.
KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth może być używany zamiennie z DocumentIntelligenceLayoutSkillMarkdownHeaderDepth, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

h1: Poziom nagłówka 1.
h2: Poziom nagłówka 2.
h3: Poziom nagłówka 3.
h4: Poziom nagłówka 4.
h5: Poziom nagłówka 5.
h6: Poziom nagłówka 6.

DocumentIntelligenceLayoutSkillOutputFormat

Steruje kardynalnością formatu wyjściowego. Wartość domyślna to "markdown".
KnownDocumentIntelligenceLayoutSkillOutputFormat może być używany zamiennie z DocumentIntelligenceLayoutSkillOutputFormat, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

text: Określ format danych wyjściowych jako tekst.
markdown: Określ format danych wyjściowych jako markdown.

DocumentIntelligenceLayoutSkillOutputMode

Steruje kardynalnością danych wyjściowych generowanych przez umiejętności. Wartość domyślna to "oneToMany".
KnownDocumentIntelligenceLayoutSkillOutputMode może być używany zamiennie z DocumentIntelligenceLayoutSkillOutputMode, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

oneToMany: określ, że dane wyjściowe powinny być analizowane jako "oneToMany".

EdgeNGramTokenFilterSide

Określa, z której strony danych wejściowych ma zostać wygenerowany n-gram.

EntityCategory

Ciąg wskazujący, jakie kategorie jednostek mają zostać zwrócone.
KnownEntityCategory może być używany zamiennie z EntityCategory, a ten enum zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

lokalizacja: Byty opisujące fizyczną lokalizację.
organizacja: Podmioty opisujące organizację.
osoba: Byty opisujące osobę.
ilość: Byty opisujące ilość.
datetime: Podmioty opisujące datę i godzinę.
URL: Podmioty opisujące adres URL.
e-mail: Podmioty opisujące adres e-mail.

EntityRecognitionSkillLanguage

Kody języków obsługiwane dla tekstu wejściowego przez EntityRecognitionSkill.
KnownEntityRecognitionSkillLanguage może być używany zamiennie z EntityRecognitionSkillLanguage, a ten enum zawiera znane wartości, które obsługuje usługa.

Znane wartości obsługiwane przez usługę

ar: arabski
cs: czeski
zh-Hans: Chinese-Simplified
zh-Hant: Chinese-Traditional
da: Duński
nl: holenderski
en: angielski
fi: fiński
fr: francuski
de: niemiecki
el: grecka
hu: węgierski
to: włoski
ja: japoński
KO: Koreańczyk
nie: norweski (bokmaal)
pl: Polski
pt-PT: portugalski (Portugalia)
pt-BR: portugalski (Brazylia)
ru: rosyjski
es: hiszpański
sv: Szwedzki
tr: turecki

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Zawiera opcje konfiguracji specyficzne dla wyczerpującego algorytmu KNN używanego podczas wykonywania zapytań, które będą wykonywać wyszukiwanie siłowe w całym indeksie wektorów.

ExtractDocumentKey
GetAliasOptions

Opcje uzyskiwania operacji aliasu.

GetDataSourceConnectionOptions

Opcje pobierania operacji źródła danych.

GetIndexOptions

Opcje pobierania operacji indeksu.

GetIndexStatisticsOptions

Opcje pobierania operacji statystyk indeksu.

GetIndexerOptions

Opcje pobierania operacji indeksatora.

GetIndexerStatusOptions

Opcje pobierania operacji stanu indeksatora.

GetServiceStatisticsOptions

Opcje pobierania operacji statystyk usługi.

GetSkillSetOptions

Opcje uzyskiwania operacji zestawu umiejętności.

GetSynonymMapsOptions

Opcje pobierania operacji synonimów.

HnswAlgorithmConfiguration

Zawiera opcje konfiguracji specyficzne dla algorytmu hnsw przybliżonych najbliższych sąsiadów używanych w czasie indeksowania.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Operacja, która ma zostać wykonana na dokumencie w partii indeksowania.

IndexDocumentsAction

Reprezentuje akcję indeksu działającą w dokumencie.

IndexIterator

Iterator do wyświetlania listy indeksów, które istnieją w usłudze Search. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację.

IndexNameIterator

Iterator do wyświetlania listy indeksów, które istnieją w usłudze Search. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację.

IndexProjectionMode

Definiuje zachowanie projekcji indeksu w odniesieniu do pozostałej części indeksatora.
KnownIndexProjectionMode można używać zamiennie z indeksem IndexProjectionMode, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

skipIndexingParentDocuments: dokument źródłowy zostanie pominięty podczas zapisywania w indeksie docelowym indeksatora.
includeIndexingParentDocuments: dokument źródłowy zostanie zapisany w indeksie docelowym indeksatora. Jest to wzorzec domyślny.

IndexerExecutionEnvironment
IndexerExecutionStatus

Reprezentuje stan pojedynczego wykonania indeksatora.

IndexerResyncOption

Opcje z różnymi typami danych uprawnień do indeksowania.
KnownIndexerResyncOption może być używany zamiennie z IndexerResyncOption, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

uprawnienia: indeksator do ponownego pozyskiwania wstępnie wybranych danych uprawnień ze źródła danych do indeksu.

IndexerStatus

Reprezentuje ogólny stan indeksatora.

KeyPhraseExtractionSkillLanguage
KnowledgeBaseActivityRecord

Alias dla KnowledgeBaseActivityRecordUnion

KnowledgeBaseActivityRecordType

Rodzaj rejestru aktywności.
<xref:KnownKnowledgeBaseActivityRecordType> może być używany zamiennie z KnowledgeBaseActivityRecordType, a ten enum zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

searchIndex: Wyszukiwanie aktywności wyszukiwania indeksu.
azureBlob: Aktywność odzyskiwania Blob Azure.
indexedOneLake: Indeksowana aktywność odzyskiwania OneLake.
web: Aktywność wyszukiwania sieci.
modelWebSummarization: Aktywność podsumowania LLM w sieci.
AgenticReasoning: Aktywność rozumowania agentic.

KnowledgeBaseIterator

Iterator do wypisywania baz wiedzy istniejących w usłudze wyszukiwania. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację.

KnowledgeBaseMessageContent

Alias dla KnowledgeBaseMessageContentUnion

KnowledgeBaseMessageContentType

Typ treści wiadomości.
<xref:KnownKnowledgeBaseMessageContentType> może być używany zamiennie z KnowledgeBaseMessageContentType, a ten enum zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

tekst: Rodzaj treści wiadomości tekstowej.
obraz: Rodzaj treści wiadomości obrazowej.

KnowledgeBaseModel
KnowledgeBaseModelKind

Model sztucznej inteligencji, który ma być używany do planowania zapytań.
KnownKnowledgeBaseModelKind może być używany zamiennie z KnowledgeBaseModelKind, a ten enum zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

azureOpenAI: Wykorzystaj Azure otwarte modele AI do planowania zapytań.

KnowledgeBaseReference

Alias dla KnowledgeBaseReferenceUnion

KnowledgeBaseReferenceType

Typ odwołania.
<xref:KnownKnowledgeBaseReferenceType> może być używany zamiennie z KnowledgeBaseReferenceType, a ten enum zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

searchIndex: Wyszukaj indeks referencyjny dokumentu.
azureBlob: Azure Dokument Blob referencja.
indexedOneLake: Indeksowany dokument referencyjny OneLake.
web: Referencja do dokumentu internetowego.

KnowledgeRetrievalIntentType

Rodzaj konfiguracji bazy wiedzy, która ma być używana.
<xref:KnownKnowledgeRetrievalIntentType> może być używany zamiennie z KnowledgeRetrievalIntentType, ten enum zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

semantyczne: Intencja zapytania semantycznego w języku naturalnym.

KnowledgeRetrievalReasoningEffortKind

Ilość wysiłku do użycia podczas pobierania.
<xref:KnownKnowledgeRetrievalReasoningEffortKind> może być używany zamiennie z KnowledgeRetrievalReasoningEffortKind, ten enum zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

minimalne: Nie wykonuje żadnych selekcji źródeł, planowania zapytań ani wyszukiwania iteracyjnego.

KnowledgeRetrievalReasoningEffortUnion

Alias dla KnowledgeRetrievalReasoningEffortUnion

KnowledgeSource
KnowledgeSourceContentExtractionMode

Opcjonalny tryb wyodrębniania zawartości. Wartość domyślna to "minimalny".
<xref:KnownKnowledgeSourceContentExtractionMode> może być używany zamiennie z KnowledgeSourceContentExtractionMode, a ten enum zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

minimalne: Usuwa tylko niezbędne metadane, odkładając większość przetwarzania treści.
Standard: Wykonuje pełny domyślny proces ekstrakcji treści.

KnowledgeSourceIterator

Iterator do wypisywania źródeł wiedzy istniejących w usłudze wyszukiwania. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację.

KnowledgeSourceKind

Rodzaj źródła wiedzy.
KnownKnowledgeSourceKind może być używany zamiennie z KnowledgeSourceKind, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

searchIndex: źródło wiedzy, które odczytuje dane z indeksu wyszukiwania.
azureBlob: źródło wiedzy, które odczytuje i pozyskuje dane z Azure Blob Storage do indeksu wyszukiwania.
indexedOneLake: Źródło wiedzy odczytujące dane z indeksowanego OneLake.
web: Źródło wiedzy, które odczytuje dane z internetu.

KnowledgeSourceParams

Alias dla KnowledgeSourceParamsUnion

KnowledgeSourceSynchronizationStatus

Bieżący stan synchronizacji źródła wiedzy.
<xref:KnownKnowledgeSourceSynchronizationStatus> może być używany zamiennie z KnowledgeSourceSynchronizationStatus, ten enum zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

tworzenie: Źródło wiedzy jest udostępniane.
aktywne: Źródło wiedzy jest aktywne i zachodzą synchronizacje.
Usuwanie: Źródło wiedzy jest usuwane, a synchronizacja jest wstrzymywana.

KnowledgeSourceVectorizer
LexicalAnalyzer

Zawiera możliwe przypadki analizatora.

LexicalAnalyzerName

Definiuje nazwy wszystkich analizatorów tekstu obsługiwanych przez wyszukiwarkę.
KnownLexicalAnalyzerName może być używany zamiennie z LexicalAnalyzerName, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

ar.microsoft: Microsoft analyzer for Arabski.
ar.lucene: Analizator Lucene dla języka arabskiego.
hy.lucene: Analizator Lucene dla Ormiańskiego.
bn.microsoft: Microsoft analyzer dla języka bengalskiego.
eu.lucene: Analizator Lucene dla Basków.
bg.microsoft: Microsoft analyzer for Bułgarski.
bg.lucene: Analizator Lucene dla Bułgarii.
ca.microsoft: Microsoft analyzer for Katalończyk.
ca.lucene: Analizator Lucene dla Katalończyków.
zh-Hans.microsoft: Microsoft analyzer for Chinese (uproszczony).
zh-Hans.lucene: Analizator Lucene dla języka chińskiego (uproszczony).
zh-Marketplace.microsoft: Microsoft analyzer for Chinese (Tradycyjny).
zh-Bungalow.lucene: Analizator Lucene dla języka chińskiego (tradycyjny).
hr.microsoft: Microsoft analyzer for Chorwacki.
cs.microsoft: Microsoft analyzer dla języka czeskiego.
cs.lucene: Analizator Lucene dla Czech.
da.microsoft: Microsoft analyzer dla języka duńskiego.
da.lucene: Analizator Lucene dla języka duńskiego.
nl.microsoft: Microsoft analyzer dla języka niderlandzkiego.
nl.lucene: Analizator Lucene dla Holendrów.
en.microsoft: Microsoft analyzer dla języka angielskiego.
en.lucene: Analizator Lucene dla języka angielskiego.
et.microsoft: Microsoft analyzer for Estończyk.
fi.microsoft: Microsoft analyzer dla języka fińskiego.
fi.lucene: Analizator Lucene dla fińskiego.
fr.microsoft: Microsoft Analyzer dla języka francuskiego.
fr.lucene: Analizator Lucene dla języka francuskiego.
gl.lucene: Analizator Lucene dla Galicji.
de.microsoft: Microsoft analyzer dla języka niemieckiego.
de.lucene: Analizator Lucene dla języka niemieckiego.
el.microsoft: Microsoft analyzer dla języka greckiego.
el.lucene: Analizator Lucene dla języka greckiego.
gu.microsoft: Microsoft analyzer dla języka gudżarati.
he.microsoft: Microsoft analyzer for Hebrajski.
hi.microsoft: Microsoft analyzer dla języka hindi.
hi.lucene: Analizator Lucene dla języka hindi.
hu.microsoft: Microsoft analyzer dla języka węgierskiego.
hu.lucene: Analizator Lucene dla Węgier.
is.microsoft: Microsoft analyzer dla języka islandzkiego.
id.microsoft: Microsoft analyzer for Indonezyjski (Bahasa).
id.lucene: Analizator Lucene dla Indonezyjczyka.
ga.lucene: Analizator Lucene dla Irlandii.
it.microsoft: Microsoft analyzer dla języka włoskiego.
it.lucene: Analizator Lucene dla Włoch.
ja.microsoft: Microsoft Analyzer dla języka japońskiego.
ja.lucene: Analizator Lucene dla języka japońskiego.
kn.microsoft: Microsoft Analyzer dla Kannada.
ko.microsoft: Microsoft analyzer dla języka koreańskiego.
ko.lucene: Analizator Lucene dla języka koreańskiego.
lv.microsoft: Microsoft analyzer for Łotewski.
lv.lucene: Analizator Lucene dla Łotewskiego.
lt.microsoft: Microsoft analyzer for Litewski.
ml.microsoft: Microsoft analyzer dla języka malayalam.
ms.microsoft: Microsoft Analyzer dla języka malajskiego (łacińskiego).
mr.microsoft: Microsoft analyzer dla Marathi.
nb. microsoft: Microsoft analizator norweskiego (Bokmål).
no.lucene: Analizator Lucene dla Norweskiego.
fa.lucene: Analizator Lucene perski.
pl.microsoft: Microsoft analyzer dla języka polskiego.
pl.lucene: Analizator Lucene dla polski.
pt-BR.microsoft: Microsoft analyzer for Portuguese (Brazylia).
pt-BR.lucene: Analizator Lucene dla języka portugalskiego (Brazylia).
pt-PT.microsoft: Microsoft analyzer for Portuguese (Portugalia).
pt-PT.lucene: Analizator Lucene dla języka portugalskiego (Portugalia).
pa.microsoft: Microsoft analyzer dla języka pendżabskiego.
ro.microsoft: Microsoft analyzer for Rumun.
ro.lucene: Analizator Lucene dla Rumunii.
ru.microsoft: Microsoft analyzer dla języka rosyjskiego.
ru.lucene: Analizator Lucene dla języka rosyjskiego.
sr-cyrylica.microsoft: Microsoft analyzer for Serbian (Cyrylica).
sr-latin.microsoft: Microsoft analyzer dla języka serbskiego (łacińskiego).
sk.microsoft: Microsoft analyzer for Słowacki.
sl.microsoft: Microsoft analyzer for Słowenia.
es.microsoft: Microsoft analyzer dla języka hiszpańskiego.
es.lucene: Analizator Lucene dla języka hiszpańskiego.
sv.microsoft: Microsoft analyzer dla języka szwedzkiego.
sv.lucene: Analizator Lucene dla szwecji.
ta.microsoft: Microsoft analyzer dla języka tamilskiego.
te.microsoft: Microsoft analyzer dla telugu.
th.microsoft: Microsoft analyzer dla języka tajskiego.
th.lucene: Analizator Lucene dla języka tajskiego.
tr.microsoft: Microsoft analyzer dla języka tureckiego.
tr.lucene: Analizator Lucene dla Turcji.
uk.microsoft: Microsoft analyzer dla języka ukraińskiego.
your.microsoft: Microsoft analyzer for Urdu.
vi.microsoft: Microsoft analyzer dla wietnamskiego.
standard.lucene: Standardowy analizator Lucene.
standardasciifolding.lucene: Standardowy analizator składania ASCII Lucene. Zobacz https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
słowo kluczowe: traktuje całą zawartość pola jako pojedynczy token. Jest to przydatne w przypadku danych, takich jak kody pocztowe, identyfikatory i niektóre nazwy produktów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
wzorzec: Elastycznie oddziela tekst na terminy za pomocą wzorca wyrażenia regularnego. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
proste: dzieli tekst na litery inne niż litery i konwertuje je na małe litery. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
zatrzymać: dzieli tekst na litery inne niż litery; Stosuje małe litery i filtry tokenu stopword. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
biały znak: analizator używający tokenizatora odstępów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizer

Zawiera możliwe przypadki leksykalneNormalizer.

LexicalNormalizerName

Definiuje nazwy wszystkich normalizatorów tekstu obsługiwanych przez wyszukiwarkę.
KnownLexicalNormalizerName może być używany zamiennie z LexicalNormalizerName, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

asciifolding: konwertuje alfabetyczne, liczbowe i symboliczne znaki Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (blok Unicode "Basic Latin") na ich odpowiedniki ASCII, jeśli takie odpowiedniki istnieją. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
elizji: usuwa elizji. Na przykład "l'avion" (płaszczyzna) zostanie przekonwertowana na "avion" (płaszczyzna). Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
małe litery: Normalizuje tekst tokenu na małe litery. Zobacz https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
standard: Normalizator standardowy, który składa się z małych liter i asciifolding. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
wielkie litery: normalizuje tekst tokenu na wielkie litery. Zobacz https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizer

Zawiera możliwe przypadki tokenizatora.

LexicalTokenizerName

Definiuje nazwy wszystkich tokenizatorów obsługiwanych przez wyszukiwarkę.
<xref:KnownLexicalTokenizerName> można używać zamiennie z lexicalTokenizerName, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

klasyczny: tokenizer oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: Tokenizuje dane wejściowe z krawędzi do n-gramów danego rozmiaru. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: emituje całe dane wejściowe jako pojedynczy token. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
litera: dzieli tekst na litery inne niż litery. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
małe litery: dzieli tekst na litery inne niż litery i konwertuje je na małe litery. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: dzieli tekst przy użyciu reguł specyficznych dla języka.
microsoft_language_stemming_tokenizer: dzieli tekst przy użyciu reguł specyficznych dla języka i zmniejsza wyrazy do ich podstawowych formularzy.
nGram: Tokenizuje dane wejściowe do n-gramów danego rozmiaru. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer dla hierarchii przypominających ścieżkę. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
wzorzec: Tokenizer, który używa dopasowania wzorca wyrażeń regularnych do konstruowania unikatowych tokenów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Standardowy analizator Lucene; Składa się z standardowego tokenizatora, małe litery filtru i filtru zatrzymania. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokenizuje adresy URL i wiadomości e-mail jako jeden token. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
biały znak: dzieli tekst w biały znak. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListAliasesOptions

Opcje operacji aliasów listy.

ListDataSourceConnectionsOptions

Opcje operacji list źródeł danych.

ListIndexersOptions

Opcje operacji indeksatorów listy.

ListIndexesOptions

Opcje operacji indeksów listy.

ListSkillsetsOptions

Opcje operacji zestawów umiejętności listy.

ListSynonymMapsOptions

Opcje operacji synonimów listyMaps.

MarkdownHeaderDepth

Określa maksymalną głębokość nagłówka, która będzie brana pod uwagę podczas grupowania zawartości markdown. Wartość domyślna to h6.
KnownMarkdownHeaderDepth może być używany zamiennie z MarkdownHeaderDepth, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

h1: wskazuje, że nagłówki do poziomu h1 będą brane pod uwagę podczas grupowania zawartości markdown.
h2: wskazuje, że nagłówki do poziomu h2 będą brane pod uwagę podczas grupowania zawartości markdown.
h3: wskazuje, że nagłówki do poziomu h3 będą brane pod uwagę podczas grupowania zawartości markdown.
h4: wskazuje, że nagłówki do poziomu h4 będą brane pod uwagę podczas grupowania zawartości markdown.
h5: wskazuje, że nagłówki do poziomu h5 będą brane pod uwagę podczas grupowania zawartości markdown.
h6: wskazuje, że nagłówki do poziomu h6 będą brane pod uwagę podczas grupowania zawartości markdown. Jest to opcja domyślna.

MarkdownParsingSubmode

Określa tryb podrzędny, który określi, czy plik markdown zostanie przeanalizowany w dokładnie jednym dokumencie wyszukiwania, czy w wielu dokumentach wyszukiwania. Wartość domyślna to oneToMany.
KnownMarkdownParsingSubmode może być używany zamiennie z MarkdownParsingSubmode, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

oneToMany: wskazuje, że każda sekcja pliku markdown (do określonej głębokości) zostanie przeanalizowana w poszczególnych dokumentach wyszukiwania. Może to spowodować utworzenie wielu dokumentów wyszukiwania w jednym pliku markdown. Jest to domyślny tryb podrzędny.
oneToOne: wskazuje, że każdy plik markdown zostanie przeanalizowany w jednym dokumencie wyszukiwania.

MergeDocumentsOptions

Opcje operacji scalania dokumentów.

MergeOrUploadDocumentsOptions

Opcje operacji scalania lub przekazywania dokumentów.

MicrosoftStemmingTokenizerLanguage

Lista języków obsługiwanych przez tokenizer języka Microsoft.

MicrosoftTokenizerLanguage

Lista języków obsługiwanych przez tokenizator języka Microsoft.

NarrowedModel

Zawęża typ modelu, aby uwzględnić tylko wybrane pola

OcrLineEnding

Definiuje sekwencję znaków do użycia między wierszami tekstu rozpoznawanych przez umiejętności OCR. Wartość domyślna to "spacja".
KnownOcrLineEnding można używać zamiennie z OcrLineEnding, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

spacji: Linie są oddzielone pojedynczym znakiem spacji.
karetkiPrzewróć: Linie są oddzielone znakiem powrotu karetki ("\r').
lineFeed: Linie są oddzielone pojedynczym kanałem informacyjnym wiersza ("\n').
karetkiReturnLineFeed: Linie są oddzielone znakiem powrotu karetki i znakiem wsuwu wiersza ("\r\n').

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Identyfikuje typ kodera fonetycznego, który ma być używany z filtrem PhoneticTokenFilter.

QueryAnswer

Wartość określająca, czy odpowiedzi powinny być zwracane w ramach odpowiedzi wyszukiwania. Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania jest "semantyczny". Jeśli ustawiono wartość extractive, zapytanie zwraca odpowiedzi wyodrębnione z kluczowych fragmentów w najbardziej sklasyfikowanych dokumentach.

QueryCaption

Wartość określająca, czy podpisy powinny być zwracane w ramach odpowiedzi wyszukiwania. Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania jest "semantyczny". W przypadku ustawienia zapytanie zwraca podpisy wyodrębnione z kluczowych fragmentów w najwyżej sklasyfikowanych dokumentach. Gdy napisy są "wyodrębnione", wyróżnianie jest domyślnie włączone. Wartość domyślna to "none".

QueryDebugMode

Włącza narzędzie do debugowania, którego można użyć do dalszego eksplorowania wyników wyszukiwania. Możesz włączyć wiele trybów debugowania jednocześnie, oddzielając je znakiem | znak, na przykład: semantic|queryRewrites.
KnownQueryDebugMode może być używany zamiennie z QueryDebugMode, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

wyłączone: Nie zostaną zwrócone żadne informacje debugowania zapytania.
semantyczne: umożliwia użytkownikowi dalsze eksplorowanie wyników o zmienionej klasyfikacji.
vector: umożliwia użytkownikowi dalsze eksplorowanie wyników zapytania hybrydowego i wektorowego.
queryRewrites: umożliwia użytkownikowi eksplorowanie listy ponownych zapisów zapytań wygenerowanych dla żądania wyszukiwania.
innerHits: umożliwia użytkownikowi pobieranie informacji o ocenianiu dotyczących wektorów dopasowanych w kolekcji typów złożonych.
all: Włącz wszystkie opcje debugowania.

QueryRewrites

Definiuje opcje ponownego zapisywania zapytań.

QueryType

Określa składnię zapytania wyszukiwania. Wartość domyślna to "simple". Użyj wartości "pełna", jeśli zapytanie używa składni zapytania Lucene i "semantycznej", jeśli składnia zapytania nie jest potrzebna.
<xref:KnownQueryType> może być używany zamiennie z QueryType, ten enum zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

Proste: Używa składni prostych zapytań do wyszukiwania. Wyszukiwany tekst jest interpretowany przy użyciu prostego języka zapytań, który zezwala na symbole, takie jak +, * i "". Zapytania są domyślnie oceniane we wszystkich polach z możliwością wyszukiwania, chyba że określono parametr searchFields.
pełna: Wykorzystuje pełną składnię zapytań Lucene do wyszukiwań. Tekst wyszukiwania jest interpretowany przy użyciu języka zapytań Lucene, który umożliwia wyszukiwanie specyficzne dla pola i ważone, a także inne zaawansowane funkcje.
Semantyczne: Najlepiej nadaje się do zapytań wyrażanych językiem naturalnym, a nie słowami głównymi. Zwiększa precyzję wyników wyszukiwania przez ponowne uszeregowanie najlepszych wyników wyszukiwania przy użyciu modelu klasyfikacji wytrenowanego w korpusie sieci Web.

RankingOrder

Reprezentuje wynik, który ma być używany do sortowania dokumentów.
KnownRankingOrder może być używany zamiennie z RankingOrder, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

BoostedRerankerScore: Ustawia porządek sortowania jako BoostedRerankerScore
RerankerScore: Ustawia porządek sortowania jako ReRankerScore

RegexFlags
ResetIndexerOptions

Opcje resetowania operacji indeksatora.

RunIndexerOptions

Opcje uruchamiania operacji indeksatora.

ScoringFunction

Zawiera możliwe przypadki ocenianiaFunction.

ScoringFunctionAggregation

Definiuje funkcję agregacji używaną do łączenia wyników wszystkich funkcji oceniania w profilu oceniania.

ScoringFunctionInterpolation

Definiuje funkcję używaną do interpolacji zwiększania wyników w zakresie dokumentów.

ScoringStatistics

Wartość określająca, czy chcemy obliczyć statystyki oceniania (takie jak częstotliwość dokumentu) globalnie w celu uzyskania bardziej spójnego oceniania lub lokalnie w celu uzyskania mniejszego opóźnienia. Wartość domyślna to "lokalna". Użyj wartości "global", aby zagregować statystyki punktacji globalnie przed oceną. Korzystanie z globalnych statystyk punktacji może zwiększyć opóźnienie zapytań wyszukiwania.

SearchField

Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola.

SearchFieldArray

Jeśli TModel jest nietypowym obiektem, nietypowa tablica ciągów w przeciwnym razie pola rozdzielane ukośnikami TModel.

SearchFieldDataType

Definiuje wartości parametru SearchFieldDataType.

Znane wartości obsługiwane przez usługę:

Edm.String: wskazuje, że pole zawiera ciąg.

Edm.Int32: wskazuje, że pole zawiera 32-bitową liczbę całkowitą ze znakiem.

Edm.Int64: wskazuje, że pole zawiera 64-bitową liczbę całkowitą ze znakiem.

Edm.Double: wskazuje, że pole zawiera liczbę zmiennoprzecinkową IEEE o podwójnej precyzji.

Edm.Boolean: wskazuje, że pole zawiera wartość logiczną (prawda lub fałsz).

Edm.DateTimeOffset: wskazuje, że pole zawiera wartość daty/godziny, w tym informacje o strefie czasowej.

Edm.GeographyPoint: Wskazuje, że pole zawiera lokalizację geograficzną pod względem długości geograficznej i szerokości geograficznej.

Edm.ComplexType: wskazuje, że pole zawiera jeden lub więcej złożonych obiektów, które z kolei mają pola podrzędne innych typów.

Edm.Single: wskazuje, że pole zawiera liczbę zmiennoprzecinkową o pojedynczej precyzji. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Single).

Edm.Half: wskazuje, że pole zawiera liczbę zmiennoprzecinkową o pół precyzji. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Half).

Edm.Int16: Wskazuje, że pole zawiera 16-bitową liczbę całkowitą ze znakiem. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Int16).

Edm.SByte: wskazuje, że pole zawiera 8-bitową liczbę całkowitą ze znakiem. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.SByte).

Edm.Byte: wskazuje, że pole zawiera 8-bitową liczbę całkowitą bez znaku. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Byte).

SearchIndexAlias

Wyszukaj obiekt aliasu.

SearchIndexerDataIdentity

Zawiera możliwe przypadki elementu SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Zawiera możliwe przypadki umiejętności.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opcje wyszukiwaniaIndexingBufferedSenderUploadDocuments.

SearchIterator

Iterator wyników wyszukiwania zapytania patykowego. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację.

SearchMode

Określa, czy którykolwiek lub wszystkie wyszukiwane terminy muszą być dopasowane, aby dokument został uznany za zgodny.

SearchOptions

Opcje zatwierdzania pełnego żądania wyszukiwania.

SearchPick

Głęboko wybierz pola T przy użyciu prawidłowych ścieżek $select AI Search OData.

SearchRequestOptions

Parametry do filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania.

SearchRequestQueryTypeOptions
SearchResult

Zawiera dokument znaleziony przez zapytanie wyszukiwania oraz skojarzone metadane.

SelectFields

Tworzy unię prawidłowych ścieżek OData $select AI Search dla T przy użyciu przechodzenia po kolejności drzewa pola zakorzenionego w T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType

Typ częściowej odpowiedzi, która została zwrócona dla żądania klasyfikacji semantycznej.
ZnanySemanticSearchResultsType może być używany zamiennie z SemanticSearchResultsType, ten enum zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

baseResults: Wyniki bez żadnego wzbogacenia semantycznego ani zmiany rankingu.
rerankedResults: Wyniki zostały ponownie ocenione według modelu rerankera i będą zawierać podpisy semantyczne. Nie będą one zawierać żadnych odpowiedzi, wyróżnień odpowiedzi ani wyróżnień podpisów.

SentimentSkillLanguage

Kody języków obsługiwane dla tekstu wejściowego przez SentimentSkill.
KnownSentimentSkillLanguage może być używany zamiennie z SentimentSkillLanguage, a ten enum zawiera znane wartości, które usługa wspiera.

Znane wartości obsługiwane przez usługę

da: Duński
nl: holenderski
en: angielski
fi: fiński
fr: francuski
de: niemiecki
el: grecka
to: włoski
nie: norweski (bokmaal)
pl: Polski
pt-PT: portugalski (Portugalia)
ru: rosyjski
es: hiszpański
sv: Szwedzki
tr: turecki

Similarity

Alias dla SimilarityAlgorithmUnion

SimilarityAlgorithm

Zawiera możliwe przypadki podobieństwa.

SnowballTokenFilterLanguage

Język, który ma być używany dla filtru tokenów Snowball.

SplitSkillLanguage
StemmerTokenFilterLanguage

Język, który ma być używany dla filtru tokenu stemmer.

StopwordsList

Identyfikuje wstępnie zdefiniowaną listę słów zatrzymania specyficznych dla danego języka.

SuggestNarrowedModel
SuggestOptions

Opcje pobierania sugestii na podstawie elementu searchText.

SuggestResult

Wynik zawierający dokument znaleziony przez zapytanie sugestii oraz skojarzone metadane.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Reprezentuje klasy znaków, na których może działać filtr tokenów.

TokenFilter

Zawiera możliwe przypadki tokenfiltru.

TokenFilterName

Definiuje nazwy wszystkich filtrów tokenów obsługiwanych przez wyszukiwarkę.
<xref:KnownTokenFilterName> można używać zamiennie z TokenFilterName, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

arabic_normalization: filtr tokenu, który stosuje arabski normalizator w celu normalizacji orthografii. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrof: Usuwa wszystkie znaki po apostrofie (w tym sam apostrof). Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: konwertuje alfabetyczne, liczbowe i symboliczne znaki Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (blok Unicode "Basic Latin") na ich odpowiedniki ASCII, jeśli takie odpowiedniki istnieją. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: Tworzy bigramy terminów CJK generowanych na podstawie standardowego tokenizatora. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: normalizuje różnice szerokości zestawu CJK. Łączy warianty ASCII o pełnej szerokości w odpowiedni podstawowy łacinę, a warianty katakany o półszerokości w odpowiednik Kana. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
klasycznego: usuwa angielskie opętacze i kropki z akronimów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: Konstruowanie bigramów dla często występujących terminów podczas indeksowania. Pojedyncze terminy są również indeksowane, a bigramy są nakładane. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: generuje n-gramy danych rozmiarów, począwszy od przodu lub z tyłu tokenu wejściowego. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elizji: usuwa elizji. Na przykład "l'avion" (płaszczyzna) zostanie przekonwertowana na "avion" (płaszczyzna). Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Normalizuje niemieckie znaki według algorytmu heurystyki niemieckiej 2. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: normalizuje tekst w języku hindi, aby usunąć pewne różnice w odmianach pisowni. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normalizuje reprezentację tekstu w formacie Unicode w językach indyjskich. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: emituje dwa razy każdy token przychodzący, raz jako słowo kluczowe i raz jako nie-słowo kluczowe. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: wysokowydajny filtr kstem dla języka angielskiego. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
długości: usuwa wyrazy, które są za długie lub zbyt krótkie. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limit: ogranicza liczbę tokenów podczas indeksowania. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
małe litery: normalizuje tekst tokenu na małe litery. Zobacz https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: generuje n-gramy danego rozmiaru. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Stosuje normalizację dla perskich. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetyczne: tworzenie tokenów dla dopasowań fonetycznych. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: używa algorytmu macierzystego portera do przekształcania strumienia tokenu. Zobacz http://tartarus.org/~martin/PorterStemmer
odwrotne: odwraca ciąg tokenu. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Normalizuje użycie zamiennych znaków skandynawskich. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Folds, skandynawskie znaki ÅŢ... äã¦"Æ->a i ã¶Ã–ã ̧à ̃-o>. Dyskryminuje również stosowanie podwójnych ślubów aa, ae, ao, oe i oo, pozostawiając tylko pierwszy. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle: tworzy kombinacje tokenów jako pojedynczy token. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
śnieżka: filtr, który wynika ze słów przy użyciu stemmera wygenerowanego przez Snowball. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: normalizuje reprezentację Unicode tekstu Sorani. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: filtr macierzysty specyficzny dla języka. Zobacz https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
stopwords: usuwa słowa zatrzymania ze strumienia tokenu. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
przycinanie: przycina wiodące i końcowe białe znaki z tokenów. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
obcięcie: obcina terminy do określonej długości. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unikatowy: filtruje tokeny z tym samym tekstem co poprzedni token. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
wielkie litery: normalizuje tekst tokenu na wielkie litery. Zobacz https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: dzieli wyrazy na subwords i wykonuje opcjonalne przekształcenia w grupach podrzędnych.

UnionToIntersection
UploadDocumentsOptions

Opcje operacji przekazywania dokumentów.

VectorEncodingFormat

Format kodowania służący do interpretowania zawartości pola wektorowego.
KnownVectorEncodingFormat można używać zamiennie z wektoremEncodingFormat, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

pakowaneBit: format kodowania reprezentujący bity pakowane w szerszy typ danych.

VectorFilterMode
VectorQuery

Parametry zapytania dla wektorów i zapytań wyszukiwania hybrydowego.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Zawiera opcje konfiguracji specyficzne dla metody kompresji używanej podczas indeksowania lub wykonywania zapytań.

VectorSearchCompressionKind

Metoda kompresji używana do indeksowania i wykonywania zapytań.
KnownVectorSearchCompressionKind można używać zamiennie z elementem VectorSearchCompressionKind, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

scalarQuantization: Scalar Quantization, typ metody kompresji. W kwantyzacji skalarnej wartości oryginalnych wektorów są kompresowane do węższego typu przez dyskretyzowanie i reprezentowanie każdego składnika wektora przy użyciu ograniczonego zestawu kwantyzowanych wartości, zmniejszając w ten sposób ogólny rozmiar danych.
binaryQuantization: Kwantyzacja binarna, typ metody kompresji. W kwantyzacji binarnej oryginalne wartości wektorów są kompresowane do węższego typu binarnego przez dyskretyzowanie i reprezentowanie każdego składnika wektora przy użyciu wartości binarnych, zmniejszając w ten sposób ogólny rozmiar danych.

VectorSearchCompressionRescoreStorageMethod

Metoda przechowywania oryginalnych wektorów o pełnej precyzji używanych do ponownego oceniania i operacji indeksu wewnętrznego.
KnownVectorSearchCompressionRescoreStorageMethod może być używany zamiennie z VectorSearchCompressionRescoreStorageMethod, to wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

preserveOriginals: Ta opcja powoduje zachowanie oryginalnych wektorów o pełnej precyzji. Wybierz tę opcję, aby uzyskać maksymalną elastyczność i najwyższą jakość skompresowanych wyników wyszukiwania. Zużywa to więcej miejsca do magazynowania, ale umożliwia ponownekorowanie i nadmierne próbkowanie.
discardOriginals: Ta opcja powoduje odrzucenie oryginalnych wektorów o pełnej precyzji. Wybierz tę opcję, aby uzyskać maksymalne oszczędności magazynu. Ponieważ ta opcja nie pozwala na ponownekorowanie i nadmierne próbkowanie, często powoduje niewielkie umiarkowane obniżenie jakości.

VectorSearchCompressionTarget

Skwantyzowany typ danych skompresowanych wartości wektorowych.
KnownVectorSearchCompressionTarget można używać zamiennie z elementem VectorSearchCompressionTarget, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

int8: 8-bitowa liczba całkowita ze znakiem.

VectorSearchVectorizer

Zawiera opcje konfiguracji dotyczące sposobu wektoryzacji zapytań wektorów tekstowych.

VectorSearchVectorizerKind

Metoda wektoryzacji, która ma być używana w czasie wykonywania zapytania.
KnownVectorSearchVectorizerKind można używać zamiennie z vectorSearchVectorizerKind, wyliczenie zawiera znane wartości obsługiwane przez usługę.

Znane wartości obsługiwane przez usługę

azureOpenAI: Generuj osadzanie przy użyciu zasobu usługi Azure OpenAI w czasie wykonywania zapytania.
customWebApi: Generuj osadzanie przy użyciu niestandardowego internetowego punktu końcowego w czasie wykonywania zapytania.
aiServicesVision: Generowanie osadzania dla obrazu lub tekstu wejściowego w czasie zapytania przy użyciu interfejsu API Vectorize usługi Azure AI Services Vision.
aml: Generowanie osadzania przy użyciu punktu końcowego usługi Azure Machine Learning wdrożonego za pośrednictwem wykazu modeli usługi Azure AI Foundry w czasie wykonywania zapytania.

VisualFeature
WebApiSkills

Wyliczenia

KnownAIFoundryModelCatalogName

Nazwa modelu osadzania z katalogu Azure AI Foundry, który zostanie wywołany.

KnownAnalyzerNames

Definiuje wartości AnalyzerName. Zobacz https://learn.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Nazwa modelu Azure Open AI, który zostanie wywołany.

KnownBlobIndexerDataToExtract

Określa dane do wyodrębnienia z usługi Azure Blob Storage i informuje indeksator, które dane mają zostać wyodrębnione z zawartości obrazu, gdy wartość "imageAction" jest ustawiona na wartość inną niż "none". Dotyczy to osadzonej zawartości obrazu w .PDF lub innej aplikacji albo plików obrazów, takich jak .jpg i .pngw obiektach blob platformy Azure.

KnownBlobIndexerImageAction

Określa sposób przetwarzania osadzonych obrazów i plików obrazów w usłudze Azure Blob Storage. Ustawienie konfiguracji "imageAction" na dowolną wartość inną niż "none" wymaga, aby zestaw umiejętności był również dołączony do tego indeksatora.

KnownBlobIndexerPDFTextRotationAlgorithm

Określa algorytm wyodrębniania tekstu z plików PDF w usłudze Azure Blob Storage.

KnownBlobIndexerParsingMode

Reprezentuje tryb analizowania indeksowania ze źródła danych obiektów blob platformy Azure.

KnownCharFilterNames

Definiuje wartości charFilterName.

KnownChatCompletionExtraParametersBehavior

Określa, jak Azure AI Foundry powinien obsługiwać 'extraParameters'. Wartość domyślna to "error".

KnownChatCompletionResponseFormatType

Określa, w jaki sposób LLM powinien sformatować odpowiedź.

KnownContentUnderstandingSkillChunkingUnit

Steruje kardynalnością jednostki porcji. Wartość domyślna to "znaki"

KnownContentUnderstandingSkillExtractionOptions

Steruje kardynalnością zawartości wyodrębnionej z dokumentu przez umiejętność.

KnownCustomEntityLookupSkillLanguage

Kody języków obsługiwane dla tekstu wejściowego przez CustomEntityLookupSkill.

KnownDocumentIntelligenceLayoutSkillChunkingUnit

Steruje kardynalnością jednostki porcji. Wartość domyślna to "znaki"

KnownDocumentIntelligenceLayoutSkillExtractionOptions

Steruje kardynalnością zawartości wyodrębnionej z dokumentu przez umiejętność.

KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Głębokość nagłówków w danych wyjściowych języka Markdown. Wartość domyślna to h6.

KnownDocumentIntelligenceLayoutSkillOutputFormat

Steruje kardynalnością formatu wyjściowego. Wartość domyślna to "markdown".

KnownDocumentIntelligenceLayoutSkillOutputMode

Steruje kardynalnością danych wyjściowych generowanych przez umiejętności. Wartość domyślna to "oneToMany".

KnownEntityCategory

Ciąg wskazujący, jakie kategorie jednostek mają zostać zwrócone.

KnownEntityRecognitionSkillLanguage

Kody języków obsługiwane dla tekstu wejściowego przez EntityRecognitionSkill.

KnownImageAnalysisSkillLanguage

Kody języków obsługiwane do wprowadzania przez ImageAnalysisSkill.

KnownImageDetail

Ciąg wskazujący, które szczegóły specyficzne dla domeny mają być zwracane.

KnownIndexProjectionMode

Definiuje zachowanie projekcji indeksu w odniesieniu do pozostałej części indeksatora.

KnownIndexerExecutionEnvironment

Określa środowisko, w którym indeksator powinien być wykonywany.

KnownIndexerResyncOption

Opcje z różnymi typami danych uprawnień do indeksowania.

KnownKeyPhraseExtractionSkillLanguage

Kody języków obsługiwane dla tekstu wejściowego przez KeyPhraseExtractionSkill.

KnownKnowledgeBaseModelKind

Model sztucznej inteligencji, który ma być używany do planowania zapytań.

KnownKnowledgeSourceKind

Rodzaj źródła wiedzy.

KnownLexicalAnalyzerName

Definiuje nazwy wszystkich analizatorów tekstu obsługiwanych przez wyszukiwarkę.

KnownLexicalNormalizerName

Definiuje nazwy wszystkich normalizatorów tekstu obsługiwanych przez wyszukiwarkę.

KnownMarkdownHeaderDepth

Określa maksymalną głębokość nagłówka, która będzie brana pod uwagę podczas grupowania zawartości markdown. Wartość domyślna to h6.

KnownMarkdownParsingSubmode

Określa tryb podrzędny, który określi, czy plik markdown zostanie przeanalizowany w dokładnie jednym dokumencie wyszukiwania, czy w wielu dokumentach wyszukiwania. Wartość domyślna to oneToMany.

KnownOcrLineEnding

Definiuje sekwencję znaków do użycia między wierszami tekstu rozpoznawanych przez umiejętności OCR. Wartość domyślna to "spacja".

KnownOcrSkillLanguage

Kody języków obsługiwane do wprowadzania przez OcrSkill.

KnownPIIDetectionSkillMaskingMode

Ciąg wskazujący, który tryb maskingMode ma być używany do maskowania informacji osobistych wykrytych w tekście wejściowym.

KnownQueryDebugMode

Włącza narzędzie do debugowania, którego można użyć do dalszego eksplorowania wyników wyszukiwania. Możesz włączyć wiele trybów debugowania jednocześnie, oddzielając je znakiem | znak, na przykład: semantic|queryRewrites.

KnownRankingOrder

Reprezentuje wynik, który ma być używany do sortowania dokumentów.

KnownRegexFlags

Definiuje flagę wyrażenia regularnego, którą można wykorzystać w analizatorze wzorców i tokenizatorze wzorców.

KnownSearchAudience

Znane wartości dla grupy odbiorców wyszukiwania

KnownSearchFieldDataType

Definiuje typ danych pola w indeksie wyszukiwania.

KnownSearchIndexerDataSourceType

Definiuje typ źródła danych.

KnownSemanticErrorMode

Pozwala użytkownikowi wybrać, czy wywołanie semantyczne powinno całkowicie zawiódć, czy też zwrócić częściowe wyniki.

KnownSemanticErrorReason

Przyczyna, dla której zwrócono częściową odpowiedź dla żądania klasyfikacji semantycznej.

KnownSemanticSearchResultsType

Typ częściowej odpowiedzi, która została zwrócona dla żądania klasyfikacji semantycznej.

KnownSentimentSkillLanguage

Kody języków obsługiwane dla tekstu wejściowego przez SentimentSkill.

KnownSplitSkillLanguage

Kody języków obsługiwane dla tekstu wejściowego przez SplitSkill.

KnownTextSplitMode

Wartość wskazująca tryb podziału do wykonania.

KnownTextTranslationSkillLanguage

Kody języków obsługiwane dla tekstu wejściowego przez TextTranslationSkill.

KnownTokenFilterNames

Definiuje wartości TokenFilterName.

KnownTokenizerNames

Definiuje wartości tokenizerName.

KnownVectorEncodingFormat

Format kodowania służący do interpretowania zawartości pola wektorowego.

KnownVectorFilterMode

Określa, czy filtry są stosowane przed czy po przeprowadzeniu wyszukiwania wektorowego.

KnownVectorQueryKind

Rodzaj wykonywanego zapytania wektorowego.

KnownVectorSearchAlgorithmKind

Algorytm używany do indeksowania i wykonywania zapytań.

KnownVectorSearchAlgorithmMetric

Metryka podobieństwa, która ma być używana do porównań wektorowych. Zaleca się wybranie tej samej metryki podobieństwa, na której został wytrenowany model osadzania.

KnownVectorSearchCompressionKind

Metoda kompresji używana do indeksowania i wykonywania zapytań.

KnownVectorSearchCompressionRescoreStorageMethod

Metoda przechowywania oryginalnych wektorów o pełnej precyzji używanych do ponownego oceniania i operacji indeksu wewnętrznego.

KnownVectorSearchCompressionTarget

Skwantyzowany typ danych skompresowanych wartości wektorowych.

KnownVectorSearchVectorizerKind

Metoda wektoryzacji, która ma być używana w czasie wykonywania zapytania.

KnownVisualFeature

Ciągi wskazujące, jakie typy funkcji wizualnych mają zostać zwrócone.

Funkcje

createSynonymMapFromFile(string, string)

Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS.

odata(TemplateStringsArray, unknown[])

Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykładowe użycie:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://learn.microsoft.com/azure/search/search-query-odata-filter

Zmienne

DEFAULT_BATCH_SIZE

Domyślny rozmiar partii

DEFAULT_FLUSH_WINDOW

Domyślny interwał spłukiwania okna

DEFAULT_RETRY_COUNT

Domyślna liczba prób ponownie.

Szczegóły funkcji

createSynonymMapFromFile(string, string)

Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parametry

name

string

Nazwa synonimuMap.

filePath

string

Ścieżka pliku zawierającego synonimy (oddzielone przez nowe wiersze)

Zwraca

Promise<SynonymMap>

SynonimMap, obiekt

odata(TemplateStringsArray, unknown[])

Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykładowe użycie:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://learn.microsoft.com/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parametry

strings

TemplateStringsArray

Tablica ciągów dla wyrażenia

values

unknown[]

Tablica wartości wyrażenia

Zwraca

string

Szczegóły zmiennej

DEFAULT_BATCH_SIZE

Domyślny rozmiar partii

DEFAULT_BATCH_SIZE: number

Typ

number

DEFAULT_FLUSH_WINDOW

Domyślny interwał spłukiwania okna

DEFAULT_FLUSH_WINDOW: number

Typ

number

DEFAULT_RETRY_COUNT

Domyślna liczba prób ponownie.

DEFAULT_RETRY_COUNT: number

Typ

number