@azure/search-documents package

Třídy

AzureKeyCredential

Přihlašovací údaje založené na statickém klíči, které podporují aktualizaci hodnoty základního klíče.

GeographyPoint

Představuje geografický bod v globálních souřadnicích.

IndexDocumentsBatch

Třída používaná k provádění dávkových operací s více dokumenty indexu.

KnowledgeRetrievalClient

Třída používaná k provádění operací proti znalostní bázi.

SearchClient

Třída, která slouží k provádění operací s indexem vyhledávání, včetně dotazování dokumentů v indexu a přidávání, aktualizace a odebírání.

SearchIndexClient

Třída pro provádění operací pro správu indexů (vytváření, aktualizace, výpis/odstranění) & synonyma.

SearchIndexerClient

Třída, která provádí operace pro správu indexerů (vytváření, aktualizace, výpis/odstranění), zdrojů dat & sad dovedností.

SearchIndexingBufferedSender

Třída používaná k provádění operací uložených ve vyrovnávací paměti vůči indexu vyhledávání, včetně přidávání, aktualizace a odebírání.

Rozhraní

AIServices

Parametry pro služby AI.

AIServicesAccountIdentity

Multiregionální účet Azure AI služebního zdroje, který je připojen k dovednostem.

AIServicesAccountKey

Klíč k účtu Azure AI služebního zdroje, který je připojen k dovednostnímu souboru a používá se subdoménou zdroje.

AnalyzeRequest

Určuje některé součásti textu a analýzy, které slouží k rozdělení textu na tokeny.

AnalyzeResult

Výsledek testování analyzátoru na textu

AnalyzedTokenInfo

Informace o tokenu vráceného analyzátorem

AsciiFoldingTokenFilter

Převede abecední, číselné a symbolické znaky Unicode, které nejsou v prvních 127 znaky ASCII (blok "Základní latinka") na jejich ekvivalenty ASCII, pokud takové ekvivalenty existují. Tento filtr tokenu se implementuje pomocí Apache Lucene.

AutocompleteItem

Výsledek požadavků automatického dokončování

AutocompleteRequest

Parametry pro porovnávání přibližných shod a další chování dotazů automatického dokončování

AutocompleteResult

Výsledek dotazu automatického dokončování

AzureActiveDirectoryApplicationCredentials

Přihlašovací údaje registrované aplikace vytvořené pro vaši vyhledávací službu, které slouží k ověřenému přístupu k šifrovacím klíčům uloženým ve službě Azure Key Vault.

AzureBlobKnowledgeSource

Konfigurace pro zdroj znalostí Azure Blob Storage.

AzureBlobKnowledgeSourceParameters

Parametry pro zdroj znalostí služby Azure Blob Storage.

AzureBlobKnowledgeSourceParams

Určuje parametry běhového prostředí pro zdroj znalostí o objektech blob v Azure

AzureMachineLearningVectorizer

Specifikuje endpoint Azure Machine Learning nasazený prostřednictvím Azure AI Foundry Model Catalog pro generování vektorového vnoření dotazového řetězce.

AzureOpenAIEmbeddingSkill

Umožňuje vygenerovat vektorové vkládání pro daný textový vstup pomocí prostředku Azure OpenAI.

AzureOpenAIParameters

Určuje parametry pro připojení k prostředku Azure OpenAI.

AzureOpenAIVectorizer

Obsahuje parametry specifické pro použití služby Azure Open AI pro vektorizaci v době dotazu.

BM25Similarity

Funkce řazení založená na algoritmu podobnosti BM25 Okapi. BM25 je algoritmus podobný TF-IDF, který zahrnuje normalizaci délky (řízenou parametrem "b") a také sytost termínů (řízená parametrem "k1").

BaseAzureMachineLearningVectorizerParameters

Určuje vlastnosti společné mezi všemi typy ověřování vektorizátoru AML.

BaseCharFilter

Základní typ pro filtry znaků.

BaseCognitiveServicesAccount

Základní typ pro popis jakéhokoli prostředku služby Azure AI připojeného k sadě dovedností

BaseDataChangeDetectionPolicy

Základní typ zásad detekce změn dat

BaseDataDeletionDetectionPolicy

Základní typ zásad detekce odstranění dat

BaseKnowledgeBaseActivityRecord

Základní typ pro záznamy o aktivitách. Sleduje detaily provádění, načasování a chyby pro operace znalostní báze.

BaseKnowledgeBaseMessageContent

Určuje typ obsahu zprávy.

BaseKnowledgeBaseModel

Určuje parametry připojení pro model, který se má použít pro plánování dotazů.

BaseKnowledgeBaseReference

Základní typ pro reference.

BaseKnowledgeRetrievalReasoningEffort

Základní typ pro snahu o rozumové myšlení.

BaseKnowledgeSource

Představuje definici zdroje znalostí.

BaseKnowledgeSourceParams

Základní typ pro parametry běhu ze zdroje znalostí.

BaseKnowledgeSourceVectorizer

Specifikuje vektorizační metodu, která se používá pro model vnoření znalostních zdrojů.

BaseLexicalAnalyzer

Základní typ pro analyzátory.

BaseLexicalNormalizer

Základní typ pro normalizátory

BaseLexicalTokenizer

Základní typ pro tokenizátory.

BaseScoringFunction

Základní typ pro funkce, které mohou upravovat skóre dokumentu během řazení.

BaseSearchIndexerDataIdentity

Abstraktní základní typ pro identity dat

BaseSearchIndexerSkill

Základní typ dovedností.

BaseSearchRequestOptions

Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů

BaseSimilarityAlgorithm

Základní typ pro algoritmy podobnosti Algoritmy podobnosti se používají k výpočtu skóre, které sváže dotazy s dokumenty. Čím vyšší je skóre, tím relevantnější dokument je pro daný dotaz. Tato skóre slouží k řazení výsledků hledání.

BaseTokenFilter

Základní typ pro filtry tokenů.

BaseVectorQuery

Parametry dotazu pro vektorové a hybridní vyhledávací dotazy.

BaseVectorSearchAlgorithmConfiguration

Obsahuje možnosti konfigurace specifické pro algoritmus použitý při indexování nebo dotazování.

BaseVectorSearchCompression

Obsahuje možnosti konfigurace specifické pro metodu komprese použitou při indexování nebo dotazování.

BaseVectorSearchVectorizer

Obsahuje konkrétní podrobnosti pro metodu vektorizace, která se má použít během dotazu.

BinaryQuantizationCompression

Obsahuje možnosti konfigurace specifické pro metodu komprese binárního kvantování používané při indexování a dotazování.

ChatCompletionResponseFormat

Určuje, jak má být odpověď jazykového modelu serializována. Výchozí hodnota je 'text'.

ChatCompletionResponseFormatJsonSchemaProperties

Vlastnosti pro formát odpovědi na JSON schémata.

ChatCompletionSchema

Objekt definující vlastní schéma, které model použije ke strukturování svého výstupu.

ChatCompletionSkill

Dovednost, která volá jazykový model přes endpoint Chat Completions v Azure AI Foundry.

CjkBigramTokenFilter

Tvoří bigramy výrazů CJK, které se generují ze standardního tokenizátoru. Tento filtr tokenu se implementuje pomocí Apache Lucene.

ClassicSimilarity

Starší algoritmus podobnosti, který používá implementaci TF-IDF lucene TFIDFSimilarity. Tato varianta TF-IDF představuje normalizaci délky statického dokumentu a také koordinující faktory, které postihují dokumenty, které pouze částečně odpovídají prohledáným dotazům.

ClassicTokenizer

Tokenizátor založený na gramatikě, který je vhodný pro zpracování většiny dokumentů evropského jazyka. Tento tokenizátor se implementuje pomocí Apache Lucene.

CognitiveServicesAccountKey

Klíč účtu více oblastí prostředku služby Azure AI, který je připojený k sadě dovedností.

CommonGramTokenFilter

Při indexování vytvořte bigramy pro často se vyskytující termíny. Jednotlivé termíny jsou stále indexované, s překryvnými bigramy. Tento filtr tokenu se implementuje pomocí Apache Lucene.

CommonModelParameters

Parametry společného jazykového modelu pro dokončení chatu. Pokud je vynecháno, použijí se výchozí hodnoty.

CompletedSynchronizationState

Představuje dokončený stav poslední synchronizace.

ComplexField

Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole.

ConditionalSkill

Dovednost, která umožňuje scénářům, které vyžadují logickou operaci k určení dat, která se mají přiřadit k výstupu.

ContentUnderstandingSkill

Dovednost využívající Azure AI Content Understanding k zpracování a extrakci strukturovaných poznatků z dokumentů, což umožňuje obohacený, vyhledávatelný obsah pro lepší indexování a vyhledávání dokumentů.

ContentUnderstandingSkillChunkingProperties

Určuje kardinalitu pro rozdělení obsahu do bloků.

CorsOptions

Definuje možnosti pro řízení sdílení prostředků mezi zdroji (CORS) pro index.

CreateKnowledgeBaseOptions
CreateKnowledgeSourceOptions
CreateOrUpdateAliasOptions

Možnosti operace vytvoření nebo aktualizace aliasu

CreateOrUpdateIndexOptions

Možnosti operace vytvoření/aktualizace indexu

CreateOrUpdateKnowledgeBaseOptions
CreateOrUpdateKnowledgeSourceOptions
CreateOrUpdateSkillsetOptions

Možnosti operace vytvoření/aktualizace sady dovedností

CreateOrUpdateSynonymMapOptions

Možnosti pro operaci vytvoření nebo aktualizace synonym mapy

CreateorUpdateDataSourceConnectionOptions

Možnosti operace vytvoření/aktualizace zdroje dat

CreateorUpdateIndexerOptions

Možnosti operace vytvoření/aktualizace indexeru

CustomAnalyzer

Umožňuje převzít kontrolu nad procesem převodu textu na indexovatelné nebo prohledávatelné tokeny. Jedná se o uživatelsky definovanou konfiguraci, která se skládá z jednoho předdefinovaného tokenizátoru a jednoho nebo více filtrů. Tokenizátor zodpovídá za dělení textu na tokeny a filtry pro úpravy tokenů vygenerovaných tokenem.

CustomEntity

Objekt obsahující informace o nalezených shodách a souvisejících metadatech.

CustomEntityAlias

Složitý objekt, který lze použít k určení alternativního pravopisu nebo synonym pro název kořenové entity.

CustomEntityLookupSkill

Dovednost hledá text z vlastního seznamu slov a frází definovaných uživatelem.

CustomLexicalNormalizer

Umožňuje nakonfigurovat normalizaci pro filtrovatelná, řazená a omezující pole, která ve výchozím nastavení fungují s striktním porovnáváním. Jedná se o uživatelsky definovanou konfiguraci, která se skládá z alespoň jednoho nebo více filtrů, které upravují uložený token.

DefaultCognitiveServicesAccount

Prázdný objekt, který představuje výchozí prostředek služby Azure AI pro sadu dovedností.

DeleteAliasOptions

Možnosti operace odstranění aliasu

DeleteDataSourceConnectionOptions

Možnosti operace odstranění zdroje dat

DeleteIndexOptions

Možnosti operace odstranění indexu

DeleteIndexerOptions

Možnosti operace odstranění indexeru

DeleteKnowledgeBaseOptions
DeleteKnowledgeSourceOptions
DeleteSkillsetOptions

Možnosti pro odstranění operaionu sady dovedností

DeleteSynonymMapOptions

Možnosti operace odstranění mapy synonym

DictionaryDecompounderTokenFilter

Rozloží složená slova nalezená v mnoha německých jazycích. Tento filtr tokenu se implementuje pomocí Apache Lucene.

DistanceScoringFunction

Definuje funkci, která zvyšuje skóre na základě vzdálenosti od zeměpisného umístění.

DistanceScoringParameters

Poskytuje hodnoty parametrů funkci bodování vzdálenosti.

DocumentDebugInfo

Obsahuje informace o ladění, které lze použít k dalšímu zkoumání výsledků hledání.

DocumentExtractionSkill

Dovednost, která extrahuje obsah ze souboru v kanálu rozšiřování.

DocumentIntelligenceLayoutSkill

Dovednost, která extrahuje informace o obsahu a rozložení (jako markdown) prostřednictvím služeb Azure AI, ze souborů v kanálu rozšiřování.

DocumentIntelligenceLayoutSkillChunkingProperties

Určuje kardinalitu pro rozdělení obsahu do bloků.

EdgeNGramTokenFilter

Vygeneruje n-gramy dané velikosti počínaje přední nebo zadní částí vstupního tokenu. Tento filtr tokenu se implementuje pomocí Apache Lucene.

EdgeNGramTokenizer

Tokenizuje vstup z okraje na n-gramy dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene.

ElisionTokenFilter

Odebere elisions. Například "l'avion" (letadlo) bude převedeno na "avion" (letadlo). Tento filtr tokenu se implementuje pomocí Apache Lucene.

EntityLinkingSkill

Pomocí rozhraní API pro analýzu textu extrahuje propojené entity z textu.

EntityRecognitionSkill

Rozpoznávání entit analýzy textu

EntityRecognitionSkillV3

Pomocí rozhraní API pro analýzu textu extrahuje entity různých typů z textu.

ExhaustiveKnnParameters

Obsahuje parametry specifické pro vyčerpávající algoritmus KNN.

ExtractiveQueryAnswer

Extrahuje kandidáty odpovědí z obsahu dokumentů vrácených v reakci na dotaz vyjádřený jako otázka v přirozeném jazyce.

ExtractiveQueryCaption

Extrahuje titulky z odpovídajících dokumentů, které obsahují pasáže relevantní pro vyhledávací dotaz.

FacetResult

Jeden kbelík výsledku fasetového dotazu. Zaznamenává počet dokumentů s hodnotou pole spadající do konkrétní oblasti nebo s konkrétní hodnotou nebo intervalem.

FieldMapping

Definuje mapování mezi polem ve zdroji dat a cílovým polem v indexu.

FieldMappingFunction

Představuje funkci, která před indexováním transformuje hodnotu ze zdroje dat.

FreshnessScoringFunction

Definuje funkci, která zvyšuje skóre na základě hodnoty pole data a času.

FreshnessScoringParameters

Poskytuje hodnoty parametrů pro funkci bodování aktuálnosti.

GenerativeQueryRewrites

Vygenerujte alternativní termíny dotazu, abyste zvýšili úplnost požadavku na vyhledávání.

GetDocumentOptions

Možnosti pro načtení jednoho dokumentu

GetKnowledgeBaseOptions
GetKnowledgeSourceOptions
GetKnowledgeSourceStatusOptions
HighWaterMarkChangeDetectionPolicy

Definuje zásadu detekce změn dat, která zachycuje změny na základě hodnoty sloupce horní značky.

HnswParameters

Obsahuje parametry specifické pro algoritmus hnsw.

ImageAnalysisSkill

Dovednost, která analyzuje soubory obrázků. Extrahuje bohatou sadu vizuálních funkcí na základě obsahu obrázku.

IndexDocumentsClient

Klient indexování dokumentů

IndexDocumentsOptions

Možnosti pro úpravu dávkové operace indexu

IndexDocumentsResult

Odpověď obsahující stav operací pro všechny dokumenty v požadavku indexování

IndexedOneLakeKnowledgeSource

Konfigurace pro zdroj znalostí OneLake.

IndexedOneLakeKnowledgeSourceParameters

Parametry pro zdroj znalostí OneLake.

IndexedOneLakeKnowledgeSourceParams

Určuje parametry běhového prostředí pro indexovaný zdroj znalostí OneLake

IndexerExecutionResult

Představuje výsledek spuštění jednotlivých indexerů.

IndexingParameters

Představuje parametry pro spuštění indexeru.

IndexingParametersConfiguration

Slovník vlastností konfigurace specifické pro indexer. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu.

IndexingResult

Stav operace indexování pro jeden dokument

IndexingSchedule

Představuje plán provádění indexeru.

InputFieldMappingEntry

Mapování vstupních polí pro dovednost

KeepTokenFilter

Filtr tokenů, který uchovává pouze tokeny s textem obsaženým v zadaném seznamu slov. Tento filtr tokenu se implementuje pomocí Apache Lucene.

KeyAuthAzureMachineLearningVectorizerParameters

Určuje vlastnosti pro připojení k vektorizátoru AML pomocí ověřovacího klíče.

KeyPhraseExtractionSkill

Dovednost, která používá analýzu textu pro extrakci klíčových frází.

KeywordMarkerTokenFilter

Označí termíny jako klíčová slova. Tento filtr tokenu se implementuje pomocí Apache Lucene.

KeywordTokenizer

Vygeneruje celý vstup jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene.

KnowledgeBase
KnowledgeBaseAgenticReasoningActivityRecord

Představuje záznam aktivity agentického uvažování.

KnowledgeBaseAzureBlobReference

Představuje referenční informace k dokumentu služby Azure Blob Storage.

KnowledgeBaseAzureOpenAIModel

Určuje prostředek Azure OpenAI používaný k plánování dotazů.

KnowledgeBaseErrorAdditionalInfo

Další informace o chybě správy prostředků

KnowledgeBaseErrorDetail

Podrobnosti o chybě.

KnowledgeBaseIndexedOneLakeReference

Představuje indexovaný odkaz na dokument OneLake.

KnowledgeBaseMessage

Objekt stylu zprávy v přirozeném jazyce.

KnowledgeBaseMessageImageContent

Typ obrazové zprávy.

KnowledgeBaseMessageImageContentImage

Obsah.

KnowledgeBaseMessageTextContent

Typ textové zprávy.

KnowledgeBaseModelWebSummarizationActivityRecord

Představuje záznam aktivity webové sumarizace LLM.

KnowledgeBaseRetrievalRequest

Vstupní kontrakt pro požadavek na načtení.

KnowledgeBaseRetrievalResponse

Výstupní kontrakt pro odpověď na načtení.

KnowledgeBaseSearchIndexReference

Představuje referenční dokument Azure Search.

KnowledgeBaseWebReference

Představuje odkaz na webový dokument.

KnowledgeRetrievalClientOptions

Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání

KnowledgeRetrievalIntent

Zamýšlený dotaz k provedení bez plánování modelového dotazu.

KnowledgeRetrievalMinimalReasoningEffort

Spouštějte načítání znalostí s minimálním úsilím při uvažování.

KnowledgeRetrievalSemanticIntent

Záměr sémantického dotazu.

KnowledgeSourceAzureOpenAIVectorizer

Určuje prostředek Azure OpenAI použitý k vektorizaci řetězce dotazu.

KnowledgeSourceIngestionParameters

Konsoliduje všechna obecná nastavení příjmu dat pro zdroje znalostí.

KnowledgeSourceReference

Odkaz na zdroj znalostí.

KnowledgeSourceStatistics

Statistické informace o historii synchronizace zdrojů znalostí.

KnowledgeSourceStatus

Představuje stav a historii synchronizace zdroje znalostí.

KnowledgeSourceSynchronizationError

Představuje chybu indexování na úrovni dokumentu, ke které se vyskytla během synchronizace znalostního zdroje.

LanguageDetectionSkill

Dovednost, která rozpozná jazyk vstupního textu a hlásí kód jednoho jazyka pro každý dokument odeslaný na žádost. Kód jazyka je spárovaný se skóre označujícím spolehlivost analýzy.

LengthTokenFilter

Odebere slova, která jsou příliš dlouhá nebo příliš krátká. Tento filtr tokenu se implementuje pomocí Apache Lucene.

LimitTokenFilter

Omezuje počet tokenů při indexování. Tento filtr tokenu se implementuje pomocí Apache Lucene.

ListKnowledgeBasesOptions
ListKnowledgeSourcesOptions
ListSearchResultsPageSettings

Argumenty pro načtení další stránky výsledků hledání

LuceneStandardAnalyzer

Standardní analyzátor Apache Lucene; Skládá se ze standardního tokenizátoru, filtru malými písmeny a filtru zastavení.

LuceneStandardTokenizer

Zalomí text podle pravidel segmentace textu unicode. Tento tokenizátor se implementuje pomocí Apache Lucene.

MagnitudeScoringFunction

Definuje funkci, která zvyšuje skóre na základě velikosti číselného pole.

MagnitudeScoringParameters

Poskytuje hodnoty parametrů pro funkci bodování velikosti.

MappingCharFilter

Filtr znaků, který používá mapování definovaná pomocí možnosti mapování. Porovnávání je greedy (nejdelší porovnávání vzorů v daném bodě vyhrává). Nahrazení může být prázdný řetězec. Tento filtr znaků se implementuje pomocí Apache Lucene.

MergeSkill

Dovednost pro sloučení dvou nebo více řetězců do jednoho sjednoceného řetězce s volitelným uživatelem definovaným oddělovačem, který odděluje jednotlivé součásti.

MicrosoftLanguageStemmingTokenizer

Rozdělí text pomocí pravidel specifických pro jazyk a zmenšuje slova na jejich základní formuláře.

MicrosoftLanguageTokenizer

Rozdělí text pomocí pravidel specifických pro jazyk.

NGramTokenFilter

Vygeneruje n-gramy dané velikosti. Tento filtr tokenu se implementuje pomocí Apache Lucene.

NGramTokenizer

Tokenizuje vstup na n-gramy dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene.

NativeBlobSoftDeleteDeletionDetectionPolicy

Definuje zásadu detekce odstranění dat s využitím nativní funkce obnovitelného odstranění ve službě Azure Blob Storage pro detekci odstranění.

NoAuthAzureMachineLearningVectorizerParameters

Určuje vlastnosti pro připojení k vektorizátoru AML bez ověřování.

OcrSkill

Dovednost, která extrahuje text ze souborů obrázků.

OutputFieldMappingEntry

Mapování výstupních polí pro dovednost

PIIDetectionSkill

Pomocí rozhraní API pro analýzu textu extrahuje osobní údaje ze vstupního textu a poskytne vám možnost ho maskovat.

PageSettings

Možnosti pro metodu byPage

PagedAsyncIterableIterator

Rozhraní, které umožňuje asynchronní iteraci k dokončení i po stránce.

PathHierarchyTokenizer

Tokenizátor pro hierarchie podobné cestě. Tento tokenizátor se implementuje pomocí Apache Lucene.

PatternAnalyzer

Pružně odděluje text do termínů pomocí vzoru regulárního výrazu. Tento analyzátor se implementuje pomocí Apache Lucene.

PatternCaptureTokenFilter

Používá regulární výrazy Java k vygenerování více tokenů – jeden pro každou skupinu zachycení v jednom nebo více vzorech. Tento filtr tokenu se implementuje pomocí Apache Lucene.

PatternReplaceCharFilter

Filtr znaků, který nahradí znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků k zachování a nahrazení vzoru pro identifikaci znaků, které se mají nahradit. Například při zadání textu "aa bb aa bb", vzoru "(aa)\s+(bb)" a nahrazení "$1#$2" bude výsledkem "aa#bb aa#bb". Tento filtr znaků se implementuje pomocí Apache Lucene.

PatternReplaceTokenFilter

Filtr znaků, který nahradí znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků k zachování a nahrazení vzoru pro identifikaci znaků, které se mají nahradit. Například při zadání textu "aa bb aa bb", vzoru "(aa)\s+(bb)" a nahrazení "$1#$2" bude výsledkem "aa#bb aa#bb". Tento filtr tokenu se implementuje pomocí Apache Lucene.

PatternTokenizer

Tokenizátor, který používá porovnávání vzorů regulárních výrazů k vytvoření jedinečných tokenů. Tento tokenizátor se implementuje pomocí Apache Lucene.

PhoneticTokenFilter

Vytváření tokenů pro fonetické shody Tento filtr tokenu se implementuje pomocí Apache Lucene.

QueryAnswerResult

Odpověď je textový úsek extrahovaný z obsahu nejrelevavantnějších dokumentů, které odpovídají dotazu. Odpovědi se extrahují z nejlepších výsledků hledání. Kandidáti na odpovědi jsou hodnoceni a vyberou se hlavní odpovědi.

QueryCaptionResult

Titulky jsou nejvýraznější pasáže z dokumentu relativně do vyhledávacího dotazu. Často se používají jako souhrn dokumentů. Titulky jsou vráceny pouze pro dotazy typu semantic.

QueryResultDocumentSemanticField

Popis polí odeslaných do procesu sémantického rozšiřování a způsobu jejich použití

QueryResultDocumentSubscores

Rozpis dílčích jader mezi částmi textového a vektorového dotazu vyhledávacího dotazu pro tento dokument. Každý vektorový dotaz se zobrazí jako samostatný objekt ve stejném pořadí, v jakém byl přijat.

RescoringOptions

Obsahuje možnosti pro změnu hodnocení.

ResourceCounter

Představuje využití a kvótu prostředku.

RetrieveOptions
ScalarQuantizationCompression

Obsahuje možnosti konfigurace specifické pro metodu komprese skalární quantizace, která se používá při indexování a dotazování.

ScalarQuantizationParameters

Obsahuje parametry specifické pro skalární kvantování.

ScoringProfile

Definuje parametry indexu vyhledávání, které ovlivňují bodování ve vyhledávacích dotazech.

SearchAlias

Představuje alias indexu, který popisuje mapování z názvu aliasu na index. Název aliasu lze použít místo názvu indexu pro podporované operace.

SearchClientOptions

Možnosti klienta používané ke konfiguraci požadavků rozhraní API pro vyhledávání AI.

SearchDocumentsPageResult

Odpověď obsahující výsledky vyhledávací stránky z indexu

SearchDocumentsResult

Odpověď obsahující výsledky hledání z indexu

SearchDocumentsResultBase

Odpověď obsahující výsledky hledání z indexu

SearchIndex

Představuje definici indexu vyhledávání, která popisuje pole a chování vyhledávání indexu.

SearchIndexClientOptions

Možnosti klienta používané ke konfiguraci požadavků rozhraní API pro vyhledávání AI.

SearchIndexFieldReference

Referenční pole pro vyhledávací index.

SearchIndexKnowledgeSource

Zdroj znalostí: Cílení na vyhledávací index.

SearchIndexKnowledgeSourceParameters

Parametry pro vyhledávací index zdroje znalostí.

SearchIndexKnowledgeSourceParams

Určuje parametry běhového prostředí pro zdroj znalostí o indexu vyhledávání

SearchIndexStatistics

Statistika pro daný index Statistiky se shromažďují pravidelně a není zaručeno, že budou vždy up-to-date.

SearchIndexer

Představuje indexer.

SearchIndexerClientOptions

Možnosti klienta používané ke konfiguraci požadavků rozhraní API pro vyhledávání AI.

SearchIndexerDataContainer

Představuje informace o entitě (například tabulce Azure SQL nebo kolekci CosmosDB), která se bude indexovat.

SearchIndexerDataNoneIdentity

Vymaže vlastnost identity zdroje dat.

SearchIndexerDataSourceConnection

Představuje definici zdroje dat, kterou lze použít ke konfiguraci indexeru.

SearchIndexerDataUserAssignedIdentity

Určuje identitu zdroje dat, která se má použít.

SearchIndexerError

Představuje chybu indexování na úrovni položky nebo dokumentu.

SearchIndexerIndexProjection

Definicedalšíchch

SearchIndexerIndexProjectionParameters

Slovník vlastností konfigurace specifické pro projekce indexu. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu.

SearchIndexerIndexProjectionSelector

Popis dat uložených v určeném indexu vyhledávání

SearchIndexerKnowledgeStore

Definicedalšíchch dat pro azure blob, tabulek nebo souborů

SearchIndexerKnowledgeStoreBlobProjectionSelector

Abstraktní třída pro sdílení vlastností mezi betonovými selektory

SearchIndexerKnowledgeStoreFileProjectionSelector

Definice projekce pro data, která se mají ukládat ve službě Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definice projekce pro data, která se mají ukládat v objektu blob Azure.

SearchIndexerKnowledgeStoreParameters

Slovník vlastností konfigurace specifické pro úložiště znalostí. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu.

SearchIndexerKnowledgeStoreProjection

Objekt kontejneru pro různé selektory projekce

SearchIndexerKnowledgeStoreProjectionSelector

Abstraktní třída pro sdílení vlastností mezi betonovými selektory

SearchIndexerKnowledgeStoreTableProjectionSelector

Popis dat, která se mají ukládat v tabulkách Azure

SearchIndexerLimits

Představuje limity, které lze aplikovat na indexer.

SearchIndexerSkillset

Seznam dovedností.

SearchIndexerStatus

Představuje aktuální stav a historii spuštění indexeru.

SearchIndexerWarning

Představuje upozornění na úrovni položky.

SearchIndexingBufferedSenderOptions

Možnosti pro SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Šifrovací klíč spravovaný zákazníkem ve službě Azure Key Vault. Klíče, které vytvoříte a spravujete, lze použít k šifrování nebo dešifrování neaktivních uložených dat ve službě Azure AI Vyhledávač, jako jsou indexy a mapy synonym.

SearchServiceStatistics

Odpověď z žádosti o získání statistiky služby V případě úspěchu zahrnuje čítače a limity na úrovni služby.

SemanticConfiguration

Definuje konkrétní konfiguraci, která se má použít v kontextu sémantických funkcí.

SemanticDebugInfo

Možnosti ladění pro sémantické vyhledávací dotazy

SemanticField

Pole, které se používá jako součást sémantické konfigurace.

SemanticPrioritizedFields

Popisuje pole nadpisu, obsahu a klíčových slov, která se mají použít pro sémantické řazení, titulky, zvýraznění a odpovědi.

SemanticSearch

Definuje parametry indexu vyhledávání, které ovlivňují sémantické schopnosti.

SemanticSearchOptions

Definuje možnosti pro sémantické vyhledávací dotazy.

SentimentSkill

Analýza textu s pozitivním negativním míněním, vyhodnocená jako hodnota s plovoucí desetinou čárkou v rozsahu od nuly do 1.

SentimentSkillV3

Pomocí rozhraní API pro analýzu textu vyhodnocuje nestrukturovaný text a pro každý záznam poskytuje popisky mínění (například "negativní", "neutrální" a "pozitivní") na základě nejvyššího skóre spolehlivosti zjištěného službou na úrovni věty a dokumentu.

ServiceCounters

Představuje čítače a kvóty prostředků na úrovni služby.

ServiceLimits

Představuje různé limity na úrovni služby.

ShaperSkill

Dovednost pro přetváření výstupů. Vytvoří komplexní typ pro podporu složených polí (označovaných také jako pole s více částmi).

ShingleTokenFilter

Vytvoří kombinace tokenů jako jeden token. Tento filtr tokenu se implementuje pomocí Apache Lucene.

SimpleField

Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole.

SingleVectorFieldResult

Výsledek jednoho vektorového pole. Oboje

SnowballTokenFilter

Filtr, který vychází ze slov pomocí vygenerovaného smyšlí snowballu. Tento filtr tokenu se implementuje pomocí Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Definuje zásadu detekce odstranění dat, která implementuje strategii obnovitelného odstranění. Určuje, zda má být položka odstraněna na základě hodnoty určeného sloupce obnovitelného odstranění.

SplitSkill

Dovednost rozdělit řetězec na bloky textu.

SqlIntegratedChangeTrackingPolicy

Definuje zásadu detekce změn dat, která zachycuje změny pomocí integrované funkce Change Tracking ve službě Azure SQL Database.

StemmerOverrideTokenFilter

Poskytuje možnost přepsat další stemmingové filtry pomocí vlastních slovníkových stemmingů. Všechny termíny založené na slovníku budou označeny jako klíčová slova, aby se nezvolily pomocí stemmerů v řetězci. Musí být umístěny před všemi filtry pro vytváření. Tento filtr tokenu se implementuje pomocí Apache Lucene. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

Filtr pro konkrétní jazyk. Tento filtr tokenu se implementuje pomocí Apache Lucene. Podívejte se na https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StopAnalyzer

Rozdělí text bez písmen; Použije filtry tokenů s malými písmeny a stopword. Tento analyzátor se implementuje pomocí Apache Lucene.

StopwordsTokenFilter

Odebere slova ze streamu tokenu. Tento filtr tokenu se implementuje pomocí Apache Lucene. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

SuggestDocumentsResult

Odpověď obsahující výsledky návrhového dotazu z indexu

SuggestRequest

Parametry pro filtrování, řazení, přibližné porovnávání a další návrhy chování dotazů.

Suggester

Definuje, jak se má rozhraní API navrhnout na skupinu polí v indexu.

SynchronizationState

Představuje aktuální stav probíhající synchronizace, která zahrnuje více spuštění indexeru.

SynonymMap

Představuje definici mapy synonym.

SynonymTokenFilter

Porovná jednoslovné nebo víceslovné synonyma v datovém proudu tokenů. Tento filtr tokenu se implementuje pomocí Apache Lucene.

TagScoringFunction

Definuje funkci, která zvyšuje skóre dokumentů s řetězcovými hodnotami odpovídajícími danému seznamu značek.

TagScoringParameters

Poskytuje hodnoty parametrů funkci bodování značek.

TextResult

Skóre BM25 nebo Classic pro text v dotazu.

TextTranslationSkill

Dovednost překládat text z jednoho jazyka do druhého.

TextWeights

Definuje váhy u polí indexu, u kterých by se mělo zvýšit bodování ve vyhledávacích dotazech.

TokenAuthAzureMachineLearningVectorizerParameters

Určuje vlastnosti pro připojení k vektorizátoru AML se spravovanou identitou.

TruncateTokenFilter

Zkracuje termíny na určitou délku. Tento filtr tokenu se implementuje pomocí Apache Lucene.

UaxUrlEmailTokenizer

Tokenizuje adresy URL a e-maily jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene.

UniqueTokenFilter

Vyfiltruje tokeny se stejným textem jako předchozí token. Tento filtr tokenu se implementuje pomocí Apache Lucene.

VectorSearch

Obsahuje možnosti konfigurace související s vektorové vyhledávání.

VectorSearchOptions

Definuje možnosti pro dotazy vektorové vyhledávání.

VectorSearchProfile

Definuje kombinaci konfigurací, které se mají použít s vektorovým vyhledáváním.

VectorizableImageBinaryQuery

Parametry dotazu, které se mají použít pro vektorové vyhledávání, když je k dispozici binární soubor s kódováním base 64 obrázku, který je potřeba vektorizovat.

VectorizableImageUrlQuery

Parametry dotazu, které se mají použít pro vektorové vyhledávání, pokud je k dispozici adresa URL představující hodnotu obrázku, kterou je potřeba vektorizovat.

VectorizableTextQuery

Parametry dotazu, které se mají použít pro vektorové vyhledávání, pokud je k dispozici textová hodnota, která musí být vektorizována.

VectorizedQuery

Parametry dotazu, které se mají použít pro vektorové vyhledávání při zadání nezpracované hodnoty vektoru.

VectorsDebugInfo

"Obsahuje ladicí informace specifické pro vektorové a hybridní vyhledávání.")

WebApiParameters

Určuje vlastnosti pro připojení k vektorizátoru definovanému uživatelem.

WebApiSkill

Dovednost, která může volat koncový bod webového rozhraní API, což vám umožní rozšířit sadu dovedností tím, že zavolá váš vlastní kód.

WebApiVectorizer

Určuje vektorizátor definovaný uživatelem pro generování vektorového vkládání řetězce dotazu. Integrace externí vektorizátoru se dosahuje pomocí vlastního rozhraní webového rozhraní API sady dovedností.

WebKnowledgeSource

Zdroj znalostí: Cílení na webové výsledky.

WebKnowledgeSourceDomain

Konfigurace pro webovou zdrojovou doménu znalostí.

WebKnowledgeSourceDomains

Konfigurace povolení/blokování domény pro webový zdroj znalostí.

WebKnowledgeSourceParameters

Parametry pro webový zdroj znalostí.

WebKnowledgeSourceParams

Určuje parametry běhového prostředí pro webový zdroj znalostí

WordDelimiterTokenFilter

Rozdělí slova do dílčích slov a provede volitelné transformace skupin podwordů. Tento filtr tokenu se implementuje pomocí Apache Lucene.

Aliasy typu

AIFoundryModelCatalogName

Název modelu embeddingu z katalogu Azure AI Foundry, který bude nazýván.
KnownAIFoundryModelCatalogName lze použít zaměnitelně s AIFoundryModelCatalogName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32: OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32
OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336: OpenAI-CLIP-Image-Text-Embeddings-ViT-Large-Patch14-336
Facebook-DinoV2-Image-Embeddings-ViT-Base: Facebook-DinoV2-Image-Embeddings-ViT-Base
Facebook-DinoV2-Image-Embeddings-ViT-Giant: Facebook-DinoV2-Image-Embeddings-ViT-Giant
Cohere-embed-v3-english: Cohere-embed-v3-english
Cohere-embed-v3-multilingvní: Cohere-embed-v3-multilingvní
Cohere-embed-v4: Cohere embed v4 model pro generování vkládání z textu i obrázků.

AliasIterator

Iterátor pro výpis aliasů, které existují ve vyhledávací službě. To bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace.

AnalyzeTextOptions

Možnosti pro analýzu textové operace

AutocompleteMode

Určuje režim automatického dokončování. Výchozí hodnota je 'oneTerm'. Použijte 'twoTerms' k získání šindelů a 'oneTermWithContext' k použití aktuálního kontextu při vytváření termínů automatického dokončování.

AutocompleteOptions

Možnosti pro načtení textu dokončení pro částečný hledaný text

AzureMachineLearningVectorizerParameters

Určuje vlastnosti pro připojení k vektorizátoru AML.

AzureOpenAIModelName

Název modelu Azure Open AI, který se bude volat.
PoleAzureOpenAIModelName lze použít zaměnitelně s AzureOpenAIModelName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

text-embedding-ada-002: TextEmbeddingAda002 model.
text-embedding-3-large: TextEmbedding3Large model.
text-embedding-3-small: TextEmbedding3Small model.
gpt-5-mini: model Gpt5Mini.
gpt-5-nano: model Gpt5Nano.
GPT-5.4-Mini: Model GPT54Mini.
gpt-5.4-nano: model Gpt54Nano.

BaseKnowledgeRetrievalIntent

Alias pro KnowledgeRetrievalIntentUnion

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Obsahuje možné případy pro CharFilter.

CharFilterName

Definuje názvy všech filtrů znaků podporovaných vyhledávacím modulem.
<xref:KnownCharFilterName> lze zaměnitelně s CharFilterName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

html_strip: Filtr znaků, který se pokusí odstranit konstruktory HTML. Podívejte se na https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

ChatCompletionExtraParametersBehavior

Specifikuje, jak by měl být 'extraParameters' řešen Azure AI Foundry. Výchozí hodnota je 'error'.
KnownChatCompletionExtraParametersBehavior lze použít zaměnitelně s ChatCompletionExtraParametersBehavior, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

passThrough: Předá jakékoli další parametry přímo modelu.
drop: Zahodí všechny nadbytečné parametry.
error: Vyvolá chybu, pokud je k dispozici nějaký další parametr.

ChatCompletionResponseFormatType

Určuje, jak má LLM formátovat odpověď.
KnownChatCompletionResponseFormatType lze použít zaměnitelně s ChatCompletionResponseFormatType, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

text: Formát odpovědi v prostém textu.
jsonObject: Libovolný formát odpovědi objektů JSON.
jsonSchema: Formát odpovědi s JSON schema-adhering.

CjkBigramTokenFilterScripts

Skripty, které může CjkBigramTokenFilter ignorovat.

CognitiveServicesAccount

Obsahuje možné případy pro CognitiveServicesAccount.

ComplexDataType

Definuje hodnoty pro ComplexDataType. Mezi možné hodnoty patří: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

ContentUnderstandingSkillChunkingUnit

Řídí kardinalitu jednotky bloku bloků dat. Výchozí je 'znaky'
KnownContentUnderstandingSkillChunkingUnit lze používat zaměnitelně s ContentUnderstandingSkillChunkingUnit, toto enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

characters: Určuje chunk po znacích.

ContentUnderstandingSkillExtractionOptions

Řídí mohutnost obsahu extrahovaného z dokumentu pomocí dovednosti.
KnownContentUnderstandingSkillExtractionOptions lze používat zaměnitelně s ContentUnderstandingSkillExtractionOptions, tento enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

obrazy: Určete, že obsah obrazu má být extrahován z dokumentu.
locationMetadata: Určete, že metadata umístění mají být z dokumentu extrahována.

ContinuablePage

Rozhraní, které popisuje stránku výsledků.

CountDocumentsOptions

Možnosti pro provádění operace počítání indexu

CreateAliasOptions

Možnosti operace vytvoření aliasu

CreateDataSourceConnectionOptions

Možnosti pro operaci vytvoření zdroje dat

CreateIndexOptions

Možnosti pro vytvoření operace indexu

CreateIndexerOptions

Možnosti pro vytvoření operace indexeru

CreateSkillsetOptions

Možnosti pro vytvoření operace sady dovedností

CreateSynonymMapOptions

Možnosti pro operaci vytvoření mapy synonym

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Obsahuje možné případy pro DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Obsahuje možné případy DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Možnosti operace odstranění dokumentů

DocumentIntelligenceLayoutSkillChunkingUnit

Řídí kardinalitu jednotky bloku bloků dat. Výchozí je 'znaky'
KnownDocumentIntelligenceLayoutSkillChunkingUnit lze použít zaměnitelně s DocumentIntelligenceLayoutSkillChunkingUnit, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

characters: Určuje chunk po znacích.

DocumentIntelligenceLayoutSkillExtractionOptions

Řídí mohutnost obsahu extrahovaného z dokumentu pomocí dovednosti.
KnownDocumentIntelligenceLayoutSkillExtractionOptions lze použít zaměnitelně s DocumentIntelligenceLayoutSkillExtractionOptions, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

obrazy: Určete, že obsah obrazu má být extrahován z dokumentu.
locationMetadata: Určete, že metadata umístění mají být z dokumentu extrahována.

DocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Hloubka záhlaví ve výstupu markdownu. Výchozí hodnota je h6.
KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth lze použít zaměnitelně s DocumentIntelligenceLayoutSkillMarkdownHeaderDepth, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

h1: Záhlaví úrovně 1.
h2: Záhlaví úrovně 2.
h3: Záhlaví úrovně 3.
h4: Záhlaví úrovně 4.
h5: Záhlaví úrovně 5.
h6: Záhlaví úrovně 6.

DocumentIntelligenceLayoutSkillOutputFormat

Určuje mohutnost výstupního formátu. Výchozí je 'markdown'.
KnownDocumentIntelligenceLayoutSkillOutputFormat lze použít zaměnitelně s DocumentIntelligenceLayoutSkillOutputFormat, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

text: Určete formát výstupu jako text.
markdown: Určete formát výstupu jako markdown.

DocumentIntelligenceLayoutSkillOutputMode

Řídí kardinalitu výstupu vytvořeného dovedností. Výchozí hodnota je oneToMany.
KnownDocumentIntelligenceLayoutSkillOutputMode lze použít zaměnitelně s DocumentIntelligenceLayoutSkillOutputMode, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

oneToMany: Určete, že výstup má být analyzován jako 'oneToMany'.

EdgeNGramTokenFilterSide

Určuje, ze které strany vstupu by měl být n-gram generován.

EntityCategory

Řetězec označující, které kategorie entit se mají vrátit.
KnownEntityCategory lze použít zaměnitelně s EntityCategory, toto enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

Místo: Entity popisující fyzické místo.
organizace: Subjekty popisující organizaci.
osoba: Entity popisující osobu.
Množství: Entity popisující veličinu.
datetime: Entity popisující datum a čas.
URL: Entity popisující URL.
e-mail: Entity popisující e-mailovou adresu.

EntityRecognitionSkillLanguage

Jazykové kódy podporované pro vstupní text nástrojem EntityRecognitionSkill.
KnownEntityRecognitionSkillLanguage lze používat zaměnitelně s EntityRecognitionSkillLanguage, tento enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

ar: arabsky
CS: Česky
zh-Hans: Chinese-Simplified
zh-Hant: Chinese-Traditional
da: dánsky
nl: nizozemsky
en: English
fi: finsky
fr: francouzsky
de: německy
el: Řecký
hu: maďarsky
it: italsky
ja: japonsky
KO: Korejec
ne: norský (bokmaal)
pl: Polština
pt-PT: Portugalština (Portugalsko)
pt-BR: Portugalština (Brazílie)
ru: rusky
es: španělsky
sv: švédsky
tr: Turečtina

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Obsahuje možnosti konfigurace specifické pro vyčerpávající algoritmus KNN použitý při dotazování, který provede vyhledávání hrubou silou v celém indexu vektoru.

ExtractDocumentKey
GetAliasOptions

Možnosti operace získání aliasu

GetDataSourceConnectionOptions

Možnosti pro získání operace zdroje dat

GetIndexOptions

Možnosti pro získání operace indexu

GetIndexStatisticsOptions

Možnosti pro získání operace statistiky indexu

GetIndexerOptions

Možnosti pro získání operace indexeru

GetIndexerStatusOptions

Možnosti pro získání operace stavu indexeru

GetServiceStatisticsOptions

Možnosti pro získání operace statistiky služby

GetSkillSetOptions

Možnosti pro získání operace sady dovedností

GetSynonymMapsOptions

Možnosti pro operaci get synonymmaps

HnswAlgorithmConfiguration

Obsahuje možnosti konfigurace specifické pro přibližný algoritmus nejbližších sousedů používaný během indexování.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Operace, která se má provést s dokumentem v dávce indexování.

IndexDocumentsAction

Představuje akci indexu, která pracuje s dokumentem.

IndexIterator

Iterátor pro výpis indexů, které existují ve vyhledávací službě. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace.

IndexNameIterator

Iterátor pro výpis indexů, které existují ve vyhledávací službě. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace.

IndexProjectionMode

Definuje chování projekcí indexu ve vztahu ke zbytku indexeru.
PoleIndexProjectionMode lze použít zaměnitelně s IndexProjectionMode, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

skipIndexingParentDocuments: Zdrojový dokument se přeskočí z zápisu do cílového indexu indexeru.
includeIndexingParentDocuments: Zdrojový dokument se zapíše do cílového indexu indexeru. Toto je výchozí vzor.

IndexerExecutionEnvironment
IndexerExecutionStatus

Představuje stav spuštění jednotlivých indexerů.

IndexerResyncOption

Možnosti s různými typy dat oprávnění k indexování.
KnownIndexerResyncOption lze použít zaměnitelně s IndexerResyncOption, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

oprávnění: Indexer pro opětovné ingestování předem vybraných dat oprávnění ze zdroje dat do indexu.

IndexerStatus

Představuje celkový stav indexeru.

KeyPhraseExtractionSkillLanguage
KnowledgeBaseActivityRecord

Alias pro KnowledgeBaseActivityRecordUnion

KnowledgeBaseActivityRecordType

Typ záznamu o aktivitě.
<xref:KnownKnowledgeBaseActivityRecordType> lze použít zaměnitelně s KnowledgeBaseActivityRecordType, tento enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

searchIndex: Vyhledávání aktivity pro vyhledávání indexu.
azureBlob: Aktivita vyhledávání blobů Azure.
indexedOneLake: Indexovaná aktivita vyhledávání OneLake.
web: Aktivita vyhledávání webu.
modelWebSummarization: Aktivita shrnutí webu LLM.
agenticReasoning: Agentic Reasoning activity.

KnowledgeBaseIterator

Iterátor pro seznam znalostních bází, které existují ve službě Search. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace.

KnowledgeBaseMessageContent

Alias pro KnowledgeBaseMessageContentUnion

KnowledgeBaseMessageContentType

Typ obsahu zprávy.
<xref:KnownKnowledgeBaseMessageContentType> lze použít zaměnitelně s KnowledgeBaseMessageContentType, tento enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

text: Typ obsahu textové zprávy.
obrázek: Druh obsahu obrázkové zprávy.

KnowledgeBaseModel
KnowledgeBaseModelKind

Model umělé inteligence, který se má použít pro plánování dotazů.
KnownKnowledgeBaseModelKind lze používat zaměnitelně s KnowledgeBaseModelKind, tento enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

azureOpenAI: Používejte Azure otevřené AI modely pro plánování dotazů.

KnowledgeBaseReference

Alias pro KnowledgeBaseReferenceUnion

KnowledgeBaseReferenceType

Typ odkazu.
<xref:KnownKnowledgeBaseReferenceType> lze použít zaměnitelně s KnowledgeBaseReferenceType, toto enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

searchIndex: Vyhledejte index reference dokumentu.
azureBlob: Azure Reference dokumentu Blob.
indexedOneLake: Indexovaný odkaz na dokument OneLake.
web: Odkaz na webový dokument.

KnowledgeRetrievalIntentType

Druh konfigurace znalostní báze, který se má použít.
<xref:KnownKnowledgeRetrievalIntentType> lze použít zaměnitelně s KnowledgeRetrievalIntentType, tento enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

sémantické: Záměr sémantického dotazu v přirozeném jazyce.

KnowledgeRetrievalReasoningEffortKind

Množství úsilí, které je třeba vynaložit při načítání.
<xref:KnownKnowledgeRetrievalReasoningEffortKind> lze použít zaměnitelně s KnowledgeRetrievalReasoningEffortKind, tento enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

minimální: Neprovádí žádné výběry zdrojů, plánování dotazů ani iterativní vyhledávání.

KnowledgeRetrievalReasoningEffortUnion

Alias pro KnowledgeRetrievalReasoningEffortUnion

KnowledgeSource
KnowledgeSourceContentExtractionMode

Volitelný režim extrakce obsahu. Výchozí hodnota je 'minimální'.
<xref:KnownKnowledgeSourceContentExtractionMode> lze použít zaměnitelně s KnowledgeSourceContentExtractionMode, tento enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

minimální: Extrahuje pouze nezbytná metadata a většinu zpracování obsahu odkládá.
Standard: Provádí kompletní výchozí proces extrakce obsahu.

KnowledgeSourceIterator

Iterátor pro seznam znalostních zdrojů, které existují ve službě vyhledávání. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace.

KnowledgeSourceKind

Druh zdroje znalostí.
KnownKnowledgeSourceKind lze použít zaměnitelně s KnowledgeSourceKind, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

searchIndex: Zdroj znalostí, který čte data z indexu vyhledávání.
azureBlob: Zdroj znalostí, který čte a ingestuje data z Azure Blob Storage do vyhledávacího indexu.
indexedOneLake: Zdroj znalostí, který čte data z indexovaného OneLake.
web: Zdroj znalostí, který čte data z webu.

KnowledgeSourceParams

Alias pro KnowledgeSourceParamsUnion

KnowledgeSourceSynchronizationStatus

Aktuální stav synchronizace zdroje znalostí.
<xref:KnownKnowledgeSourceSynchronizationStatus> lze použít zaměnitelně s KnowledgeSourceSynchronizationStatus, tento enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

vytváření: Zdroj znalostí je provisionován.
aktivní: Zdroj znalostí je aktivní a probíhají synchronizační běhy.
Mazání: Zdroj znalostí je mazán a synchronizace je pozastavena.

KnowledgeSourceVectorizer
LexicalAnalyzer

Obsahuje možné případy analyzátoru.

LexicalAnalyzerName

Definuje názvy všech analyzátorů textu podporovaných vyhledávacím modulem.
KnownLexicalAnalyzerName lze použít zaměnitelně s LexicalAnalyzerName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

ar.microsoft: Analyzátor společnosti Microsoft pro arabštinu.
ar.lucene: analyzátor lucenů pro arabštinu.
hy.lucene: Lucene analyzer for Armén.
bn.microsoft: Microsoft Analyzer for Bangla.
eu.lucene: Analyzátor Lucene pro baskičtina.
bg.microsoft: Microsoft Analyzer for Bulharština.
bg.lucene: Analyzátor Lucene pro bulharštinu.
ca.microsoft: Microsoft Analyzer pro katalánštinu.
ca.lucene: Analyzátor Lucene pro katalánštinu.
zh-Hans.microsoft: Microsoft Analyzer pro čínštinu (zjednodušená).
zh-Hans.lucene: Analyzátor Lucene pro čínštinu (zjednodušená).
zh-Hant.microsoft: Microsoft Analyzer pro čínštinu (tradiční).
zh-Hant.lucene: Analyzátor Lucene pro čínštinu (tradiční).
hr.microsoft: Microsoft Analyzer pro chorvatštinu.
cs.microsoft: Microsoft analyzer pro češtinu.
cs.lucene: Lucene analyzer pro Češtinu.
da.microsoft: Microsoft Analyzer pro dánštinu.
da.lucene: Lucene analyzer pro dánštinu.
nl.microsoft: Microsoft Analyzer pro holandštinu.
nl.lucene: Analyzátor Lucene pro holandštinu.
en.microsoft: Microsoft Analyzer pro angličtinu.
en.lucene: Lucene analyzer pro angličtinu.
et.microsoft: Analyzátor společnosti Microsoft pro estonštinu.
fi.microsoft: Microsoft Analyzer pro finštinu.
fi.lucene: Lucene analyzer pro finštinu.
fr.microsoft: Microsoft Analyzer pro francouzštinu.
fr.lucene: Lucene analyzer pro francouzštinu.
gl.lucene: analyzátor lucenu pro galicijštinu.
de.microsoft: Microsoft Analyzer pro němčinu.
de.lucene: Lucene analyzer pro němčinu.
el.microsoft: Microsoft Analyzer pro řečtinu.
el.lucene: analyzátor lucenu pro řečtinu.
gu.microsoft: Microsoft Analyzer for Gujarati.
hebrejštinu: Microsoft Analyzer for Hebrejština.
hi.microsoft: Microsoft Analyzer pro hindštinu.
hi.lucene: Analyzátor Lucene pro hindštinu.
hu.microsoft: Microsoft Analyzer pro maďarštinu.
hu.lucene: Lucene analyzer pro maďarštinu.
is.microsoft: Microsoft Analyzer pro Islandštinu.
id.microsoft: Microsoft analyzer for Indonéština (Bahasa).
id.lucene: Analyzátor Lucene pro indonéštinu.
ga.lucene: analyzátor luceny pro irštinu.
it.microsoft: Microsoft Analyzer pro italštinu.
it.lucene: Lucene analyzer pro italštinu.
ja.microsoft: Microsoft Analyzer pro japonštinu.
ja.lucene: Analyzátor Lucene pro japonštinu.
kn.microsoft: Microsoft Analyzer for Kannada.
ko.microsoft: Microsoft Analyzer pro korejštinu.
ko.lucene: Analyzátor Lucene pro korejštinu.
lv.microsoft: Microsoft analyzer pro lotyštinu.
lv.lucene: Lucene analyzer pro lotyštinu.
lt.microsoft: Microsoft Analyzer pro litevštinu.
ml.microsoft: Microsoft analyzer pro Malayalam.
ms.microsoft: Microsoft Analyzer for Malay (latinka).
mr.microsoft: Microsoft Analyzer for Marathi.
nb. microsoft: Microsoft analyzátor pro norštinu (Bokmål).
no.lucene: Analyzátor Lucene pro norštinu.
fa.lucene: Analyzátor Lucene pro Perštinu.
pl.microsoft: Microsoft Analyzer pro polštinu.
pl.lucene: Analyzátor Lucene pro polštinu.
pt-BR.microsoft: Microsoft Analyzer pro portugalštinu (Brazílie).
pt-BR.lucene: Analyzátor Lucene pro portugalštinu (Brazílie).
pt-PT.microsoft: Microsoft Analyzer pro portugalštinu (Portugalsko).
pt-PT.lucene: Analyzátor Lucene pro portugalštinu (Portugalsko).
pa.microsoft: Microsoft Analyzer for Punjabi.
ro.microsoft: Microsoft Analyzer pro rumunštinu.
ro.lucene: Lucene analyzer pro rumunštinu.
ru.microsoft: Microsoft Analyzer pro ruštinu.
ru.lucene: Lucene analyzer pro ruštinu.
sr-cyrillic.microsoft: Microsoft Analyzer pro srbštinu (cyrilice).
sr-latin.microsoft: Microsoft analyzer pro srbštinu (latinka).
sk.microsoft: Microsoft Analyzer pro slovenštinu.
sl.microsoft: Microsoft Analyzer pro slovinštinu.
es.microsoft: Microsoft Analyzer pro španělštinu.
es.lucene: Lucene analyzer pro španělštinu.
sv.microsoft: Microsoft Analyzer pro švédštinu.
sv.lucene: Lucene analyzer pro švédštinu.
ta.microsoft: Microsoft Analyzer pro Tamil.
te.microsoft: Microsoft Analyzer pro Telugu.
th.microsoft: Microsoft Analyzer for Thai.
th.lucene: analyzátor lucenu pro thajštinu.
tr.microsoft: Microsoft Analyzer pro turečtinu.
tr.lucene: Analyzátor Lucene pro turečtinu.
uk.microsoft: Microsoft Analyzer pro ukrajinštinu.
your.microsoft: Microsoft Analyzer for Urdu.
vi.microsoft: Microsoft Analyzer pro vietnamštinu.
standard.lucene: Standardní analyzátor Lucene.
standardasciifolding.lucene: Standardní ASCII analyzátor skládacího lucene. Podívejte se na https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
klíčové slovo: Považuje celý obsah pole za jediný token. To je užitečné pro data, jako jsou PSČ, ID a některé názvy produktů. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
vzor: Pružně odděluje text do termínů pomocí vzoru regulárního výrazu. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
jednoduché: Rozdělí text bez písmen a převede je na malá písmena. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
zastavení: Rozdělí text bez písmen; Použije filtry tokenů s malými písmeny a stopword. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
prázdných znaků: Analyzátor, který používá tokenizátor prázdných znaků. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizer

Obsahuje možné případy pro LexicalNormalizer.

LexicalNormalizerName

Definuje názvy všech normalizátorů textu podporovaných vyhledávacím modulem.
KnownLexicalNormalizerName lze použít zaměnitelně s LexicalNormalizerName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

asciifolding: Převede abecední, číselné a symbolické znaky Unicode, které nejsou v prvních 127 znaky ASCII (blok "Základní latinka") na jejich ekvivalenty ASCII, pokud takové ekvivalenty existují. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
elision: Odebere elize. Například "l'avion" (letadlo) bude převedeno na "avion" (letadlo). Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
malá písmena: Normalizuje text tokenu na malá písmena. Podívejte se na https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
standard: Standardní normalizátor, který se skládá z malých písmen a asciifoldingu. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
velká písmena: Normalizuje text tokenu na velká písmena. Podívejte se na https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizer

Obsahuje možné případy tokenizátoru.

LexicalTokenizerName

Definuje jména všech tokenizátorů podporovaných vyhledávačem.
<xref:KnownLexicalTokenizerName> lze použít zaměnitelně s LexicalTokenizerName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

klasické: tokenizátor založený na gramatikě, který je vhodný pro zpracování většiny dokumentů evropského jazyka. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: Tokenizuje vstup od okraje do n gramů dané velikosti. Podívejte se na https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: Vygeneruje celý vstup jako jeden token. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
písmeno: Rozdělí text bez písmen. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
malá písmena: Rozdělí text bez písmen a převede je na malá písmena. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: Rozdělí text pomocí pravidel specifických pro jazyk.
microsoft_language_stemming_tokenizer: Rozdělí text pomocí pravidel specifických pro jazyk a omezí slova na jejich základní formuláře.
nGram: Tokenizuje vstup na n-gramy dané velikosti. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizátor pro hierarchie podobné cestě. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
vzor: Tokenizer, který používá porovnávání vzorů regulárních výrazů k vytváření jedinečných tokenů. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Standardní analyzátor Lucene; Skládá se ze standardního tokenizátoru, filtru malými písmeny a filtru zastavení. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokenizuje adresy URL a e-maily jako jeden token. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
prázdných znaků: Rozdělí text na prázdné znaky. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListAliasesOptions

Možnosti operace aliasů seznamu

ListDataSourceConnectionsOptions

Možnosti operace zdrojů dat seznamu

ListIndexersOptions

Možnosti operace indexerů seznamu

ListIndexesOptions

Možnosti operace indexů seznamu

ListSkillsetsOptions

Možnosti operace sad dovedností seznamu

ListSynonymMapsOptions

Možnosti operace synonymMaps seznamu

MarkdownHeaderDepth

Určuje maximální hloubku záhlaví, která se bude brát v úvahu při seskupování obsahu markdownu. Výchozí hodnota je h6.
KnownMarkdownHeaderDepth lze použít zaměnitelně s MarkdownHeaderDepth, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

h1: Označuje, že při seskupování obsahu markdownu budou brána v úvahu záhlaví až do úrovně h1.
h2: Označuje, že záhlaví až do úrovně h2 budou brána v úvahu při seskupování obsahu markdownu.
h3: Označuje, že při seskupování obsahu markdownu se budou brát v úvahu záhlaví až do úrovně h3.
h4: Označuje, že při seskupování obsahu markdownu budou brána v úvahu záhlaví až do úrovně h4.
h5: Označuje, že při seskupování obsahu markdownu se budou brát v úvahu záhlaví až do úrovně h5.
h6: Označuje, že při seskupování obsahu markdownu se bude brát v úvahu záhlaví až do úrovně h6. Toto je výchozí hodnota.

MarkdownParsingSubmode

Určuje podrežim, který určí, zda bude soubor markdown analyzován právě do jednoho vyhledávacího dokumentu nebo do více vyhledávaných dokumentů. Výchozí hodnota je oneToMany.
KnownMarkdownParsingSubmode lze použít zaměnitelně s MarkdownParsingSubmode , tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

oneToMany: Označuje, že každá část souboru markdownu (až do zadané hloubky) bude analyzována do jednotlivých vyhledávacích dokumentů. To může mít za následek, že jeden soubor markdown vytvoří více vyhledávacích dokumentů. Toto je výchozí podrežim.
oneToOne: Označuje, že každý soubor markdownu bude analyzován do jednoho vyhledávacího dokumentu.

MergeDocumentsOptions

Možnosti operace sloučení dokumentů

MergeOrUploadDocumentsOptions

Možnosti operace sloučení nebo nahrání dokumentů

MicrosoftStemmingTokenizerLanguage

Uvádí jazyky podporované tokenizérem Microsoft jazyka stemming.

MicrosoftTokenizerLanguage

Uvádí jazyky podporované Microsoft jazykovým tokenizérem.

NarrowedModel

Zužuje typ modelu tak, aby zahrnoval pouze vybraná pole.

OcrLineEnding

Definuje posloupnost znaků, která se má použít mezi řádky textu rozpoznanou dovedností OCR. Výchozí hodnota je mezera.
PoleOcrLineEnding lze použít zaměnitelně s OcrLineEnding, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

mezery: Řádky jsou oddělené jedním znakem mezery.
začátek řádku: Čáry jsou odděleny znakem návratu na začátek řádku ("\r').
lineFeed: Řádky jsou oddělené jedním znakem odřádkování ('\n').
carriageReturnLineFeed: Čáry jsou odděleny znakem návratu na začátek řádku a znakem odřádkování ("\r\n').

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Identifikuje typ fonetického kodéru, který se má použít s PhoneticTokenFilter.

QueryAnswer

Hodnota, která určuje, jestli se odpovědi mají vrátit jako součást odpovědi hledání. Tento parametr je platný pouze v případě, že je typ dotazu "sémantický". Pokud je nastavená hodnota extractive, dotaz vrátí odpovědi extrahované z klíčových pasáží v nejřadivějších dokumentech.

QueryCaption

Hodnota, která určuje, zda mají být titulky vráceny jako součást odpovědi hledání. Tento parametr je platný pouze v případě, že je typ dotazu "sémantický". Pokud je tato možnost nastavená, dotaz vrátí titulky extrahované z klíčových pasáží v nejřadivějších dokumentech. Pokud jsou titulky extrahované, zvýraznění je ve výchozím nastavení povolené. Výchozí hodnota je žádná.

QueryDebugMode

Povolí ladicí nástroj, který lze použít k dalšímu prozkoumání výsledků hledání. Můžete povolit více režimů ladění současně jejich oddělením pomocí znaku | znak, například: semantic|queryRewrites.
KnownQueryDebugMode lze použít zaměnitelně s QueryDebugMode, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

zakázáno: Nebudou vráceny žádné informace o ladění dotazu.
sémantická: Umožňuje uživateli dále prozkoumávat výsledky změny pořadí.
vektor: Umožňuje uživateli dále prozkoumat výsledky hybridních a vektorových dotazů.
queryRewrites: Umožňuje uživateli prozkoumat seznam přepisů dotazů vygenerovaných pro jeho požadavek na vyhledávání.
innerHits: Umožňuje uživateli načíst informace o bodování týkající se vektorů odpovídajících v kolekci komplexních typů.
vše: Zapne všechny možnosti ladění.

QueryRewrites

Definuje možnosti pro přepisování dotazů.

QueryType

Určuje syntaxi vyhledávacího dotazu. Výchozí hodnota je 'simple'. Pokud dotaz používá syntaxi dotazu Lucene, použijte hodnotu "úplná", pokud syntaxi dotazu nepotřebujete, použijte hodnotu "sémantická".
<xref:KnownQueryType> lze použít zaměnitelně s QueryType, toto enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

Jednoduché: Používá syntaxi jednoduchých dotazů pro vyhledávání. Hledaný text je interpretován pomocí jednoduchého dotazovacího jazyka, který umožňuje symboly jako +, * a "". Dotazy jsou ve výchozím nastavení vyhodnocovány ve všech prohledávatelných polích, pokud není zadán parametr searchFields.
full: Používá kompletní syntaxi dotazů Lucene pro vyhledávání. Hledaný text je interpretován pomocí dotazovacího jazyka Lucene, který umožňuje vyhledávání specifické pro dané pole a vážené a další pokročilé funkce.
Sémantické: Nejlépe se hodí pro dotazy vyjádřené přirozeným jazykem na rozdíl od klíčových slov. Zlepšuje přesnost výsledků vyhledávání změnou pořadí nejlepších výsledků vyhledávání pomocí modelu hodnocení natrénovaného na webovém korpusu.

RankingOrder

Představuje skóre, které se má použít pro pořadí řazení dokumentů.
KnownRankingOrder lze použít zaměnitelně s RankingOrder, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

BoostedRerankerScore: Nastaví pořadí řazení na BoostedRerankerScore
RerankerScore: Nastaví pořadí řazení na ReRankerScore

RegexFlags
ResetIndexerOptions

Možnosti operace resetování indexeru

RunIndexerOptions

Možnosti spuštění operace indexeru

ScoringFunction

Obsahuje možné případy pro ScoringFunction.

ScoringFunctionAggregation

Definuje agregační funkci, která se používá ke kombinování výsledků všech hodnotících funkcí v profilu vyhodnocování.

ScoringFunctionInterpolation

Definuje funkci použitou k interpolaci zvýšení skóre v rozsahu dokumentů.

ScoringStatistics

Hodnota, která určuje, zda chceme vypočítat statistiky bodování (například frekvenci dokumentů) globálně pro konzistentnější bodování, nebo místně pro nižší latenci. Výchozí je 'local'. Pomocí výrazu "globální" můžete před vyhodnocením globálně agregovat statistiky hodnocení. Použití globálních statistik bodování může zvýšit latenci vyhledávacích dotazů.

SearchField

Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole.

SearchFieldArray

Pokud TModel je netypový objekt, pole beztypového řetězce V opačném případě pole s lomítkem oddělených poli TModel.

SearchFieldDataType

Definuje hodnoty pro SearchFieldDataType.

Známé hodnoty podporované službou:

Edm.String: Označuje, že pole obsahuje řetězec.

Edm.Int32: Označuje, že pole obsahuje 32bitové celé číslo se znaménkem.

Edm.Int64: Označuje, že pole obsahuje 64bitové celé číslo se znaménkem.

Edm.Double: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s dvojitou přesností IEEE.

Edm.Boolean: Označuje, že pole obsahuje logickou hodnotu (true nebo false).

Edm.DateTimeOffset: Označuje, že pole obsahuje hodnotu data a času, včetně informací o časovém pásmu.

Edm.GeographyPoint: Označuje, že pole obsahuje geografické umístění z hlediska zeměpisné délky a zeměpisné šířky.

Edm.ComplexType: Označuje, že pole obsahuje jeden nebo více složitých objektů, které zase mají dílčí pole jiných typů.

Edm.Single: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s jednou přesností. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Single).

Edm.Half: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s poloviční přesností. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Half).

Edm.Int16: Označuje, že pole obsahuje 16bitové celé číslo se znaménkem. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Int16).

Edm.SByte: Označuje, že pole obsahuje 8bitové celé číslo se znaménkem. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.SByte).

Edm.Byte: Označuje, že pole obsahuje 8bitové celé číslo bez znaménka. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Byte).

SearchIndexAlias

Objekt Alias vyhledávání.

SearchIndexerDataIdentity

Obsahuje možné případy pro SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Obsahuje možné případy dovednosti.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Iterátor pro výsledky hledání patikulárního dotazu. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace.

SearchMode

Určuje, zda musí být některé nebo všechny hledané výrazy shodné, aby se dokument započítal jako shodný.

SearchOptions

Možnosti potvrzení žádosti o úplné vyhledávání

SearchPick

Hloubkový výběr polí T pomocí platných cest ODat$select a AI Search OData.

SearchRequestOptions

Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů

SearchRequestQueryTypeOptions
SearchResult

Obsahuje dokument nalezený vyhledávacím dotazem a přidruženými metadaty.

SelectFields

Vytvoří sjednocení platných cest OData $select AI Search pro T pomocí procházení stromu pole s kořenem v T po objednávce.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType

Typ částečné odpovědi, která byla vrácena pro požadavek na sémantické řazení.
KnownSemanticSearchResultsType lze použít zaměnitelně se SemanticSearchResultsType, tento enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

baseResults: Výsledky bez jakéhokoliv sémantického obohacení nebo přeřazení.
rerankedResults: Výsledky byly přeřazeny pomocí modelu reranker a budou obsahovat sémantické popisky. Nebudou obsahovat žádné odpovědi, zvýraznění odpovědí ani zvýraznění titulků.

SentimentSkillLanguage

Jazykové kódy podporované pro vstupní text společností SentimentSkill.
KnownSentimentSkillLanguage lze používat zaměnitelně se SentimentSkillLanguage, tento enum obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

da: dánsky
nl: nizozemsky
en: English
fi: finsky
fr: francouzsky
de: německy
el: Řecký
it: italsky
ne: norský (bokmaal)
pl: Polština
pt-PT: Portugalština (Portugalsko)
ru: rusky
es: španělsky
sv: švédsky
tr: Turečtina

Similarity

Alias pro SimilarityAlgorithmUnion

SimilarityAlgorithm

Obsahuje možné případy podobnosti.

SnowballTokenFilterLanguage

Jazyk, který se má použít pro filtr tokenu sněhové koule.

SplitSkillLanguage
StemmerTokenFilterLanguage

Jazyk, který se má použít pro filtr tokenů stemmeru.

StopwordsList

Identifikuje předdefinovaný seznam stophesel specifických pro jazyk.

SuggestNarrowedModel
SuggestOptions

Možnosti načítání návrhů na základě vyhledávacího textu

SuggestResult

Výsledek obsahující dokument nalezený dotazem návrhu a přidruženými metadaty.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Představuje třídy znaků, se kterými může filtr tokenů pracovat.

TokenFilter

Obsahuje možné případy pro TokenFilter.

TokenFilterName

Definuje názvy všech filtrů tokenů podporovaných vyhledávacím modulem.
<xref:KnownTokenFilterName> lze zaměnitelně s TokenFilterName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

arabic_normalization: Filtr tokenů, který použije arabský normalizátor k normalizaci orthografie. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrof: Odstraní všechny znaky za apostrofem (včetně samotného apostrofu). Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: Převede abecední, číselné a symbolické znaky Unicode, které nejsou v prvních 127 znaky ASCII (blok "Základní latinka") na jejich ekvivalenty ASCII, pokud takové ekvivalenty existují. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: Vytvoří bigramy termínů CJK, které jsou generovány ze standardního tokenizéru. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: Normalizuje rozdíly šířky CJK. Skládá varianty ASCII s plnou šířkou do ekvivalentní základní latiny a varianty katakany s poloviční šířkou do ekvivalentní kany. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
klasických: Odebere anglické přivlastňovací a tečky ze zkratek. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: Vytvořte bigramy pro často se vyskytující termíny při indexování. Jednotlivé termíny jsou stále indexované, s překryvnými bigramy. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: Generuje n-gramy dané velikosti počínaje přední nebo zadní částí vstupního tokenu. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: Odebere elize. Například "l'avion" (letadlo) bude převedeno na "avion" (letadlo). Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Normalizuje německé znaky podle heuristiky německého snowball algoritmu. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: Normalizuje text v hindštině, aby se odebraly některé rozdíly v pravopisných variantách. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: Normalizuje reprezentaci textu unicode v indických jazycích. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: Generuje každý příchozí token dvakrát, jednou jako klíčové slovo a jednou jako jiné než klíčové slovo. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: Vysoce výkonný filtr kstem pro angličtinu. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
délka: Odebere slova, která jsou příliš dlouhá nebo příliš krátká. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limit: Omezuje počet tokenů při indexování. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
malá písmena: Normalizuje text tokenu na malá písmena. Podívejte se na https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: Generuje n-gramy dané velikosti. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Použije normalizaci pro Perštinu. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetický: Vytvořte tokeny pro fonetické shody. Podívejte se na https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: Používá algoritmus vytváření porterů k transformaci datového proudu tokenu. Podívejte se na http://tartarus.org/~martin/PorterStemmer
obrácení: Obrátí řetězec tokenu. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Normalizuje použití zaměnitelných severských znaků. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Folds skandinávské znaky ÅŢ... äæ"Æ->a a öÖà ̧à ̃-o>. Také diskriminuje použití dvojitých samohlásek aa, ae, ao, oe a oo, ponechání jen první. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle: Vytvoří kombinace tokenů jako jeden token. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
sněhová koule: Filtr, který vychází ze slov pomocí snowballu generovaného stemmeru. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: Normalizuje reprezentaci textu Sorani v kódování Unicode. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmeru: Filtr specifického pro jazyk. Podívejte se na https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
stopwords: Odebere slova stop ze streamu tokenu. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
oříznutí: Oříznou počáteční a koncové prázdné znaky z tokenů. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
zkrátit: Zkracuje termíny na určitou délku. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
jedinečných: Vyfiltruje tokeny se stejným textem jako předchozí token. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
velkými písmeny: Normalizuje text tokenu na velká písmena. Podívejte se na https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: Rozdělí slova do podsloví a provede volitelné transformace skupin podwordů.

UnionToIntersection
UploadDocumentsOptions

Možnosti operace nahrání dokumentů

VectorEncodingFormat

Formát kódování pro interpretaci obsahu vektorového pole.
PoleVectorEncodingFormat lze použít zaměnitelně s VectorEncodingFormat, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

packedBit: Formát kódování představující bity zabalené do širšího datového typu.

VectorFilterMode
VectorQuery

Parametry dotazu pro vektorové a hybridní vyhledávací dotazy.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Obsahuje možnosti konfigurace specifické pro algoritmus použitý při indexování nebo dotazování.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Obsahuje možnosti konfigurace specifické pro metodu komprese použitou při indexování nebo dotazování.

VectorSearchCompressionKind

Metoda komprese používaná pro indexování a dotazování.
PoleVectorSearchCompressionKind lze použít zaměnitelně s VectorSearchCompressionKind, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

skalarQuantization: Skalární kvantování, typ metody komprese. V skalárním kvantování se původní hodnoty vektorů komprimují na užší typ diskretizací a představují každou komponentu vektoru pomocí snížené množiny kvantovaných hodnot, čímž se zmenší celková velikost dat.
binaryQuantization: Binary Quantization, typ metody komprese. V binárním kvantování se hodnoty původních vektorů komprimují na užší binární typ diskretizací a představující každou komponentu vektoru pomocí binárních hodnot, čímž se zmenší celková velikost dat.

VectorSearchCompressionRescoreStorageMethod

Metoda ukládání původních vektorů s plnou přesností používaných pro opakované bodování a interní operace indexu.
KnownVectorSearchCompressionRescoreStorageMethod lze použít zaměnitelně s VectorSearchCompressionRescoreStorageMethod, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

preserveOriginals: Tato možnost zachová původní vektory s plnou přesností. Tuto možnost vyberte pro maximální flexibilitu a nejvyšší kvalitu komprimovaných výsledků hledání. To spotřebovává více úložiště, ale umožňuje převzorkování a převzorkování.
discardOriginals: Tato volba zahodí původní vektory s plnou přesností. Tuto možnost vyberte, chcete-li dosáhnout maximální úspory úložiště. Vzhledem k tomu, že tato volba neumožňuje převzorkování a převzorkování, často způsobí mírné až střední snížení kvality.

VectorSearchCompressionTarget

Kvantovaný datový typ komprimovaných vektorových hodnot.
PoleVectorSearchCompressionTarget lze použít zaměnitelně s VectorSearchCompressionTarget, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

int8: 8bitové podepsané celé číslo.

VectorSearchVectorizer

Obsahuje možnosti konfigurace, jak vektorizovat textové vektorové dotazy.

VectorSearchVectorizerKind

Metoda vektorizace, která se má použít během doby dotazu.
PoleVectorSearchVectorizerKind lze použít zaměnitelně s VectorSearchVectorizerKind, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

azureOpenAI: Generování vkládání pomocí prostředku Azure OpenAI v době dotazu
customWebApi: Generování vkládání pomocí vlastního webového koncového bodu v době dotazu
aiServicesVision: Generujte vkládání pro obrázek nebo textový vstup v době dotazu pomocí rozhraní API Vision Vectorize služby Azure AI.
aml: Generování vkládání pomocí koncového bodu Azure Machine Learning nasazeného prostřednictvím katalogu modelů Azure AI Foundry v době dotazu.

VisualFeature
WebApiSkills

Výčty

KnownAIFoundryModelCatalogName

Název modelu embeddingu z katalogu Azure AI Foundry, který bude nazýván.

KnownAnalyzerNames

Definuje hodnoty pro AnalyzerName. Podívejte se na https://learn.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Název modelu Azure Open AI, který se bude volat.

KnownBlobIndexerDataToExtract

Určuje data, která se mají extrahovat z úložiště objektů blob v Azure, a sděluje indexeru, která data se mají extrahovat z obsahu obrázku, když je "imageAction" nastavená na jinou hodnotu než "none". To platí pro vložený obrazový obsah v .PDF nebo jiné aplikaci nebo pro obrazové soubory, jako jsou .jpg a .png, v objektech blob Azure.

KnownBlobIndexerImageAction

Určuje, jak zpracovat vložené obrázky a soubory obrázků ve službě Azure Blob Storage. Nastavení konfigurace "imageAction" na jakoukoli jinou hodnotu než "none" vyžaduje, aby k tomuto indexeru byla připojena také sada dovedností.

KnownBlobIndexerPDFTextRotationAlgorithm

Určuje algoritmus pro extrakci textu ze souborů PDF v úložišti objektů blob v Azure.

KnownBlobIndexerParsingMode

Představuje režim analýzy pro indexování ze zdroje dat objektů blob Azure.

KnownCharFilterNames

Definuje hodnoty pro CharFilterName.

KnownChatCompletionExtraParametersBehavior

Specifikuje, jak by měl být 'extraParameters' řešen Azure AI Foundry. Výchozí hodnota je 'error'.

KnownChatCompletionResponseFormatType

Určuje, jak má LLM formátovat odpověď.

KnownContentUnderstandingSkillChunkingUnit

Řídí kardinalitu jednotky bloku bloků dat. Výchozí je 'znaky'

KnownContentUnderstandingSkillExtractionOptions

Řídí mohutnost obsahu extrahovaného z dokumentu pomocí dovednosti.

KnownCustomEntityLookupSkillLanguage

Jazykové kódy podporované pro vstupní text nástrojem CustomEntityLookupSkill.

KnownDocumentIntelligenceLayoutSkillChunkingUnit

Řídí kardinalitu jednotky bloku bloků dat. Výchozí je 'znaky'

KnownDocumentIntelligenceLayoutSkillExtractionOptions

Řídí mohutnost obsahu extrahovaného z dokumentu pomocí dovednosti.

KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Hloubka záhlaví ve výstupu markdownu. Výchozí hodnota je h6.

KnownDocumentIntelligenceLayoutSkillOutputFormat

Určuje mohutnost výstupního formátu. Výchozí je 'markdown'.

KnownDocumentIntelligenceLayoutSkillOutputMode

Řídí kardinalitu výstupu vytvořeného dovedností. Výchozí hodnota je oneToMany.

KnownEntityCategory

Řetězec označující, které kategorie entit se mají vrátit.

KnownEntityRecognitionSkillLanguage

Jazykové kódy podporované pro vstupní text nástrojem EntityRecognitionSkill.

KnownImageAnalysisSkillLanguage

Jazykové kódy podporované pro vstup nástrojem ImageAnalysisSkill.

KnownImageDetail

Řetězec označující, které podrobnosti specifické pro doménu se mají vrátit.

KnownIndexProjectionMode

Definuje chování projekcí indexu ve vztahu ke zbytku indexeru.

KnownIndexerExecutionEnvironment

Určuje prostředí, ve kterém by měl indexer spuštěn.

KnownIndexerResyncOption

Možnosti s různými typy dat oprávnění k indexování.

KnownKeyPhraseExtractionSkillLanguage

Jazykové kódy podporované pro vstupní text pomocí KeyPhraseExtractionSkill.

KnownKnowledgeBaseModelKind

Model umělé inteligence, který se má použít pro plánování dotazů.

KnownKnowledgeSourceKind

Druh zdroje znalostí.

KnownLexicalAnalyzerName

Definuje názvy všech analyzátorů textu podporovaných vyhledávacím modulem.

KnownLexicalNormalizerName

Definuje názvy všech normalizátorů textu podporovaných vyhledávacím modulem.

KnownMarkdownHeaderDepth

Určuje maximální hloubku záhlaví, která se bude brát v úvahu při seskupování obsahu markdownu. Výchozí hodnota je h6.

KnownMarkdownParsingSubmode

Určuje podrežim, který určí, zda bude soubor markdown analyzován právě do jednoho vyhledávacího dokumentu nebo do více vyhledávaných dokumentů. Výchozí hodnota je oneToMany.

KnownOcrLineEnding

Definuje posloupnost znaků, která se má použít mezi řádky textu rozpoznanou dovedností OCR. Výchozí hodnota je mezera.

KnownOcrSkillLanguage

Kódy jazyků podporované pro vstup pomocí OcrSkill.

KnownPIIDetectionSkillMaskingMode

Řetězec označující, jaký režim maskingMode se má použít k maskování osobních údajů zjištěných ve vstupním textu.

KnownQueryDebugMode

Povolí ladicí nástroj, který lze použít k dalšímu prozkoumání výsledků hledání. Můžete povolit více režimů ladění současně jejich oddělením pomocí znaku | znak, například: semantic|queryRewrites.

KnownRankingOrder

Představuje skóre, které se má použít pro pořadí řazení dokumentů.

KnownRegexFlags

Definuje regulární výraz, který lze použít v analyzátoru vzorů a tokenizéru vzorů.

KnownSearchAudience

Známé hodnoty pro cílovou skupinu vyhledávání

KnownSearchFieldDataType

Definuje datový typ pole ve vyhledávacím indexu.

KnownSearchIndexerDataSourceType

Definuje typ datového zdroje.

KnownSemanticErrorMode

Umožňuje uživateli zvolit, zda má sémantický hovor zcela selhat, nebo zda vrátí částečné výsledky.

KnownSemanticErrorReason

Důvod, proč byla vrácena částečná odpověď na žádost o sémantické řazení.

KnownSemanticSearchResultsType

Typ částečné odpovědi, která byla vrácena pro požadavek na sémantické řazení.

KnownSentimentSkillLanguage

Jazykové kódy podporované pro vstupní text společností SentimentSkill.

KnownSplitSkillLanguage

Jazykové kódy podporované pro vstupní text službou SplitSkill.

KnownTextSplitMode

Hodnota označující, který režim rozdělení se má provést.

KnownTextTranslationSkillLanguage

Jazykové kódy podporované pro vstupní text nástrojem TextTranslationSkill.

KnownTokenFilterNames

Definuje hodnoty pro TokenFilterName.

KnownTokenizerNames

Definuje hodnoty pro TokenizerName.

KnownVectorEncodingFormat

Formát kódování pro interpretaci obsahu vektorového pole.

KnownVectorFilterMode

Určuje, zda se filtry aplikují před nebo po vektorovém vyhledávání.

KnownVectorQueryKind

Druh prováděného vektorového dotazu.

KnownVectorSearchAlgorithmKind

Algoritmus používaný pro indexování a dotazování.

KnownVectorSearchAlgorithmMetric

Metrika podobnosti, která se má použít pro vektorové porovnání. Doporučuje se zvolit stejnou metriku podobnosti, na které byl natrénován model vkládání.

KnownVectorSearchCompressionKind

Metoda komprese používaná pro indexování a dotazování.

KnownVectorSearchCompressionRescoreStorageMethod

Metoda ukládání původních vektorů s plnou přesností používaných pro opakované bodování a interní operace indexu.

KnownVectorSearchCompressionTarget

Kvantovaný datový typ komprimovaných vektorových hodnot.

KnownVectorSearchVectorizerKind

Metoda vektorizace, která se má použít během doby dotazu.

KnownVisualFeature

Řetězce označující, jaké typy vizuálních funkcí se mají vrátit.

Funkce

createSynonymMapFromFile(string, string)

Pomocná metoda pro vytvoření synonymMap objektu. Jedná se pouze o metodu NodeJS.

odata(TemplateStringsArray, unknown[])

Uvozuje výraz filtru odata, aby nedocházelo k chybám s řetězcovými literály. Příklad použití:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Další informace o podporované syntaxi najdete v tématu: https://learn.microsoft.com/azure/search/search-query-odata-filter

Proměnné

DEFAULT_BATCH_SIZE

Výchozí velikost dávky

DEFAULT_FLUSH_WINDOW

Výchozí interval začištění okna

DEFAULT_RETRY_COUNT

Výchozí početkrát to zkusit znovu.

Podrobnosti funkce

createSynonymMapFromFile(string, string)

Pomocná metoda pro vytvoření synonymMap objektu. Jedná se pouze o metodu NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parametry

name

string

Název objektu SynonymMap.

filePath

string

Cesta k souboru, který obsahuje synonyma (s hodnocením novými řádky)

Návraty

Promise<SynonymMap>

Objekt SynonymMap

odata(TemplateStringsArray, unknown[])

Uvozuje výraz filtru odata, aby nedocházelo k chybám s řetězcovými literály. Příklad použití:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Další informace o podporované syntaxi najdete v tématu: https://learn.microsoft.com/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parametry

strings

TemplateStringsArray

Pole řetězců pro výraz

values

unknown[]

Pole hodnot pro výraz

Návraty

string

Podrobnosti proměnné

DEFAULT_BATCH_SIZE

Výchozí velikost dávky

DEFAULT_BATCH_SIZE: number

Typ

number

DEFAULT_FLUSH_WINDOW

Výchozí interval začištění okna

DEFAULT_FLUSH_WINDOW: number

Typ

number

DEFAULT_RETRY_COUNT

Výchozí početkrát to zkusit znovu.

DEFAULT_RETRY_COUNT: number

Typ

number