Sdílet prostřednictvím


@azure/search-documents package

Třídy

AzureKeyCredential

Přihlašovací údaje založené na statickém klíči, které podporují aktualizaci hodnoty podkladového klíče.

GeographyPoint

Představuje geografický bod v globálních souřadnicích.

IndexDocumentsBatch

Třída slouží k provádění dávkových operací s více dokumenty do indexu.

SearchClient

Třída se používá k provádění operací s indexem vyhledávání, včetně dotazování na dokumenty v indexu a jejich přidávání, aktualizace a odebírání.

SearchIndexClient

Třída pro provádění operací pro správu indexů (vytvoření, aktualizace, výpis/odstranění) & mapování synonym.

SearchIndexerClient

Třída pro provádění operací pro správu (vytvoření, aktualizace, výpis/odstranění) indexerů, zdrojů dat & sad dovedností.

SearchIndexingBufferedSender

Třída používaná k provádění operací uložených ve vyrovnávací paměti s indexem vyhledávání, včetně jejich přidávání, aktualizace a odebírání.

Rozhraní

AnalyzeRequest

Určuje některé textové a analytické komponenty, které se používají k rozdělení textu na tokeny.

AnalyzeResult

Výsledek testování analyzátoru na textu.

AnalyzedTokenInfo

Informace o tokenu vráceného analyzátorem

AsciiFoldingTokenFilter

Převede abecední, číselné a symbolické znaky Unicode, které nejsou v prvních 127 znacích ASCII (blok Unicode "Základní latinka"), na jejich ekvivalenty ASCII, pokud takové ekvivalenty existují. Tento filtr tokenů se implementuje pomocí Apache Lucene.

AutocompleteItem

Výsledek požadavků automatického dokončování.

AutocompleteRequest

Parametry přibližné shody a další chování automatického dokončování dotazů

AutocompleteResult

Výsledek automatického dokončování dotazu.

AzureActiveDirectoryApplicationCredentials

Přihlašovací údaje registrované aplikace vytvořené pro vaši vyhledávací službu, které slouží k ověřenému přístupu k šifrovacím klíčům uloženým v Azure Key Vault.

BM25Similarity

Funkce řazení založená na algoritmu podobnosti Okapi BM25. BM25 je algoritmus podobný TF-IDF, který zahrnuje normalizaci délky (řízenou parametrem "b") a také sytost frekvence termínu (řízená parametrem k1).

BaseCharFilter

Základní typ pro filtry znaků.

BaseCognitiveServicesAccount

Základní typ pro popis jakéhokoli prostředku služby Azure AI připojeného k sadě dovedností

BaseDataChangeDetectionPolicy

Základní typ zásad detekce změn dat

BaseDataDeletionDetectionPolicy

Základní typ pro zásady detekce odstranění dat.

BaseLexicalAnalyzer

Základní typ pro analyzátory.

BaseLexicalTokenizer

Základní typ pro tokenizátory.

BaseScoringFunction

Základní typ pro funkce, které můžou měnit skóre dokumentu během řazení.

BaseSearchIndexerSkill

Základní typ pro dovednosti.

BaseSearchRequestOptions

Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů

BaseTokenFilter

Základní typ pro filtry tokenů.

BaseVectorQuery

Parametry dotazu pro vektorové a hybridní vyhledávací dotazy.

BaseVectorSearchAlgorithmConfiguration

Obsahuje možnosti konfigurace specifické pro algoritmus použitý během indexování nebo dotazování.

CjkBigramTokenFilter

Vytváří bigramy výrazů CJK, které jsou generovány ze standardního tokenizátoru. Tento filtr tokenů se implementuje pomocí Apache Lucene.

ClassicSimilarity

Starší algoritmus podobnosti, který používá lucene TFIDFSimilarity implementaci TF-IDF. Tato varianta TF-IDF zavádí normalizaci statické délky dokumentů a také koordinující faktory, které penalizují dokumenty, které pouze částečně odpovídají prohledáným dotazům.

ClassicTokenizer

Tokenizátor založený na gramatice, který je vhodný pro zpracování většiny dokumentů v evropském jazyce. Tento tokenizátor se implementuje pomocí Apache Lucene.

CognitiveServicesAccountKey

Prostředek služby Azure AI zřízený s klíčem, který je připojený k sadě dovedností.

CommonGramTokenFilter

Sestavte bigramy pro často se vyskytující termíny při indexování. Jednotlivé termíny se stále indexují, překryvné bigramy. Tento filtr tokenů se implementuje pomocí Apache Lucene.

ComplexField

Představuje pole v definici indexu, která popisuje název, datový typ a chování pole při hledání.

ConditionalSkill

Dovednost, která umožňuje scénáře, které vyžadují logickou operaci k určení dat, která se mají přiřadit k výstupu.

CorsOptions

Definuje možnosti řízení sdílení prostředků mezi zdroji (CORS) pro index.

CreateOrUpdateIndexOptions

Možnosti operace vytvoření/aktualizace indexu

CreateOrUpdateSkillsetOptions

Možnosti operace vytvoření/aktualizace sady dovedností

CreateOrUpdateSynonymMapOptions

Možnosti operace vytvoření/aktualizace mapování synonym

CreateorUpdateDataSourceConnectionOptions

Možnosti operace vytvoření/aktualizace zdroje dat

CreateorUpdateIndexerOptions

Možnosti operace vytvoření/aktualizace indexeru

CustomAnalyzer

Umožňuje převzít kontrolu nad procesem převodu textu na indexovatelné/prohledávatelné tokeny. Jedná se o uživatelem definovanou konfiguraci, která se skládá z jednoho předdefinovaného tokenizátoru a jednoho nebo více filtrů. Tokenizátor zodpovídá za rozdělení textu do tokenů a filtry pro úpravu tokenů vygenerovaných tokenizátorem.

CustomEntity

Objekt, který obsahuje informace o nalezených shodách a souvisejících metadatech.

CustomEntityAlias

Složitý objekt, který lze použít k určení alternativních pravopisů nebo synonym názvu kořenové entity.

CustomEntityLookupSkill

Dovednost hledá text z vlastního, uživatelem definovaného seznamu slov a frází.

DefaultCognitiveServicesAccount

Prázdný objekt, který představuje výchozí prostředek služby Azure AI pro sadu dovedností.

DeleteDataSourceConnectionOptions

Možnosti operace odstranění zdroje dat

DeleteIndexOptions

Možnosti operace odstranění indexu

DeleteIndexerOptions

Možnosti operace odstranění indexeru

DeleteSkillsetOptions

Možnosti operaionu odstranění sady dovedností

DeleteSynonymMapOptions

Možnosti pro operaci odstranění mapy synonym

DictionaryDecompounderTokenFilter

Rozloží složená slova nalezená v mnoha germánských jazycích. Tento filtr tokenů se implementuje pomocí Apache Lucene.

DistanceScoringFunction

Definuje funkci, která zvyšuje skóre na základě vzdálenosti od zeměpisného umístění.

DistanceScoringParameters

Poskytuje hodnoty parametrů pro funkci bodování vzdálenosti.

DocumentExtractionSkill

Dovednost, která extrahuje obsah ze souboru v rámci kanálu pro rozšiřování.

EdgeNGramTokenFilter

Generuje n-gramů dané velikosti počínaje přední nebo zadní částí vstupního tokenu. Tento filtr tokenů se implementuje pomocí Apache Lucene.

EdgeNGramTokenizer

Tokenizuje vstup z hrany na n-gramů dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene.

ElisionTokenFilter

Odebere elisions. Například "l'avion" (letadlo) se převede na "avion" (rovina). Tento filtr tokenů se implementuje pomocí Apache Lucene.

EntityLinkingSkill

Pomocí rozhraní API Analýza textu extrahuje propojené entity z textu.

EntityRecognitionSkill

Rozpoznávání entit analýzy textu.

EntityRecognitionSkillV3

Pomocí rozhraní API Analýza textu extrahuje z textu entity různých typů.

ExhaustiveKnnParameters

Obsahuje parametry specifické pro vyčerpávající algoritmus KNN.

ExtractiveQueryAnswer

Extrahuje kandidáty na odpovědi z obsahu dokumentů vrácených jako odpověď na dotaz vyjádřený jako otázka v přirozeném jazyce.

ExtractiveQueryCaption

Extrahuje titulky z odpovídajících dokumentů, které obsahují pasáže relevantní pro vyhledávací dotaz.

FacetResult

Jeden kbelík výsledku omezujícího dotazu. Zaznamenává počet dokumentů s hodnotou pole spadající do určitého rozsahu nebo s konkrétní hodnotou nebo intervalem.

FieldMapping

Definuje mapování mezi polem ve zdroji dat a cílovým polem v indexu.

FieldMappingFunction

Představuje funkci, která transformuje hodnotu ze zdroje dat před indexováním.

FreshnessScoringFunction

Definuje funkci, která zvyšuje skóre na základě hodnoty pole datum a čas.

FreshnessScoringParameters

Poskytuje hodnoty parametrů pro funkci bodování aktuálnosti.

GetDocumentOptions

Možnosti pro načtení jednoho dokumentu

HighWaterMarkChangeDetectionPolicy

Definuje zásadu detekce změn dat, která zachycuje změny na základě hodnoty sloupce horní meze.

HnswParameters

Obsahuje parametry specifické pro algoritmus hnsw.

ImageAnalysisSkill

Dovednost, která analyzuje soubory obrázků. Extrahuje bohatou sadu vizuálních funkcí na základě obsahu obrázku.

IndexDocumentsClient

Klient indexování dokumentů

IndexDocumentsOptions

Možnosti pro operaci dávky změn indexu.

IndexDocumentsResult

Odpověď obsahující stav operací pro všechny dokumenty v požadavku indexování.

IndexerExecutionResult

Představuje výsledek spuštění jednotlivého indexeru.

IndexingParameters

Představuje parametry pro spuštění indexeru.

IndexingParametersConfiguration

Slovník vlastností konfigurace specifických pro indexer. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu.

IndexingResult

Stav operace indexování pro jeden dokument

IndexingSchedule

Představuje plán spuštění indexeru.

InputFieldMappingEntry

Mapování vstupních polí pro dovednost

KeepTokenFilter

Filtr tokenů, který uchovává pouze tokeny s textem obsaženým v zadaném seznamu slov. Tento filtr tokenů se implementuje pomocí Apache Lucene.

KeyPhraseExtractionSkill

Dovednost, která používá analýzu textu k extrakci klíčových frází.

KeywordMarkerTokenFilter

Označí termíny jako klíčová slova. Tento filtr tokenů se implementuje pomocí Apache Lucene.

KeywordTokenizer

Vygeneruje celý vstup jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene.

LanguageDetectionSkill

Dovednost, která rozpozná jazyk vstupního textu a hlásí kód jednoho jazyka pro každý dokument odeslaný na žádost. Kód jazyka je spárován se skórem označujícím spolehlivost analýzy.

LengthTokenFilter

Odebere slova, která jsou příliš dlouhá nebo příliš krátká. Tento filtr tokenů je implementovaný pomocí Apache Lucene.

LimitTokenFilter

Omezuje počet tokenů při indexování. Tento filtr tokenů je implementovaný pomocí Apache Lucene.

ListSearchResultsPageSettings

Argumenty pro načtení další stránky výsledků hledání

LuceneStandardAnalyzer

Standardní analyzátor Apache Lucene; Skládá se ze standardního tokenizátoru, filtru malých písmen a filtru zastavení.

LuceneStandardTokenizer

Zalomí text podle pravidel segmentace textu v kódování Unicode. Tento tokenizátor se implementuje pomocí Apache Lucene.

MagnitudeScoringFunction

Definuje funkci, která zvyšuje skóre na základě velikosti číselného pole.

MagnitudeScoringParameters

Poskytuje hodnoty parametrů pro funkci bodování velikosti.

MappingCharFilter

Filtr znaků, který používá mapování definovaná pomocí možnosti mapování. Shoda je chamtivá (nejdelší porovnávání vzorů v daném bodě vyhrává). Nahrazení může být prázdný řetězec. Tento filtr znaků se implementuje pomocí Apache Lucene.

MergeSkill

Dovednost pro sloučení dvou nebo více řetězců do jednoho sjednoceného řetězce s volitelným uživatelem definovaný oddělovač oddělující jednotlivé části komponenty.

MicrosoftLanguageStemmingTokenizer

Rozdělí text pomocí pravidel specifických pro konkrétní jazyk a zmenšuje slova na jejich základní tvary.

MicrosoftLanguageTokenizer

Rozdělí text pomocí pravidel specifických pro konkrétní jazyk.

NGramTokenFilter

Vygeneruje n-gramy dané velikosti. Tento filtr tokenů je implementovaný pomocí Apache Lucene.

NGramTokenizer

Tokenizuje vstup na n-gramy dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene.

OcrSkill

Dovednost, která extrahuje text ze souborů obrázků.

OutputFieldMappingEntry

Mapování výstupních polí pro dovednost

PIIDetectionSkill

Pomocí rozhraní ANALÝZA TEXTU API extrahuje osobní údaje ze vstupního textu a umožňuje je maskovat.

PathHierarchyTokenizer

Tokenizátor pro hierarchie podobné cestám. Tento tokenizátor se implementuje pomocí Apache Lucene.

PatternAnalyzer

Pružně rozděluje text na termíny pomocí vzoru regulárního výrazu. Tento analyzátor je implementovaný pomocí Apache Lucene.

PatternCaptureTokenFilter

Používá regexes v Javě k vygenerování více tokenů – jeden pro každou skupinu zachycení v jednom nebo více vzorech. Tento filtr tokenů je implementovaný pomocí Apache Lucene.

PatternReplaceCharFilter

Filtr znaků, který nahrazuje znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků, které se mají zachovat, a vzor nahrazení k identifikaci znaků, které se mají nahradit. Například s ohledem na vstupní text "aa bb aa bb", vzor "(aa)\s+(bb)" a nahrazení "$1#$2", výsledek bude "aa#bb aa#bb". Tento filtr znaků se implementuje pomocí Apache Lucene.

PatternReplaceTokenFilter

Filtr znaků, který nahrazuje znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků, které se mají zachovat, a vzor nahrazení k identifikaci znaků, které se mají nahradit. Například s ohledem na vstupní text "aa bb aa bb", vzor "(aa)\s+(bb)" a nahrazení "$1#$2", výsledek bude "aa#bb aa#bb". Tento filtr tokenů je implementovaný pomocí Apache Lucene.

PatternTokenizer

Tokenizer, který používá porovnávání vzorů regex k vytvoření jedinečných tokenů. Tento tokenizátor se implementuje pomocí Apache Lucene.

PhoneticTokenFilter

Vytvořte tokeny pro fonetické shody. Tento filtr tokenů je implementovaný pomocí Apache Lucene.

QueryAnswerResult

Odpověď je textová pasáž extrahovaná z obsahu nejdůležitějších dokumentů, které odpovídají dotazu. Odpovědi se extrahují z hlavních výsledků hledání. Kandidáti odpovědí jsou ohodnocení a vyberou se nejlepší odpovědi.

QueryCaptionResult

Titulky jsou nejreprezentativnějšími pasážemi z dokumentu relativně k vyhledávacímu dotazu. Často se používají jako souhrn dokumentů. Titulky se vrací pouze pro dotazy typu semantic.

ResourceCounter

Představuje využití a kvótu prostředku.

ScoringProfile

Definuje parametry pro index vyhledávání, které ovlivňují bodování ve vyhledávacích dotazech.

SearchClientOptions

Možnosti klienta používané ke konfiguraci požadavků rozhraní API služby Cognitive Search

SearchDocumentsPageResult

Odpověď obsahující výsledky vyhledávací stránky z indexu

SearchDocumentsResult

Odpověď obsahující výsledky hledání z indexu

SearchDocumentsResultBase

Odpověď obsahující výsledky hledání z indexu

SearchIndex

Představuje definici indexu vyhledávání, která popisuje pole a chování vyhledávání indexu.

SearchIndexClientOptions

Možnosti klienta používané ke konfiguraci požadavků rozhraní API služby Cognitive Search

SearchIndexStatistics

Statistika daného indexu Statistiky se shromažďují pravidelně a není zaručeno, že budou vždy aktuální.

SearchIndexer

Představuje indexer.

SearchIndexerClientOptions

Možnosti klienta používané ke konfiguraci požadavků rozhraní API služby Cognitive Search

SearchIndexerDataContainer

Představuje informace o entitě (například Azure SQL tabulce nebo kolekci CosmosDB), která bude indexována.

SearchIndexerDataSourceConnection

Představuje definici zdroje dat, kterou lze použít ke konfiguraci indexeru.

SearchIndexerError

Představuje chybu indexování na úrovni položky nebo dokumentu.

SearchIndexerKnowledgeStore

Definice dalších projekcí pro objekty blob, tabulky nebo soubory azure s obohacenými daty

SearchIndexerKnowledgeStoreBlobProjectionSelector

Abstraktní třída pro sdílení vlastností mezi konkrétní selektory.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definice projekce pro data, která se mají ukládat do Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definice projekce pro data, která se mají ukládat v objektech blob Azure.

SearchIndexerKnowledgeStoreProjection

Objekt kontejneru pro různé selektory projekce.

SearchIndexerKnowledgeStoreProjectionSelector

Abstraktní třída pro sdílení vlastností mezi konkrétní selektory.

SearchIndexerKnowledgeStoreTableProjectionSelector

Popis dat, která se mají ukládat do tabulek Azure

SearchIndexerLimits
SearchIndexerSkillset

Seznam dovedností.

SearchIndexerStatus

Představuje aktuální stav a historii provádění indexeru.

SearchIndexerWarning

Představuje upozornění na úrovni položky.

SearchIndexingBufferedSenderOptions

Možnosti pro SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Šifrovací klíč spravovaný zákazníkem v Azure Key Vault. Klíče, které vytvoříte a spravujete, můžete použít k šifrování nebo dešifrování neaktivních uložených dat v Azure Cognitive Search, jako jsou indexy a mapy synonym.

SearchServiceStatistics

Odpověď z žádosti o získání statistiky služby V případě úspěchu zahrnuje čítače a limity na úrovni služby.

SearchSuggester

Definuje, jak by se rozhraní API Pro návrhy mělo použít na skupinu polí v indexu.

SemanticConfiguration

Definuje konkrétní konfiguraci, která se má použít v kontextu sémantických funkcí.

SemanticField

Pole, které se používá jako součást sémantické konfigurace.

SemanticPrioritizedFields

Popisuje pole názvu, obsahu a klíčových slov, která se mají použít pro sémantické řazení, titulky, zvýraznění a odpovědi.

SemanticSearch

Definuje parametry pro index vyhledávání, které ovlivňují sémantické funkce.

SemanticSearchOptions

Definuje možnosti pro sémantické vyhledávací dotazy.

SentimentSkill

Analýza textu kladně-negativní mínění, vyhodnocená jako hodnota s plovoucí desetinou čárkou v rozsahu od nuly do 1.

SentimentSkillV3

Pomocí rozhraní API Analýza textu vyhodnocuje nestrukturovaný text a pro každý záznam poskytuje popisky mínění (například "negativní", "neutrální" a "pozitivní") na základě nejvyššího skóre spolehlivosti zjištěného službou na úrovni věty a dokumentu.

ServiceCounters

Představuje čítače a kvóty prostředků na úrovni služby.

ServiceLimits

Představuje různá omezení úrovně služeb.

ShaperSkill

Dovednost pro přetváření výstupů. Vytvoří komplexní typ pro podporu složených polí (označovaných také jako pole s více částmi).

ShingleTokenFilter

Vytvoří kombinace tokenů jako jeden token. Tento filtr tokenů je implementovaný pomocí Apache Lucene.

Similarity

Základní typ pro algoritmy podobnosti. Algoritmy podobnosti se používají k výpočtu skóre, která propojí dotazy s dokumenty. Čím vyšší je skóre, tím relevantnější je dokument pro daný konkrétní dotaz. Tato skóre se používají k řazení výsledků hledání.

SimpleField

Představuje pole v definici indexu, která popisuje název, datový typ a chování hledání pole.

SnowballTokenFilter

Filtr, který vytváří slova pomocí generovaného sněžnice. Tento filtr tokenů je implementovaný pomocí Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Definuje zásadu detekce odstranění dat, která implementuje strategii obnovitelného odstranění. Určuje, zda má být položka odstraněna na základě hodnoty určeného sloupce obnovitelného odstranění.

SplitSkill

Dovednost rozdělit řetězec na bloky textu.

SqlIntegratedChangeTrackingPolicy

Definuje zásadu detekce změn dat, která zaznamenává změny pomocí integrované funkce Change Tracking služby Azure SQL Database.

StemmerOverrideTokenFilter

Poskytuje možnost přepsat jiné filtry stemmingu pomocí vlastního slovníku založeného na stemmingu. Všechny termíny obsahující slovník budou označeny jako klíčová slova, aby se nezobrazovaly s kmeny v řetězci. Musí být umístěn před všechny filtry stopek. Tento filtr tokenů je implementovaný pomocí Apache Lucene.

StemmerTokenFilter

Filtr stemming specifický pro jazyk. Tento filtr tokenů je implementovaný pomocí Apache Lucene.

StopAnalyzer

Rozdělí text na jiné než písmena; Použije filtry tokenů malých písmen a dorazových slov. Tento analyzátor je implementovaný pomocí Apache Lucene.

StopwordsTokenFilter

Odebere stop slova z datového proudu tokenu. Tento filtr tokenů je implementovaný pomocí Apache Lucene.

SuggestDocumentsResult

Odpověď obsahující výsledky návrhu dotazu z indexu

SuggestRequest

Parametry pro filtrování, řazení, přibližné porovnávání a další návrhy chování dotazů.

SynonymMap

Představuje definici mapy synonym.

SynonymTokenFilter

Odpovídá jednoslovná nebo víceslovná synonyma v datovém proudu tokenu. Tento filtr tokenů je implementovaný pomocí Apache Lucene.

TagScoringFunction

Definuje funkci, která zvyšuje skóre dokumentů pomocí řetězcových hodnot odpovídajících danému seznamu značek.

TagScoringParameters

Poskytuje hodnoty parametrů pro bodovací funkci značky.

TextTranslationSkill

Dovednost pro překlad textu z jednoho jazyka do jiného.

TextWeights

Definuje váhy polí indexu, jejichž shody by měly zvýšit skóre ve vyhledávacích dotazech.

TruncateTokenFilter

Zkrátí termíny na určitou délku. Tento filtr tokenů se implementuje pomocí Apache Lucene.

UaxUrlEmailTokenizer

Tokenizuje adresy URL a e-maily jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene.

UniqueTokenFilter

Vyfiltruje tokeny se stejným textem jako předchozí token. Tento filtr tokenů se implementuje pomocí Apache Lucene.

VectorSearch

Obsahuje možnosti konfigurace související s vektorovými vyhledáváními.

VectorSearchOptions

Definuje možnosti pro dotazy vektorové vyhledávání.

VectorSearchProfile

Definuje kombinaci konfigurací pro použití s vektorovým vyhledáváním.

VectorizedQuery

Parametry dotazu, které se mají použít pro vektorové vyhledávání, když je zadaná nezpracovaná hodnota vektoru.

WebApiSkill

Dovednost, která může volat koncový bod webového rozhraní API, což vám umožní rozšířit sadu dovedností voláním vlastního kódu.

WordDelimiterTokenFilter

Rozdělí slova na podsloví a provede volitelné transformace skupin podseloví. Tento filtr tokenů se implementuje pomocí Apache Lucene.

Aliasy typu

AnalyzeTextOptions

Možnosti pro operaci analyzovat text

AutocompleteMode

Definuje hodnoty pro AutocompleteMode.

AutocompleteOptions

Možnosti pro načtení textu dokončení pro částečný searchText.

BlobIndexerDataToExtract

Známé hodnoty podporované službou

storageMetadata: Indexuje pouze standardní vlastnosti objektu blob a metadata zadaná uživatelem. allMetadata: Extrahuje metadata poskytovaná subsystémem úložiště objektů blob v Azure a metadata specifická pro obsah (například metadata jedinečná jenom pro .png soubory se indexují). contentAndMetadata: Extrahuje všechna metadata a textový obsah z každého objektu blob.

BlobIndexerImageAction

Známé hodnoty podporované službou

none: Ignoruje vložené obrázky nebo soubory obrázků v datové sadě. Tato možnost je výchozí. generateNormalizedImages: Extrahuje text z obrázků (například slovo STOP ze značky zastavení provozu) a vloží ho do pole obsahu. Tato akce vyžaduje, aby hodnota dataToExtract byla nastavená na contentAndMetadata. Normalizovaný obrázek odkazuje na další zpracování, jehož výsledkem je rovnoměrný výstup obrázku, jeho velikost a otočení, aby se podpořilo konzistentní vykreslování při zahrnutí obrázků do vizuálních výsledků hledání. Při použití této možnosti se tyto informace vygenerují pro každou image. generateNormalizedImagePerPage: Extrahuje text z obrázků (například slovo "STOP" ze značky zastavení provozu) a vloží ho do pole obsahu, ale zachází se soubory PDF jinak v tom, že každá stránka se vykresluje jako obrázek a odpovídajícím způsobem normalizuje místo extrahování vložených obrázků. S typy souborů bez PDF se bude zacházet stejně, jako kdyby byla nastavena možnost generateNormalizedImages.

BlobIndexerPDFTextRotationAlgorithm

Známé hodnoty podporované službou

none: Využívá normální extrakci textu. Tato možnost je výchozí. detectAngles: Může vytvářet lepší a čitelnější extrakci textu ze souborů PDF, které mají otočený text uvnitř. Všimněte si, že při použití tohoto parametru může mít malý dopad na rychlost výkonu. Tento parametr platí jenom pro soubory PDF a jenom pro soubory PDF s vloženým textem. Pokud se otočený text zobrazí ve vloženém obrázku v PDF, tento parametr se nepoužije.

BlobIndexerParsingMode

Známé hodnoty podporované službou

default: Pro normální zpracování souborů nastavte na výchozí. text: Pokud chcete zlepšit výkon indexování souborů ve formátu prostého textu v úložišti objektů blob, nastavte na text. delimitedText: Pokud jsou objekty blob prostými soubory CSV, nastavte na hodnotu delimitedText. json: Pokud chcete extrahovat strukturovaný obsah ze souborů JSON, nastavte na json. jsonArray: Pokud chcete extrahovat jednotlivé prvky pole JSON jako samostatné dokumenty v Azure Cognitive Search, nastavte na jsonArray. jsonLines: Pokud chcete extrahovat jednotlivé entity JSON oddělené novým řádkem jako samostatné dokumenty v Azure Cognitive Search, nastavte na jsonLines.

CharFilter

Obsahuje možné případy pro CharFilter.

CharFilterName

Definuje hodnoty pro CharFilterName.
<xref:KnownCharFilterName> Lze použít zaměnitelně s CharFilterName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

html_strip: Filtr znaků, který se pokouší vysunout konstruktory HTML. Viz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html.

CjkBigramTokenFilterScripts

Definuje hodnoty pro CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Obsahuje možné případy pro CognitiveServicesAccount.

ComplexDataType

Definuje hodnoty pro ComplexDataType. Mezi možné hodnoty patří: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Možnosti pro provedení operace počítání indexu

CreateDataSourceConnectionOptions

Možnosti operace vytvoření zdroje dat

CreateIndexOptions

Možnosti operace vytvoření indexu

CreateIndexerOptions

Možnosti operace vytvoření indexeru

CreateSkillsetOptions

Možnosti operace vytvoření sady dovedností

CreateSynonymMapOptions

Možnosti pro operaci vytvoření mapy synonym

CustomEntityLookupSkillLanguage

Definuje podporované jazyky pro CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage lze používat zaměnitelně s tímto typem.

DataChangeDetectionPolicy

Obsahuje možné případy pro DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Obsahuje možné případy pro DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Možnosti operace odstranění dokumentů

EdgeNGramTokenFilterSide

Definuje hodnoty pro EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage

Definuje podporované jazyky pro EntityRecognitionSkillKnownEntityRecognitionSkillLanguage lze používat zaměnitelně s tímto typem.

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Obsahuje možnosti konfigurace specifické pro vyčerpávající algoritmus KNN použitý při dotazování, který provede vyhledávání hrubou silou v celém vektorovém indexu.

ExtractDocumentKey
GetDataSourceConnectionOptions

Možnosti operace získání zdroje dat

GetIndexOptions

Možnosti operace získání indexu

GetIndexStatisticsOptions

Možnosti operace získání statistiky indexu

GetIndexerOptions

Možnosti operace získání indexeru

GetIndexerStatusOptions

Možnosti operace získání stavu indexeru

GetServiceStatisticsOptions

Možnosti operace získání statistiky služby

GetSkillSetOptions

Možnosti pro získání provozu sady dovedností.

GetSynonymMapsOptions

Možnosti operace get synonymmaps

HnswAlgorithmConfiguration

Obsahuje možnosti konfigurace specifické pro algoritmus přibližných nejbližších sousedů použitý během indexování.

ImageAnalysisSkillLanguage

Definuje podporované jazyky pro ImageAnalysisSkillKnownImageAnalysisSkillLanguage lze s tímto typem používat zaměnitelně.

ImageDetail
IndexActionType

Definuje hodnoty pro IndexActionType.

IndexDocumentsAction

Představuje akci indexu, která pracuje s dokumentem.

IndexIterator

Iterátor pro výpis indexů, které existují v Search. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() vytvořte jeden požadavek na server pro každou iteraci.

IndexNameIterator

Iterátor pro výpis indexů, které existují v Search. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() vytvořte jeden požadavek na server pro každou iteraci.

IndexerExecutionEnvironment

Známé hodnoty podporované službou

standard: Označuje, že Azure Cognitive Search může určit, kde se má indexer spustit. Toto je výchozí prostředí, pokud není zadáno nic, a jedná se o doporučenou hodnotu. private: Označuje, že indexer by měl běžet s prostředím zřízeným speciálně pro vyhledávací službu. Jako spouštěcí prostředí by se mělo zadat pouze v případě, že indexer potřebuje zabezpečený přístup k prostředkům přes sdílené prostředky privátního propojení.

IndexerExecutionStatus

Definuje hodnoty pro IndexerExecutionStatus.

IndexerStatus

Definuje hodnoty pro IndexerStatus.

KeyPhraseExtractionSkillLanguage

Definuje podporované jazyky pro KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillSkillLanguage lze zaměnitelně s tímto typem.

LexicalAnalyzer

Obsahuje možné případy pro Analyzátor.

LexicalAnalyzerName

Definuje hodnoty pro LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> Lze použít zaměnitelně s LexicalAnalyzerName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

ar.microsoft: Microsoft analyzer pro arabštinu.
ar.lucene: Analyzátor Lucene pro arabštinu.
hy.lucene: Analyzátor Lucene pro arménštinu.
bn.microsoft: Microsoft analyzer for Bangla.
eu.lucene: Analyzátor Lucene pro Basque.
bg.microsoft: Microsoft Analyzer pro bulharštinu.
bg.lucene: Analyzátor Lucene pro bulharštinu.
ca.microsoft: Microsoft analyzer for Catalan.
ca.lucene: Analyzátor Lucene pro katalánštinu.
zh-Hans.microsoft: Microsoft analyzer pro čínštinu (zjednodušená).
zh-Hans.lucene: Analyzátor Lucene pro čínštinu (zjednodušená).
zh-Hant.microsoft: Microsoft analyzer pro čínštinu (tradiční).
zh-Hant.lucene: Analyzátor Lucene pro čínštinu (tradiční).
hr.microsoft: Microsoft Analyzer pro chorvatštinu.
cs.microsoft: Microsoft analyzer for Czech.
cs.lucene: Analyzátor Lucene pro češtinu.
da.microsoft: Microsoft Analyzer pro dánštinu.
da.lucene: Analyzátor Lucene pro dánštinu.
nl.microsoft: Microsoft Analyzer for Dutch.
nl.lucene: Analyzátor Lucene pro nizozemštinu.
en.microsoft: Microsoft analyzer for English.
en.lucene: Lucene analyzer for English.
et.microsoft: Microsoft analyzer pro estonštinu.
fi.microsoft: Microsoft analyzer pro finštinu.
fi.lucene: Analyzátor Lucene pro finštinu.
fr.microsoft: Microsoft Analyzer pro francouzštinu.
fr.lucene: Analyzátor Lucene pro francouzštinu.
gl.lucene: Analyzátor Lucene pro galicijštinu.
de.microsoft: Microsoft Analyzer pro němčinu.
de.lucene: Analyzátor Lucene pro němčinu.
el.microsoft: Microsoft analyzer pro řečtinu.
el.lucene: Analyzátor Lucene pro řečtinu.
gu.microsoft: Microsoft Analyzer for Gujarati.
he.microsoft: Microsoft analyzer pro hebrejštinu.
hi.microsoft: Microsoft analyzer for Hindi.
hi.lucene: Analyzátor Lucene pro hindštinu.
hu.microsoft: Microsoft analyzer pro maďarštinu.
hu.lucene: Analyzátor Lucene pro maďarštinu.
is.microsoft: Microsoft Analyzer for Icelandic.
id.microsoft: Microsoft analyzer for Indonéština (Bahasa).
id.lucene: Analyzátor Lucene pro indonéštinu.
ga.lucene: Analyzátor Lucene pro irštinu.
it.microsoft: Microsoft analyzer pro italštinu.
it.lucene: Analyzátor Lucene pro italštinu.
ja.microsoft: Microsoft Analyzer pro japonštinu.
ja.lucene: Analyzátor Lucene pro japonštinu.
kn.microsoft: Microsoft analyzer for Kannada.
ko.microsoft: Microsoft Analyzer pro korejštinu.
ko.lucene: Analyzátor Lucene pro korejštinu.
lv.microsoft: Microsoft Analyzer pro lotyštinu.
lv.lucene: Analyzátor Lucene pro lotyštinu.
lt.microsoft: Microsoft analyzer pro litevštinu.
ml.microsoft: Microsoft analyzer for Malayalam.
ms.microsoft: Microsoft analyzer for Malay (latinka).
mr.microsoft: Microsoft analyzer for Marathi.
nb.microsoft: Microsoft analyzer for Norština (Bokmål).
no.lucene: Analyzátor Lucene pro norštinu.
fa.lucene: Analyzátor Lucene pro perštinu.
pl.microsoft: Microsoft analyzer pro polštinu.
pl.lucene: Analyzátor Lucene pro polštinu.
pt-BR.microsoft: Microsoft analyzer pro portugalštinu (Brazílie).
pt-BR.lucene: Analyzátor Lucene pro portugalštinu (Brazílie).
pt-PT.microsoft: Microsoft analyzer pro portugalštinu (Portugalsko).
pt-PT.lucene: Analyzátor Lucene pro portugalštinu (Portugalsko).
pa.microsoft: Microsoft analyzer for Padžábština.
ro.microsoft: Microsoft analyzer pro rumunštinu.
ro.lucene: Analyzátor Lucene pro rumunštinu.
ru.microsoft: Microsoft Analyzer pro ruštinu.
ru.lucene: Analyzátor Lucene pro ruštinu.
sr-cyrillic.microsoft: Microsoft analyzer pro srbštinu (cyrilice).
sr-latin.microsoft: Microsoft analyzer pro srbštinu (latinka).
sk.microsoft: Microsoft analyzer pro slovenštinu.
sl.microsoft: Microsoft Analyzer pro slovinštinu.
es.microsoft: Microsoft analyzer pro španělštinu.
es.lucene: Analyzátor Lucene pro španělštinu.
sv.microsoft: Microsoft analyzer pro švédštinu.
sv.lucene: Analyzátor Lucene pro švédštinu.
ta.microsoft: Microsoft analyzer for Tamil.
te.microsoft: Microsoft analyzer for Telugu.
th.microsoft: Microsoft analyzer pro thajštinu.
th.lucene: Analyzátor Lucene pro thajštinu.
tr.microsoft: Microsoft analyzer pro turečtinu.
tr.lucene: Analyzátor Lucene pro turečtinu.
uk.microsoft: Microsoft analyzer for Ukrajinština.
your.microsoft: Microsoft Analyzer for Urdu.
vi.microsoft: Microsoft analyzer pro vietnamštinu.
standard.lucene: Standardní analyzátor Lucene.
standardasciifolding.lucene: Standard ASCII Folding Lucene analyzer. Viz https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers.
klíčové slovo: Zachází s celým obsahem pole jako s jedním tokenem. To je užitečné pro data, jako jsou PSČ, ID a některé názvy produktů. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html.
vzor: Umožňuje flexibilně rozdělit text na termíny pomocí vzoru regulárního výrazu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html.
jednoduché: Rozdělí text na jiné než písmena a převede je na malá písmena. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html.
stop: Rozdělí text na jiné než písmena; Použije filtry tokenů malých písmen a dorazových slov. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html.
prázdné znaky: Analyzátor, který používá tokenizátor prázdných znaků. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html.

LexicalTokenizer

Obsahuje možné případy tokenizátoru.

LexicalTokenizerName

Definuje hodnoty pro LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> Lze použít zaměnitelně s LexicalTokenizerName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

classic: Tokenizátor založený na gramatice, který je vhodný pro zpracování většiny dokumentů v evropském jazyce. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html.
edgeNGram: Tokenizuje vstup z okraje na n-gramy dané velikosti. Viz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html.
keyword_v2: Vygeneruje celý vstup jako jeden token. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html.
letter: Rozdělí text na jiné než písmena. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html.
malá písmena: Rozdělí text na jiné než písmena a převede je na malá písmena. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html.
microsoft_language_tokenizer: Rozdělí text pomocí pravidel specifických pro konkrétní jazyk.
microsoft_language_stemming_tokenizer: Rozdělí text pomocí pravidel specifických pro konkrétní jazyk a zmenšuje slova na jejich základní tvary.
nGram: Tokenizuje vstup na n-gramy dané velikosti. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html.
path_hierarchy_v2: Tokenizer pro hierarchie podobné cestám. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html.
pattern: Tokenizer, který používá porovnávání vzorů regex k vytvoření jedinečných tokenů. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html.
standard_v2: Standardní analyzátor Lucene; Skládá se ze standardního tokenizátoru, filtru malých písmen a filtru zastavení. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html.
uax_url_email: Tokenizuje adresy URL a e-maily jako jeden token. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html.
prázdné znaky: Rozdělí text na prázdné znaky. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html.

ListDataSourceConnectionsOptions

Možnosti pro operaci se seznamem zdrojů dat

ListIndexersOptions

Možnosti pro operaci indexerů seznamu

ListIndexesOptions

Možnosti pro operaci indexování seznamu

ListSkillsetsOptions

Možnosti pro operaci sady dovedností seznamu

ListSynonymMapsOptions

Možnosti pro operaci seznamu synonymMaps.

MergeDocumentsOptions

Možnosti operace sloučení dokumentů

MergeOrUploadDocumentsOptions

Možnosti operace sloučení nebo nahrání dokumentů

MicrosoftStemmingTokenizerLanguage

Definuje hodnoty pro MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Definuje hodnoty pro MicrosoftTokenizerLanguage.

NarrowedModel

Zužuje typ modelu tak, aby zahrnoval pouze vybraná pole.

OcrSkillLanguage

Definuje podporované jazyky pro OcrSkillKnownOcrSkillLanguage lze používat zaměnitelně s tímto typem.

PIIDetectionSkillMaskingMode

Definuje hodnoty pro PIIDetectionSkillMaskingMode.

Známé hodnoty podporované službou

none: Nedochází k žádnému maskování a výstup maskovaného textu nebude vrácen. replace: Nahradí zjištěné entity znakem zadaným v parametru maskingCharacter. Znak se bude opakovat na délku zjištěné entity, aby posuny správně odpovídaly jak vstupnímu textu, tak i výstupu maskovanéhoText.

PhoneticEncoder

Definuje hodnoty pro PhoneticEncoder.

QueryAnswer

Hodnota, která určuje, zda mají být odpovědi vráceny jako součást odpovědi hledání. Tento parametr je platný pouze v případě, že je typ dotazu sémantický. Pokud je nastavená hodnota extractive, vrátí dotaz odpovědi extrahované z klíčových pasáží v dokumentech s nejvyšším pořadím.

QueryCaption

Hodnota, která určuje, zda mají být titulky vráceny jako součást odpovědi hledání. Tento parametr je platný pouze v případě, že je typ dotazu sémantický. Pokud je tato možnost nastavená, dotaz vrátí titulky extrahované z klíčových pasáží v dokumentech s nejvyšším pořadím. Pokud jsou titulky extrahované, je zvýraznění ve výchozím nastavení povolené. Výchozí hodnota je žádná.

QueryType

Definuje hodnoty pro QueryType.

RegexFlags

Definuje příznaky pro porovnávání vzorů regex.

Známé hodnoty podporované službou

CANON_EQ: Povolí kanonickou ekvivalenci. CASE_INSENSITIVE: Povolí porovnávání bez rozlišování velkých a malých písmen. KOMENTÁŘE: Povoluje prázdné znaky a komentáře ve vzoru. DOTALL: Povolí režim dotall. LITERAL: Povolí analýzu vzoru literálu. MULTILINE: Povolí víceřádkový režim. UNICODE_CASE: Umožňuje skládání velkých písmen s kódováním Unicode. UNIX_LINES: Povolí režim čar unixu.

ResetIndexerOptions

Možnosti pro resetování operace indexeru

RunIndexerOptions

Možnosti pro spuštění operace indexeru

ScoringFunction

Obsahuje možné případy pro ScoringFunction.

ScoringFunctionAggregation

Definuje hodnoty pro ScoringFunctionAggregation.

ScoringFunctionInterpolation

Definuje hodnoty pro ScoringFunctionInterpolation.

ScoringStatistics

Definuje hodnoty pro ScoringStatistics.

SearchField

Představuje pole v definici indexu, která popisuje název, datový typ a chování hledání pole.

SearchFieldArray

Pokud TModel je objekt bez typu, pole řetězců bez typu V opačném případě pole s oddělovači lomítek .TModel

SearchFieldDataType

Definuje hodnoty pro SearchFieldDataType. Mezi možné hodnoty patří: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)'

Poznámka: Edm.Single Sám o sobě není platný datový typ. Musí se použít jako součást typu kolekce.

SearchIndexerDataSourceType
SearchIndexerSkill

Obsahuje možné případy pro Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Možnosti pro SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Iterátor pro výsledky hledání patikulárního dotazu. Bude provádět požadavky podle potřeby během iterace. Pomocí příkazu .byPage() vytvořte jeden požadavek na server na každou iteraci.

SearchMode

Definuje hodnoty pro SearchMode.

SearchOptions

Možnosti potvrzení žádosti o úplné vyhledávání

SearchPick

Důkladně vyberte pole T pomocí platných cest OData služby Cognitive Search $select.

SearchRequestOptions

Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů

SearchRequestQueryTypeOptions
SearchResult

Obsahuje dokument nalezený vyhledávacím dotazem a přidružená metadata.

SelectArray

Pokud TFields není nikdy, pole řetězců bez typu V opačném případě se jedná o zúžený Fields[] typ, který se má použít jinde v konzumovaném typu.

SelectFields

Vytvoří sjednocení platných cest OData služby Cognitive Search $select pro T pomocí následného procházení stromu pole s kořenem T.

SemanticErrorMode

částečné: Pokud se zpracování sémantických dat nezdaří, částečné výsledky se přesto vrátí. Definice částečných výsledků závisí na tom, jaký sémantický krok selhal a jaký byl důvod selhání.

selhání: Pokud během kroku sémantického zpracování dojde k výjimce, dotaz selže a v závislosti na chybě vrátí příslušný kód HTTP.

SemanticErrorReason

maxWaitExceeded: Pokud byla nastavena hodnota semanticMaxWaitInMilliseconds a doba trvání sémantického zpracování překročila danou hodnotu. Byly vráceny pouze základní výsledky.

capacityOverloaded: Požadavek byl omezený. Byly vráceny pouze základní výsledky.

přechodné: Nejméně jeden krok sémantického procesu selhal.

SemanticSearchResultsType

baseResults: Výsledky bez sémantického obohacení nebo přeřazení.

rerankedResults: Výsledky byly znovu seřazeny s modelem rerankeru a budou obsahovat sémantické titulky. Nebudou obsahovat žádné odpovědi, zvýraznění odpovědí ani popis zvýraznění.

SentimentSkillLanguage

Definuje podporované jazyky pro SentimentSkillKnownSentimentSkillLanguage lze používat zaměnitelně s tímto typem.

SimilarityAlgorithm

Obsahuje možné případy podobnosti.

SnowballTokenFilterLanguage

Definuje hodnoty pro SnowballTokenFilterLanguage.

SplitSkillLanguage

Definuje podporované jazyky pro SplitSkillKnownSplitSkillLanguage lze používat zaměnitelně s tímto typem.

StemmerTokenFilterLanguage

Definuje hodnoty pro StemmerTokenFilterLanguage.

StopwordsList

Definuje hodnoty pro StopwordsList.

SuggestNarrowedModel
SuggestOptions

Možnosti pro načítání návrhů na základě vyhledávacího textu

SuggestResult

Výsledek obsahující dokument nalezený dotazem návrhu a přidružená metadata.

TextSplitMode
TextTranslationSkillLanguage

Definuje podporované jazyky pro TextTranslationSkillKnownTextTranslationSkillLanguage lze používat zaměnitelně s tímto typem.

TokenCharacterKind

Definuje hodnoty pro TokenCharacterKind.

TokenFilter

Obsahuje možné případy pro TokenFilter.

TokenFilterName

Definuje hodnoty pro TokenFilterName.
<xref:KnownTokenFilterName> Lze použít zaměnitelně s TokenFilterName, tento výčet obsahuje známé hodnoty, které služba podporuje.

Známé hodnoty podporované službou

arabic_normalization: Filtr tokenů, který použije arabský normalizátor k normalizaci pravopisu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html.
apostrof: Odstraní všechny znaky za apostrofem (včetně samotného apostrofu). Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html.
asciifolding: Převede abecední, číselné a symbolické znaky Unicode, které nejsou v prvních 127 ASCII znaků (blok Unicode "Základní latinka") na jejich ekvivalenty ASCII, pokud takové ekvivalenty existují. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.
cjk_bigram: Vytvoří bigramy výrazů CJK, které jsou generovány ze standardního tokenizátoru. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html.
cjk_width: Normalizuje rozdíly šířky CJK. Přeloží fullwidth varianty ASCII do ekvivalentní základní latinky a varianty Katakana s poloviční šířkou do ekvivalentní kany. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html.
classic: Odebere anglické přivlastňovací texty a tečky z akronymů. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html.
common_grams: Při indexování můžete vytvářet bigramy pro často se vyskytující termíny. Indexují se také jednotlivé termíny s překryvnými bigramy. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html.
edgeNGram_v2: Vygeneruje n-gramy dané velikosti počínaje přední nebo zadní částí vstupního tokenu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html.
elision: Odstraňuje elisions. Například "l'avion" (letadlo) se převede na "avion" (letadlo). Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.
german_normalization: Normalizuje německé znaky podle heuristiky algoritmu snowball german2. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html.
hindi_normalization: Normalizuje text v hindštině, aby se odstranily některé rozdíly v pravopisných variantách. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html.
indic_normalization: Normalizuje reprezentaci textu v indickém jazyce v kódování Unicode. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html.
keyword_repeat: Vygeneruje každý příchozí token dvakrát, jednou jako klíčové slovo a jednou jako bez klíčového slova. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html.
kstem: Vysoce výkonný filtr kstem pro angličtinu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html.
length: Odebere slova, která jsou příliš dlouhá nebo příliš krátká. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html.
limit: Omezuje počet tokenů při indexování. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html.
malá písmena: Normalizuje text tokenu na malá písmena. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm.
nGram_v2: Vygeneruje n-gramů dané velikosti. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html.
persian_normalization: Použije normalizaci pro perštinu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html.
fonetická: Vytvořte tokeny pro fonetické shody. Viz https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html.
porter_stem: Používá algoritmus stemming porteru k transformaci streamu tokenu. Viz http://tartarus.org/~martin/PorterStemmer.
reverse: Obrátí řetězec tokenu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.
scandinavian_normalization: Normalizuje použití vzájemně zaměnitelných znaků ve skandinávii. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html.
scandinavian_folding: Skládají skandinávské znaky åÅäæÄÆ-a> a ööøØ-o>. Diskriminuje také použití dvojitých samohlásek aa, ae, ao, oe ao, oe a oo, přičemž ponechá jen první. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html.
shingle: Vytvoří kombinace tokenů jako jeden token. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html.
snowball: Filtr, který vytváří slova pomocí stopky vygenerované sněhovou koulí. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html.
sorani_normalization: Normalizuje reprezentaci textu Sorani v kódování Unicode. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html.
stemmer: Filtr stopky specifický pro jazyk. Viz https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.
stopwords: Odebere stop slova ze streamu tokenu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.
trim: Oříznou počáteční a koncové prázdné znaky z tokenů. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html.
truncate: Zkracuje termíny na určitou délku. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html.
unique (jedinečný): Vyfiltruje tokeny se stejným textem jako předchozí token. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html.
velká písmena: Normalizuje text tokenu na velká písmena. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.
word_delimiter: Rozdělí slova do podseloví a provede volitelné transformace skupin subword.

UnionToIntersection
UploadDocumentsOptions

Možnosti operace nahrávání dokumentů

VectorFilterMode

Určuje, zda jsou použity filtry před nebo po provedení vektorového vyhledávání.

VectorQuery

Parametry dotazu pro vektorové a hybridní vyhledávací dotazy.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Obsahuje možnosti konfigurace specifické pro algoritmus použitý během indexování nebo dotazování.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

Metrika podobnosti, která se má použít pro vektorové porovnání.

VisualFeature

Výčty

KnownAnalyzerNames

Definuje hodnoty pro AnalyzerName. Viz https://docs.microsoft.com/rest/api/searchservice/Language-support.

KnownBlobIndexerDataToExtract

Známé hodnoty BlobIndexerDataToExtract , které služba přijímá.

KnownBlobIndexerImageAction

Známé hodnoty BlobIndexerImageAction , které služba přijímá.

KnownBlobIndexerPDFTextRotationAlgorithm

Známé hodnoty BlobIndexerPDFTextRotationAlgorithm , které služba přijímá.

KnownBlobIndexerParsingMode

Známé hodnoty BlobIndexerParsingMode , které služba přijímá.

KnownCharFilterNames

Známé hodnoty CharFilterName , které služba přijímá.

KnownCustomEntityLookupSkillLanguage

Známé hodnoty CustomEntityLookupSkillLanguage , které služba přijímá.

KnownEntityCategory

Známé hodnoty EntityCategory , které služba přijímá.

KnownEntityRecognitionSkillLanguage

Známé hodnoty EntityRecognitionSkillLanguage , které služba přijímá.

KnownImageAnalysisSkillLanguage

Známé hodnoty ImageAnalysisSkillLanguage , které služba přijímá.

KnownImageDetail

Známé hodnoty ImageDetail , které služba přijímá.

KnownKeyPhraseExtractionSkillLanguage

Známé hodnoty KeyPhraseExtractionSkillLanguage , které služba přijímá.

KnownOcrSkillLanguage

Známé hodnoty OcrSkillLanguage , které služba přijímá.

KnownRegexFlags

Známé hodnoty RegexFlags , které služba přijímá.

KnownSearchAudience

Známé hodnoty pro cílovou skupinu vyhledávání

KnownSearchIndexerDataSourceType

Známé hodnoty SearchIndexerDataSourceType , které služba přijímá.

KnownSentimentSkillLanguage

Známé hodnoty SentimentSkillLanguage , které služba přijímá.

KnownSplitSkillLanguage

Známé hodnoty SplitSkillLanguage , které služba přijímá.

KnownTextSplitMode

Známé hodnoty TextSplitMode , které služba přijímá.

KnownTextTranslationSkillLanguage

Známé hodnoty TextTranslationSkillLanguage , které služba přijímá.

KnownTokenFilterNames

Známé hodnoty TokenFilterName , které služba přijímá.

KnownTokenizerNames

Známé hodnoty LexicalTokenizerName , které služba přijímá.

KnownVisualFeature

Známé hodnoty VisualFeature , které služba přijímá.

Funkce

createSynonymMapFromFile(string, string)

Pomocná metoda pro vytvoření objektu SynonymMap. Toto je pouze metoda NodeJS.

odata(TemplateStringsArray, unknown[])

Uvozuje výraz filtru odata, aby se zabránilo chybám s řetězcovými literály v uvozování. Příklad použití:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Další informace o podporované syntaxi najdete tady: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Podrobnosti funkce

createSynonymMapFromFile(string, string)

Pomocná metoda pro vytvoření objektu SynonymMap. Toto je pouze metoda NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parametry

name

string

Název objektu SynonymMap.

filePath

string

Cesta k souboru, který obsahuje synonyma (sepsaná novými řádky)

Návraty

Promise<SynonymMap>

Objekt SynonymMap

odata(TemplateStringsArray, unknown[])

Uvozuje výraz filtru odata, aby se zabránilo chybám s řetězcovými literály v uvozování. Příklad použití:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Další informace o podporované syntaxi najdete tady: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parametry

strings

TemplateStringsArray

Pole řetězců pro výraz

values

unknown[]

Pole hodnot výrazu

Návraty

string