@azure/search-documents package
Azure |
Přihlašovací údaje založené na statickém klíči, které podporují aktualizaci hodnoty základního klíče. |
Geography |
Představuje geografický bod v globálních souřadnicích. |
Index |
Třída používaná k provádění dávkových operací s více dokumenty indexu. |
Search |
Třída, která slouží k provádění operací s indexem vyhledávání, včetně dotazování dokumentů v indexu a přidávání, aktualizace a odebírání. |
Search |
Třída pro provádění operací pro správu indexů (vytváření, aktualizace, výpis/odstranění) & synonyma. |
Search |
Třída, která provádí operace pro správu indexerů (vytváření, aktualizace, výpis/odstranění), zdrojů dat & sad dovedností. |
Search |
Třída používaná k provádění operací uložených ve vyrovnávací paměti vůči indexu vyhledávání, včetně přidávání, aktualizace a odebírání. |
Analyze |
Určuje některé součásti textu a analýzy, které slouží k rozdělení textu na tokeny. |
Analyze |
Výsledek testování analyzátoru na textu |
Analyzed |
Informace o tokenu vráceného analyzátorem |
Ascii |
Převede abecední, číselné a symbolické znaky Unicode, které nejsou v prvních 127 znaky ASCII (blok "Základní latinka") na jejich ekvivalenty ASCII, pokud takové ekvivalenty existují. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Autocomplete |
Výsledek požadavků automatického dokončování |
Autocomplete |
Parametry pro porovnávání přibližných shod a další chování dotazů automatického dokončování |
Autocomplete |
Výsledek dotazu automatického dokončování |
Azure |
Přihlašovací údaje registrované aplikace vytvořené pro vaši vyhledávací službu, které slouží k ověřenému přístupu k šifrovacím klíčům uloženým ve službě Azure Key Vault. |
Azure |
Umožňuje vygenerovat vektorové vkládání pro daný textový vstup pomocí prostředku Azure OpenAI. |
Azure |
Obsahuje parametry specifické pro použití služby Azure Open AI pro vektorizaci v době dotazu. |
Azure |
Obsahuje parametry specifické pro použití služby Azure Open AI pro vektorizaci v době dotazu. |
BM25Similarity |
Funkce řazení založená na algoritmu podobnosti BM25 Okapi. BM25 je algoritmus podobný TF-IDF, který zahrnuje normalizaci délky (řízenou parametrem "b") a také sytost termínů (řízená parametrem "k1"). |
Base |
Základní typ pro filtry znaků. |
Base |
Základní typ pro popis jakéhokoli prostředku služby Azure AI připojeného k sadě dovedností |
Base |
Základní typ zásad detekce změn dat |
Base |
Základní typ zásad detekce odstranění dat |
Base |
Základní typ pro analyzátory. |
Base |
Základní typ pro tokenizátory. |
Base |
Základní typ pro funkce, které mohou upravovat skóre dokumentu během řazení. |
Base |
Abstraktní základní typ pro identity dat |
Base |
Základní typ dovedností. |
Base |
Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů |
Base |
Základní typ pro filtry tokenů. |
Base |
Parametry dotazu pro vektorové a hybridní vyhledávací dotazy. |
Base |
Obsahuje možnosti konfigurace specifické pro algoritmus použitý při indexování nebo dotazování. |
Base |
Obsahuje možnosti konfigurace specifické pro metodu komprese použitou při indexování nebo dotazování. |
Base |
Obsahuje konkrétní podrobnosti pro metodu vektorizace, která se má použít během dotazu. |
Binary |
Obsahuje možnosti konfigurace specifické pro metodu komprese binárního kvantování používané při indexování a dotazování. |
Cjk |
Tvoří bigramy výrazů CJK, které se generují ze standardního tokenizátoru. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Classic |
Starší algoritmus podobnosti, který používá implementaci TF-IDF lucene TFIDFSimilarity. Tato varianta TF-IDF představuje normalizaci délky statického dokumentu a také koordinující faktory, které postihují dokumenty, které pouze částečně odpovídají prohledáným dotazům. |
Classic |
Tokenizátor založený na gramatikě, který je vhodný pro zpracování většiny dokumentů evropského jazyka. Tento tokenizátor se implementuje pomocí Apache Lucene. |
Cognitive |
Klíč účtu více oblastí prostředku služby Azure AI, který je připojený k sadě dovedností. |
Common |
Při indexování vytvořte bigramy pro často se vyskytující termíny. Jednotlivé termíny jsou stále indexované, s překryvnými bigramy. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Complex |
Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole. |
Conditional |
Dovednost, která umožňuje scénářům, které vyžadují logickou operaci k určení dat, která se mají přiřadit k výstupu. |
Cors |
Definuje možnosti pro řízení sdílení prostředků mezi zdroji (CORS) pro index. |
Create |
Možnosti operace vytvoření/aktualizace indexu |
Create |
Možnosti operace vytvoření/aktualizace sady dovedností |
Create |
Možnosti pro operaci vytvoření nebo aktualizace synonym mapy |
Createor |
Možnosti operace vytvoření/aktualizace zdroje dat |
Createor |
Možnosti operace vytvoření/aktualizace indexeru |
Custom |
Umožňuje převzít kontrolu nad procesem převodu textu na indexovatelné nebo prohledávatelné tokeny. Jedná se o uživatelsky definovanou konfiguraci, která se skládá z jednoho předdefinovaného tokenizátoru a jednoho nebo více filtrů. Tokenizátor zodpovídá za dělení textu na tokeny a filtry pro úpravy tokenů vygenerovaných tokenem. |
Custom |
Objekt obsahující informace o nalezených shodách a souvisejících metadatech. |
Custom |
Složitý objekt, který lze použít k určení alternativního pravopisu nebo synonym pro název kořenové entity. |
Custom |
Dovednost hledá text z vlastního seznamu slov a frází definovaných uživatelem. |
Default |
Prázdný objekt, který představuje výchozí prostředek služby Azure AI pro sadu dovedností. |
Delete |
Možnosti operace odstranění zdroje dat |
Delete |
Možnosti operace odstranění indexu |
Delete |
Možnosti operace odstranění indexeru |
Delete |
Možnosti pro odstranění operaionu sady dovedností |
Delete |
Možnosti operace odstranění mapy synonym |
Dictionary |
Rozloží složená slova nalezená v mnoha německých jazycích. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Distance |
Definuje funkci, která zvyšuje skóre na základě vzdálenosti od zeměpisného umístění. |
Distance |
Poskytuje hodnoty parametrů funkci bodování vzdálenosti. |
Document |
Dovednost, která extrahuje obsah ze souboru v kanálu rozšiřování. |
Edge |
Vygeneruje n-gramy dané velikosti počínaje přední nebo zadní částí vstupního tokenu. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Edge |
Tokenizuje vstup z okraje na n-gramy dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene. |
Elision |
Odebere elisions. Například "l'avion" (letadlo) bude převedeno na "avion" (letadlo). Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Entity |
Pomocí rozhraní API pro analýzu textu extrahuje propojené entity z textu. |
Entity |
Rozpoznávání entit analýzy textu |
Entity |
Pomocí rozhraní API pro analýzu textu extrahuje entity různých typů z textu. |
Exhaustive |
Obsahuje parametry specifické pro vyčerpávající algoritmus KNN. |
Extractive |
Extrahuje kandidáty odpovědí z obsahu dokumentů vrácených v reakci na dotaz vyjádřený jako otázka v přirozeném jazyce. |
Extractive |
Extrahuje titulky z odpovídajících dokumentů, které obsahují pasáže relevantní pro vyhledávací dotaz. |
Facet |
Jeden kbelík výsledku fasetového dotazu. Zaznamenává počet dokumentů s hodnotou pole spadající do konkrétní oblasti nebo s konkrétní hodnotou nebo intervalem. |
Field |
Definuje mapování mezi polem ve zdroji dat a cílovým polem v indexu. |
Field |
Představuje funkci, která před indexováním transformuje hodnotu ze zdroje dat. |
Freshness |
Definuje funkci, která zvyšuje skóre na základě hodnoty pole data a času. |
Freshness |
Poskytuje hodnoty parametrů pro funkci bodování aktuálnosti. |
Get |
Možnosti pro načtení jednoho dokumentu |
High |
Definuje zásadu detekce změn dat, která zachycuje změny na základě hodnoty sloupce horní značky. |
Hnsw |
Obsahuje parametry specifické pro algoritmus hnsw. |
Image |
Dovednost, která analyzuje soubory obrázků. Extrahuje bohatou sadu vizuálních funkcí na základě obsahu obrázku. |
Index |
Klient indexování dokumentů |
Index |
Možnosti pro úpravu dávkové operace indexu |
Index |
Odpověď obsahující stav operací pro všechny dokumenty v požadavku indexování |
Indexer |
Představuje výsledek spuštění jednotlivých indexerů. |
Indexing |
Představuje parametry pro spuštění indexeru. |
Indexing |
Slovník vlastností konfigurace specifické pro indexer. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu. |
Indexing |
Stav operace indexování pro jeden dokument |
Indexing |
Představuje plán provádění indexeru. |
Input |
Mapování vstupních polí pro dovednost |
Keep |
Filtr tokenů, který uchovává pouze tokeny s textem obsaženým v zadaném seznamu slov. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Key |
Dovednost, která používá analýzu textu pro extrakci klíčových frází. |
Keyword |
Označí termíny jako klíčová slova. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Keyword |
Vygeneruje celý vstup jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene. |
Language |
Dovednost, která rozpozná jazyk vstupního textu a hlásí kód jednoho jazyka pro každý dokument odeslaný na žádost. Kód jazyka je spárovaný se skóre označujícím spolehlivost analýzy. |
Length |
Odebere slova, která jsou příliš dlouhá nebo příliš krátká. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Limit |
Omezuje počet tokenů při indexování. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
List |
Argumenty pro načtení další stránky výsledků hledání |
Lucene |
Standardní analyzátor Apache Lucene; Skládá se ze standardního tokenizátoru, filtru malými písmeny a filtru zastavení. |
Lucene |
Zalomí text podle pravidel segmentace textu unicode. Tento tokenizátor se implementuje pomocí Apache Lucene. |
Magnitude |
Definuje funkci, která zvyšuje skóre na základě velikosti číselného pole. |
Magnitude |
Poskytuje hodnoty parametrů pro funkci bodování velikosti. |
Mapping |
Filtr znaků, který používá mapování definovaná pomocí možnosti mapování. Porovnávání je greedy (nejdelší porovnávání vzorů v daném bodě vyhrává). Nahrazení může být prázdný řetězec. Tento filtr znaků se implementuje pomocí Apache Lucene. |
Merge |
Dovednost pro sloučení dvou nebo více řetězců do jednoho sjednoceného řetězce s volitelným uživatelem definovaným oddělovačem, který odděluje jednotlivé součásti. |
Microsoft |
Rozdělí text pomocí pravidel specifických pro jazyk a zmenšuje slova na jejich základní formuláře. |
Microsoft |
Rozdělí text pomocí pravidel specifických pro jazyk. |
NGram |
Vygeneruje n-gramy dané velikosti. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
NGram |
Tokenizuje vstup na n-gramy dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene. |
Ocr |
Dovednost, která extrahuje text ze souborů obrázků. |
Output |
Mapování výstupních polí pro dovednost |
PIIDetection |
Pomocí rozhraní API pro analýzu textu extrahuje osobní údaje ze vstupního textu a poskytne vám možnost ho maskovat. |
Path |
Tokenizátor pro hierarchie podobné cestě. Tento tokenizátor se implementuje pomocí Apache Lucene. |
Pattern |
Pružně odděluje text do termínů pomocí vzoru regulárního výrazu. Tento analyzátor se implementuje pomocí Apache Lucene. |
Pattern |
Používá regulární výrazy Java k vygenerování více tokenů – jeden pro každou skupinu zachycení v jednom nebo více vzorech. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Pattern |
Filtr znaků, který nahradí znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků k zachování a nahrazení vzoru pro identifikaci znaků, které se mají nahradit. Například při zadání textu "aa bb aa bb", vzoru "(aa)\s+(bb)" a nahrazení "$1#$2" bude výsledkem "aa#bb aa#bb". Tento filtr znaků se implementuje pomocí Apache Lucene. |
Pattern |
Filtr znaků, který nahradí znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků k zachování a nahrazení vzoru pro identifikaci znaků, které se mají nahradit. Například při zadání textu "aa bb aa bb", vzoru "(aa)\s+(bb)" a nahrazení "$1#$2" bude výsledkem "aa#bb aa#bb". Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Pattern |
Tokenizátor, který používá porovnávání vzorů regulárních výrazů k vytvoření jedinečných tokenů. Tento tokenizátor se implementuje pomocí Apache Lucene. |
Phonetic |
Vytváření tokenů pro fonetické shody Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Query |
Odpověď je textový úsek extrahovaný z obsahu nejrelevavantnějších dokumentů, které odpovídají dotazu. Odpovědi se extrahují z nejlepších výsledků hledání. Kandidáti na odpovědi jsou hodnoceni a vyberou se hlavní odpovědi. |
Query |
Titulky jsou nejvýraznější pasáže z dokumentu relativně do vyhledávacího dotazu. Často se používají jako souhrn dokumentů. Titulky jsou vráceny pouze pro dotazy typu |
Resource |
Představuje využití a kvótu prostředku. |
Scalar |
Obsahuje možnosti konfigurace specifické pro metodu komprese skalární quantizace, která se používá při indexování a dotazování. |
Scalar |
Obsahuje parametry specifické pro skalární kvantování. |
Scoring |
Definuje parametry indexu vyhledávání, které ovlivňují bodování ve vyhledávacích dotazech. |
Search |
Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání |
Search |
Odpověď obsahující výsledky vyhledávací stránky z indexu |
Search |
Odpověď obsahující výsledky hledání z indexu |
Search |
Odpověď obsahující výsledky hledání z indexu |
Search |
Představuje definici indexu vyhledávání, která popisuje pole a chování vyhledávání indexu. |
Search |
Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání |
Search |
Statistika pro daný index Statistiky se shromažďují pravidelně a není zaručeno, že budou vždy up-to-date. |
Search |
Představuje indexer. |
Search |
Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání |
Search |
Představuje informace o entitě (například tabulce Azure SQL nebo kolekci CosmosDB), která se bude indexovat. |
Search |
Vymaže vlastnost identity zdroje dat. |
Search |
Představuje definici zdroje dat, kterou lze použít ke konfiguraci indexeru. |
Search |
Určuje identitu zdroje dat, která se má použít. |
Search |
Představuje chybu indexování na úrovni položky nebo dokumentu. |
Search |
Definicedalšíchch |
Search |
Slovník vlastností konfigurace specifické pro projekce indexu. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu. |
Search |
Popis dat uložených v určeném indexu vyhledávání |
Search |
Definicedalšíchch dat pro azure blob, tabulek nebo souborů |
Search |
Abstraktní třída pro sdílení vlastností mezi betonovými selektory |
Search |
Definice projekce pro data, která se mají ukládat ve službě Azure Files. |
Search |
Definice projekce pro data, která se mají ukládat v objektu blob Azure. |
Search |
Slovník vlastností konfigurace specifické pro úložiště znalostí. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu. |
Search |
Objekt kontejneru pro různé selektory projekce |
Search |
Abstraktní třída pro sdílení vlastností mezi betonovými selektory |
Search |
Popis dat, která se mají ukládat v tabulkách Azure |
Search |
|
Search |
Seznam dovedností. |
Search |
Představuje aktuální stav a historii spuštění indexeru. |
Search |
Představuje upozornění na úrovni položky. |
Search |
Možnosti pro SearchIndexingBufferedSender. |
Search |
Šifrovací klíč spravovaný zákazníkem ve službě Azure Key Vault. Klíče, které vytvoříte a spravujete, se dají použít k šifrování nebo dešifrování neaktivních uložených dat ve službě Azure Cognitive Search, jako jsou indexy a mapy synonym. |
Search |
Odpověď z žádosti o získání statistiky služby V případě úspěchu zahrnuje čítače a limity na úrovni služby. |
Search |
Definuje, jak se má rozhraní API navrhnout na skupinu polí v indexu. |
Semantic |
Definuje konkrétní konfiguraci, která se má použít v kontextu sémantických funkcí. |
Semantic |
Pole, které se používá jako součást sémantické konfigurace. |
Semantic |
Popisuje pole nadpisu, obsahu a klíčových slov, která se mají použít pro sémantické řazení, titulky, zvýraznění a odpovědi. |
Semantic |
Definuje parametry indexu vyhledávání, které ovlivňují sémantické schopnosti. |
Semantic |
Definuje možnosti pro sémantické vyhledávací dotazy. |
Sentiment |
Analýza textu s pozitivním negativním míněním, vyhodnocená jako hodnota s plovoucí desetinou čárkou v rozsahu od nuly do 1. |
Sentiment |
Pomocí rozhraní API pro analýzu textu vyhodnocuje nestrukturovaný text a pro každý záznam poskytuje popisky mínění (například "negativní", "neutrální" a "pozitivní") na základě nejvyššího skóre spolehlivosti zjištěného službou na úrovni věty a dokumentu. |
Service |
Představuje čítače a kvóty prostředků na úrovni služby. |
Service |
Představuje různé limity na úrovni služby. |
Shaper |
Dovednost pro přetváření výstupů. Vytvoří komplexní typ pro podporu složených polí (označovaných také jako pole s více částmi). |
Shingle |
Vytvoří kombinace tokenů jako jeden token. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Similarity |
Základní typ pro algoritmy podobnosti Algoritmy podobnosti se používají k výpočtu skóre, které sváže dotazy s dokumenty. Čím vyšší je skóre, tím relevantnější dokument je pro daný dotaz. Tato skóre slouží k řazení výsledků hledání. |
Simple |
Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole. |
Snowball |
Filtr, který vychází ze slov pomocí vygenerovaného smyšlí snowballu. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Soft |
Definuje zásadu detekce odstranění dat, která implementuje strategii obnovitelného odstranění. Určuje, zda má být položka odstraněna na základě hodnoty určeného sloupce obnovitelného odstranění. |
Split |
Dovednost rozdělit řetězec na bloky textu. |
Sql |
Definuje zásadu detekce změn dat, která zachycuje změny pomocí integrované funkce Change Tracking ve službě Azure SQL Database. |
Stemmer |
Poskytuje možnost přepsat další stemmingové filtry pomocí vlastních slovníkových stemmingů. Všechny termíny založené na slovníku budou označeny jako klíčová slova, aby se nezvolily pomocí stemmerů v řetězci. Musí být umístěny před všemi filtry pro vytváření. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Stemmer |
Filtr pro konkrétní jazyk. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Stop |
Rozdělí text bez písmen; Použije filtry tokenů s malými písmeny a stopword. Tento analyzátor se implementuje pomocí Apache Lucene. |
Stopwords |
Odebere slova ze streamu tokenu. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Suggest |
Odpověď obsahující výsledky návrhového dotazu z indexu |
Suggest |
Parametry pro filtrování, řazení, přibližné porovnávání a další návrhy chování dotazů. |
Synonym |
Představuje definici mapy synonym. |
Synonym |
Porovná jednoslovné nebo víceslovné synonyma v datovém proudu tokenů. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Tag |
Definuje funkci, která zvyšuje skóre dokumentů s řetězcovými hodnotami odpovídajícími danému seznamu značek. |
Tag |
Poskytuje hodnoty parametrů funkci bodování značek. |
Text |
Dovednost překládat text z jednoho jazyka do druhého. |
Text |
Definuje váhy u polí indexu, u kterých by se mělo zvýšit bodování ve vyhledávacích dotazech. |
Truncate |
Zkracuje termíny na určitou délku. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Uax |
Tokenizuje adresy URL a e-maily jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene. |
Unique |
Vyfiltruje tokeny se stejným textem jako předchozí token. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Vector |
Obsahuje možnosti konfigurace související s vektorové vyhledávání. |
Vector |
Definuje možnosti pro dotazy vektorové vyhledávání. |
Vector |
Definuje kombinaci konfigurací, které se mají použít s vektorovým vyhledáváním. |
Vectorizable |
Parametry dotazu, které se mají použít pro vektorové vyhledávání, pokud je k dispozici textová hodnota, která musí být vektorizována. |
Vectorized |
Parametry dotazu, které se mají použít pro vektorové vyhledávání při zadání nezpracované hodnoty vektoru. |
Web |
Určuje vlastnosti pro připojení k vektorizátoru definovanému uživatelem. |
Web |
Dovednost, která může volat koncový bod webového rozhraní API, což vám umožní rozšířit sadu dovedností tím, že zavolá váš vlastní kód. |
Web |
Určuje vektorizátor definovaný uživatelem pro generování vektorového vkládání řetězce dotazu. Integrace externí vektorizátoru se dosahuje pomocí vlastního rozhraní webového rozhraní API sady dovedností. |
Word |
Rozdělí slova do dílčích slov a provede volitelné transformace skupin podwordů. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Analyze |
Možnosti pro analýzu textové operace |
Autocomplete |
Definuje hodnoty pro AutocompleteMode. |
Autocomplete |
Možnosti pro načtení textu dokončení pro částečný hledaný text |
Azure |
Definuje hodnoty pro AzureOpenAIModelName. Známé hodnoty podporované službou
vkládání textu ada-002 |
Blob |
|
Blob |
|
Blob |
|
Blob |
|
Char |
Obsahuje možné případy pro CharFilter. |
Char |
Definuje hodnoty pro CharFilterName. Známé hodnoty podporované službouhtml_strip: Filtr znaků, který se pokusí odstranit konstruktory HTML. Viz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
Cjk |
Definuje hodnoty pro CjkBigramTokenFilterScripts. |
Cognitive |
Obsahuje možné případy pro CognitiveServicesAccount. |
Complex |
Definuje hodnoty pro ComplexDataType. Mezi možné hodnoty patří: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
Count |
Možnosti pro provádění operace počítání indexu |
Create |
Možnosti pro operaci vytvoření zdroje dat |
Create |
Možnosti pro vytvoření operace indexu |
Create |
Možnosti pro vytvoření operace indexeru |
Create |
Možnosti pro vytvoření operace sady dovedností |
Create |
Možnosti pro operaci vytvoření mapy synonym |
Custom |
|
Data |
Obsahuje možné případy pro DataChangeDetectionPolicy. |
Data |
Obsahuje možné případy DataDeletionDetectionPolicy. |
Delete |
Možnosti operace odstranění dokumentů |
Edge |
Definuje hodnoty pro EdgeNGramTokenFilterSide. |
Entity |
|
Entity |
|
Excluded |
|
Exhaustive |
Obsahuje možnosti konfigurace specifické pro vyčerpávající algoritmus KNN použitý při dotazování, který provede vyhledávání hrubou silou v celém indexu vektoru. |
Extract |
|
Get |
Možnosti pro získání operace zdroje dat |
Get |
Možnosti pro získání operace indexu |
Get |
Možnosti pro získání operace statistiky indexu |
Get |
Možnosti pro získání operace indexeru |
Get |
Možnosti pro získání operace stavu indexeru |
Get |
Možnosti pro získání operace statistiky služby |
Get |
Možnosti pro získání operace sady dovedností |
Get |
Možnosti pro operaci get synonymmaps |
Hnsw |
Obsahuje možnosti konfigurace specifické pro přibližný algoritmus nejbližších sousedů používaný během indexování. |
Image |
|
Image |
|
Index |
Definuje hodnoty pro IndexActionType. |
Index |
Představuje akci indexu, která pracuje s dokumentem. |
Index |
Iterátor pro výpis indexů, které existují ve vyhledávací službě. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace. |
Index |
Iterátor pro výpis indexů, které existují ve vyhledávací službě. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace. |
Index |
Definuje hodnoty pro IndexProjectionMode. Známé hodnoty podporované službou
skipIndexingParentDocuments: Zdrojový dokument se přeskočí z zápisu do cílového indexu indexeru. |
Indexer |
|
Indexer |
Definuje hodnoty pro IndexerExecutionStatus. |
Indexer |
Definuje hodnoty pro IndexerStatus. |
Key |
|
Lexical |
Obsahuje možné případy analyzátoru. |
Lexical |
Definuje hodnoty pro LexicalAnalyzerName. Známé hodnoty podporované službou
ar.microsoft: Microsoft analyzer for Arabic. |
Lexical |
Obsahuje možné případy tokenizátoru. |
Lexical |
Definuje hodnoty pro LexicalTokenizerName. Známé hodnoty podporované službou
klasické: tokenizátor založený na gramatikě, který je vhodný pro zpracování většiny dokumentů evropského jazyka. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
List |
Možnosti operace zdrojů dat seznamu |
List |
Možnosti operace indexerů seznamu |
List |
Možnosti operace indexů seznamu |
List |
Možnosti operace sad dovedností seznamu |
List |
Možnosti operace synonymMaps seznamu |
Merge |
Možnosti operace sloučení dokumentů |
Merge |
Možnosti operace sloučení nebo nahrání dokumentů |
Microsoft |
Definuje hodnoty pro MicrosoftStemmingTokenizerLanguage. |
Microsoft |
Definuje hodnoty pro MicrosoftTokenizerLanguage. |
Narrowed |
Zužuje typ modelu tak, aby zahrnoval pouze vybraná pole. |
Ocr |
Definuje hodnoty pro OcrLineEnding. Známé hodnoty podporované službou
mezery: Řádky jsou oddělené jedním znakem mezery. |
Ocr |
|
PIIDetection |
|
Phonetic |
Definuje hodnoty pro fonetickýEncoder. |
Query |
Hodnota, která určuje, jestli se odpovědi mají vrátit jako součást odpovědi hledání.
Tento parametr je platný pouze v případě, že je typ dotazu "sémantický". Pokud je nastavená hodnota |
Query |
Hodnota, která určuje, zda mají být titulky vráceny jako součást odpovědi hledání. Tento parametr je platný pouze v případě, že je typ dotazu "sémantický". Pokud je tato možnost nastavená, dotaz vrátí titulky extrahované z klíčových pasáží v nejřadivějších dokumentech. Pokud jsou titulky extrahované, zvýraznění je ve výchozím nastavení povolené. Výchozí hodnota je žádná. |
Query |
Definuje hodnoty pro QueryType. |
Regex |
|
Reset |
Možnosti operace resetování indexeru |
Run |
Možnosti spuštění operace indexeru |
Scoring |
Obsahuje možné případy pro ScoringFunction. |
Scoring |
Definuje hodnoty pro ScoringFunctionAggregation. |
Scoring |
Definuje hodnoty pro ScoringFunctionInterpolation. |
Scoring |
Definuje hodnoty pro bodováníStatistics. |
Search |
Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole. |
Search |
Pokud |
Search |
Definuje hodnoty pro SearchFieldDataType. Známé hodnoty podporované službou:Edm.String: Označuje, že pole obsahuje řetězec. Edm.Int32: Označuje, že pole obsahuje 32bitové celé číslo se znaménkem. Edm.Int64: Označuje, že pole obsahuje 64bitové celé číslo se znaménkem. Edm.Double: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s dvojitou přesností IEEE. Edm.Boolean: Označuje, že pole obsahuje logickou hodnotu (true nebo false). Edm.DateTimeOffset: Označuje, že pole obsahuje hodnotu data a času, včetně informací o časovém pásmu. Edm.GeographyPoint: Označuje, že pole obsahuje geografické umístění z hlediska zeměpisné délky a zeměpisné šířky. Edm.ComplexType: Označuje, že pole obsahuje jeden nebo více složitých objektů, které zase mají dílčí pole jiných typů. Edm.Single: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s jednou přesností. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Single). Edm.Half: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s poloviční přesností. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Half). Edm.Int16: Označuje, že pole obsahuje 16bitové celé číslo se znaménkem. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Int16). Edm.SByte: Označuje, že pole obsahuje 8bitové celé číslo se znaménkem. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.SByte). Edm.Byte: Označuje, že pole obsahuje 8bitové celé číslo bez znaménka. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Byte). |
Search |
Obsahuje možné případy pro SearchIndexerDataIdentity. |
Search |
|
Search |
Obsahuje možné případy dovednosti. |
Search |
Možnosti pro SearchIndexingBufferedSenderDeleteDocuments. |
Search |
Možnosti pro SearchIndexingBufferedSenderFlushDocuments. |
Search |
Možnosti pro SearchIndexingBufferedSenderMergeDocuments. |
Search |
Možnosti pro SearchIndexingBufferedSenderMergeOrUploadDocuments. |
Search |
Možnosti pro SearchIndexingBufferedSenderUploadDocuments. |
Search |
Iterátor pro výsledky hledání patikulárního dotazu. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace. |
Search |
Definuje hodnoty pro SearchMode. |
Search |
Možnosti potvrzení žádosti o úplné vyhledávání |
Search |
Hluboce vyberte pole T pomocí platných cest OData kognitivního vyhledávání $select. |
Search |
Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů |
Search |
|
Search |
Obsahuje dokument nalezený vyhledávacím dotazem a přidruženými metadaty. |
Select |
Pokud |
Select |
Vytvoří sjednocení platných cest OData služby Cognitive Search $select pro T pomocí procházení po objednávce stromu polí v kořenovém adresáři T. |
Semantic |
|
Semantic |
|
Semantic |
|
Sentiment |
|
Similarity |
Obsahuje možné případy podobnosti. |
Snowball |
Definuje hodnoty pro SnowballTokenFilterLanguage. |
Split |
|
Stemmer |
Definuje hodnoty pro StemmerTokenFilterLanguage. |
Stopwords |
Definuje hodnoty pro StopwordsList. |
Suggest |
|
Suggest |
Možnosti načítání návrhů na základě vyhledávacího textu |
Suggest |
Výsledek obsahující dokument nalezený dotazem návrhu a přidruženými metadaty. |
Text |
|
Text |
|
Token |
Definuje hodnoty pro TokenCharacterKind. |
Token |
Obsahuje možné případy pro TokenFilter. |
Token |
Definuje hodnoty pro TokenFilterName. Známé hodnoty podporované službou
arabic_normalization: Filtr tokenů, který použije arabský normalizátor k normalizaci orthografie. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
Union |
|
Upload |
Možnosti operace nahrání dokumentů |
Vector |
Definuje hodnoty pro VectorEncodingFormat. Známé hodnoty podporované služboupackedBit: Formát kódování představující bity zabalené do širšího datového typu. |
Vector |
|
Vector |
Parametry dotazu pro vektorové a hybridní vyhledávací dotazy. |
Vector |
|
Vector |
Obsahuje možnosti konfigurace specifické pro algoritmus použitý při indexování nebo dotazování. |
Vector |
|
Vector |
|
Vector |
Obsahuje možnosti konfigurace specifické pro metodu komprese použitou při indexování nebo dotazování. |
Vector |
Definuje hodnoty pro VectorSearchCompressionKind. Známé hodnoty podporované službou
skalarQuantization: Skalární kvantování, typ metody komprese. V skalárním kvantování se původní hodnoty vektorů komprimují na užší typ diskretizací a představují každou komponentu vektoru pomocí snížené množiny kvantovaných hodnot, čímž se zmenší celková velikost dat. |
Vector |
Definuje hodnoty pro VectorSearchCompressionTarget. Známé hodnoty podporované službouint8 |
Vector |
Obsahuje možnosti konfigurace, jak vektorizovat textové vektorové dotazy. |
Vector |
Definuje hodnoty pro VectorSearchVectorizerKind. Známé hodnoty podporované službou
azureOpenAI: Generování vkládání pomocí prostředku Azure OpenAI v době dotazu |
Visual |
create |
Pomocná metoda pro vytvoření synonymMap objektu. Jedná se pouze o metodu NodeJS. |
odata(Template |
Uvozuje výraz filtru odata, aby nedocházelo k chybám s řetězcovými literály. Příklad použití:
Další informace o podporované syntaxi najdete v tématu: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Pomocná metoda pro vytvoření synonymMap objektu. Jedná se pouze o metodu NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametry
- name
-
string
Název objektu SynonymMap.
- filePath
-
string
Cesta k souboru, který obsahuje synonyma (s hodnocením novými řádky)
Návraty
Promise<SynonymMap>
Objekt SynonymMap
Uvozuje výraz filtru odata, aby nedocházelo k chybám s řetězcovými literály. Příklad použití:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Další informace o podporované syntaxi najdete v tématu: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametry
- strings
-
TemplateStringsArray
Pole řetězců pro výraz
- values
-
unknown[]
Pole hodnot pro výraz
Návraty
string