@azure/search-documents package
Třídy
AzureKeyCredential |
Přihlašovací údaje založené na statickém klíči, které podporují aktualizaci hodnoty podkladového klíče. |
GeographyPoint |
Představuje geografický bod v globálních souřadnicích. |
IndexDocumentsBatch |
Třída slouží k provádění dávkových operací s více dokumenty do indexu. |
SearchClient |
Třída se používá k provádění operací s indexem vyhledávání, včetně dotazování na dokumenty v indexu a jejich přidávání, aktualizace a odebírání. |
SearchIndexClient |
Třída pro provádění operací pro správu indexů (vytvoření, aktualizace, výpis/odstranění) & mapování synonym. |
SearchIndexerClient |
Třída pro provádění operací pro správu (vytvoření, aktualizace, výpis/odstranění) indexerů, zdrojů dat & sad dovedností. |
SearchIndexingBufferedSender |
Třída používaná k provádění operací uložených ve vyrovnávací paměti s indexem vyhledávání, včetně jejich přidávání, aktualizace a odebírání. |
Rozhraní
AnalyzeRequest |
Určuje některé textové a analytické komponenty, které se používají k rozdělení textu na tokeny. |
AnalyzeResult |
Výsledek testování analyzátoru na textu. |
AnalyzedTokenInfo |
Informace o tokenu vráceného analyzátorem |
AsciiFoldingTokenFilter |
Převede abecední, číselné a symbolické znaky Unicode, které nejsou v prvních 127 znacích ASCII (blok Unicode "Základní latinka"), na jejich ekvivalenty ASCII, pokud takové ekvivalenty existují. Tento filtr tokenů se implementuje pomocí Apache Lucene. |
AutocompleteItem |
Výsledek požadavků automatického dokončování. |
AutocompleteRequest |
Parametry přibližné shody a další chování automatického dokončování dotazů |
AutocompleteResult |
Výsledek automatického dokončování dotazu. |
AzureActiveDirectoryApplicationCredentials |
Přihlašovací údaje registrované aplikace vytvořené pro vaši vyhledávací službu, které slouží k ověřenému přístupu k šifrovacím klíčům uloženým v Azure Key Vault. |
BM25Similarity |
Funkce řazení založená na algoritmu podobnosti Okapi BM25. BM25 je algoritmus podobný TF-IDF, který zahrnuje normalizaci délky (řízenou parametrem "b") a také sytost frekvence termínu (řízená parametrem k1). |
BaseCharFilter |
Základní typ pro filtry znaků. |
BaseCognitiveServicesAccount |
Základní typ pro popis jakéhokoli prostředku služby Azure AI připojeného k sadě dovedností |
BaseDataChangeDetectionPolicy |
Základní typ zásad detekce změn dat |
BaseDataDeletionDetectionPolicy |
Základní typ pro zásady detekce odstranění dat. |
BaseLexicalAnalyzer |
Základní typ pro analyzátory. |
BaseLexicalTokenizer |
Základní typ pro tokenizátory. |
BaseScoringFunction |
Základní typ pro funkce, které můžou měnit skóre dokumentu během řazení. |
BaseSearchIndexerSkill |
Základní typ pro dovednosti. |
BaseSearchRequestOptions |
Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů |
BaseTokenFilter |
Základní typ pro filtry tokenů. |
BaseVectorQuery |
Parametry dotazu pro vektorové a hybridní vyhledávací dotazy. |
BaseVectorSearchAlgorithmConfiguration |
Obsahuje možnosti konfigurace specifické pro algoritmus použitý během indexování nebo dotazování. |
CjkBigramTokenFilter |
Vytváří bigramy výrazů CJK, které jsou generovány ze standardního tokenizátoru. Tento filtr tokenů se implementuje pomocí Apache Lucene. |
ClassicSimilarity |
Starší algoritmus podobnosti, který používá lucene TFIDFSimilarity implementaci TF-IDF. Tato varianta TF-IDF zavádí normalizaci statické délky dokumentů a také koordinující faktory, které penalizují dokumenty, které pouze částečně odpovídají prohledáným dotazům. |
ClassicTokenizer |
Tokenizátor založený na gramatice, který je vhodný pro zpracování většiny dokumentů v evropském jazyce. Tento tokenizátor se implementuje pomocí Apache Lucene. |
CognitiveServicesAccountKey |
Prostředek služby Azure AI zřízený s klíčem, který je připojený k sadě dovedností. |
CommonGramTokenFilter |
Sestavte bigramy pro často se vyskytující termíny při indexování. Jednotlivé termíny se stále indexují, překryvné bigramy. Tento filtr tokenů se implementuje pomocí Apache Lucene. |
ComplexField |
Představuje pole v definici indexu, která popisuje název, datový typ a chování pole při hledání. |
ConditionalSkill |
Dovednost, která umožňuje scénáře, které vyžadují logickou operaci k určení dat, která se mají přiřadit k výstupu. |
CorsOptions |
Definuje možnosti řízení sdílení prostředků mezi zdroji (CORS) pro index. |
CreateOrUpdateIndexOptions |
Možnosti operace vytvoření/aktualizace indexu |
CreateOrUpdateSkillsetOptions |
Možnosti operace vytvoření/aktualizace sady dovedností |
CreateOrUpdateSynonymMapOptions |
Možnosti operace vytvoření/aktualizace mapování synonym |
CreateorUpdateDataSourceConnectionOptions |
Možnosti operace vytvoření/aktualizace zdroje dat |
CreateorUpdateIndexerOptions |
Možnosti operace vytvoření/aktualizace indexeru |
CustomAnalyzer |
Umožňuje převzít kontrolu nad procesem převodu textu na indexovatelné/prohledávatelné tokeny. Jedná se o uživatelem definovanou konfiguraci, která se skládá z jednoho předdefinovaného tokenizátoru a jednoho nebo více filtrů. Tokenizátor zodpovídá za rozdělení textu do tokenů a filtry pro úpravu tokenů vygenerovaných tokenizátorem. |
CustomEntity |
Objekt, který obsahuje informace o nalezených shodách a souvisejících metadatech. |
CustomEntityAlias |
Složitý objekt, který lze použít k určení alternativních pravopisů nebo synonym názvu kořenové entity. |
CustomEntityLookupSkill |
Dovednost hledá text z vlastního, uživatelem definovaného seznamu slov a frází. |
DefaultCognitiveServicesAccount |
Prázdný objekt, který představuje výchozí prostředek služby Azure AI pro sadu dovedností. |
DeleteDataSourceConnectionOptions |
Možnosti operace odstranění zdroje dat |
DeleteIndexOptions |
Možnosti operace odstranění indexu |
DeleteIndexerOptions |
Možnosti operace odstranění indexeru |
DeleteSkillsetOptions |
Možnosti operaionu odstranění sady dovedností |
DeleteSynonymMapOptions |
Možnosti pro operaci odstranění mapy synonym |
DictionaryDecompounderTokenFilter |
Rozloží složená slova nalezená v mnoha germánských jazycích. Tento filtr tokenů se implementuje pomocí Apache Lucene. |
DistanceScoringFunction |
Definuje funkci, která zvyšuje skóre na základě vzdálenosti od zeměpisného umístění. |
DistanceScoringParameters |
Poskytuje hodnoty parametrů pro funkci bodování vzdálenosti. |
DocumentExtractionSkill |
Dovednost, která extrahuje obsah ze souboru v rámci kanálu pro rozšiřování. |
EdgeNGramTokenFilter |
Generuje n-gramů dané velikosti počínaje přední nebo zadní částí vstupního tokenu. Tento filtr tokenů se implementuje pomocí Apache Lucene. |
EdgeNGramTokenizer |
Tokenizuje vstup z hrany na n-gramů dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene. |
ElisionTokenFilter |
Odebere elisions. Například "l'avion" (letadlo) se převede na "avion" (rovina). Tento filtr tokenů se implementuje pomocí Apache Lucene. |
EntityLinkingSkill |
Pomocí rozhraní API Analýza textu extrahuje propojené entity z textu. |
EntityRecognitionSkill |
Rozpoznávání entit analýzy textu. |
EntityRecognitionSkillV3 |
Pomocí rozhraní API Analýza textu extrahuje z textu entity různých typů. |
ExhaustiveKnnParameters |
Obsahuje parametry specifické pro vyčerpávající algoritmus KNN. |
ExtractiveQueryAnswer |
Extrahuje kandidáty na odpovědi z obsahu dokumentů vrácených jako odpověď na dotaz vyjádřený jako otázka v přirozeném jazyce. |
ExtractiveQueryCaption |
Extrahuje titulky z odpovídajících dokumentů, které obsahují pasáže relevantní pro vyhledávací dotaz. |
FacetResult |
Jeden kbelík výsledku omezujícího dotazu. Zaznamenává počet dokumentů s hodnotou pole spadající do určitého rozsahu nebo s konkrétní hodnotou nebo intervalem. |
FieldMapping |
Definuje mapování mezi polem ve zdroji dat a cílovým polem v indexu. |
FieldMappingFunction |
Představuje funkci, která transformuje hodnotu ze zdroje dat před indexováním. |
FreshnessScoringFunction |
Definuje funkci, která zvyšuje skóre na základě hodnoty pole datum a čas. |
FreshnessScoringParameters |
Poskytuje hodnoty parametrů pro funkci bodování aktuálnosti. |
GetDocumentOptions |
Možnosti pro načtení jednoho dokumentu |
HighWaterMarkChangeDetectionPolicy |
Definuje zásadu detekce změn dat, která zachycuje změny na základě hodnoty sloupce horní meze. |
HnswParameters |
Obsahuje parametry specifické pro algoritmus hnsw. |
ImageAnalysisSkill |
Dovednost, která analyzuje soubory obrázků. Extrahuje bohatou sadu vizuálních funkcí na základě obsahu obrázku. |
IndexDocumentsClient |
Klient indexování dokumentů |
IndexDocumentsOptions |
Možnosti pro operaci dávky změn indexu. |
IndexDocumentsResult |
Odpověď obsahující stav operací pro všechny dokumenty v požadavku indexování. |
IndexerExecutionResult |
Představuje výsledek spuštění jednotlivého indexeru. |
IndexingParameters |
Představuje parametry pro spuštění indexeru. |
IndexingParametersConfiguration |
Slovník vlastností konfigurace specifických pro indexer. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu. |
IndexingResult |
Stav operace indexování pro jeden dokument |
IndexingSchedule |
Představuje plán spuštění indexeru. |
InputFieldMappingEntry |
Mapování vstupních polí pro dovednost |
KeepTokenFilter |
Filtr tokenů, který uchovává pouze tokeny s textem obsaženým v zadaném seznamu slov. Tento filtr tokenů se implementuje pomocí Apache Lucene. |
KeyPhraseExtractionSkill |
Dovednost, která používá analýzu textu k extrakci klíčových frází. |
KeywordMarkerTokenFilter |
Označí termíny jako klíčová slova. Tento filtr tokenů se implementuje pomocí Apache Lucene. |
KeywordTokenizer |
Vygeneruje celý vstup jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene. |
LanguageDetectionSkill |
Dovednost, která rozpozná jazyk vstupního textu a hlásí kód jednoho jazyka pro každý dokument odeslaný na žádost. Kód jazyka je spárován se skórem označujícím spolehlivost analýzy. |
LengthTokenFilter |
Odebere slova, která jsou příliš dlouhá nebo příliš krátká. Tento filtr tokenů je implementovaný pomocí Apache Lucene. |
LimitTokenFilter |
Omezuje počet tokenů při indexování. Tento filtr tokenů je implementovaný pomocí Apache Lucene. |
ListSearchResultsPageSettings |
Argumenty pro načtení další stránky výsledků hledání |
LuceneStandardAnalyzer |
Standardní analyzátor Apache Lucene; Skládá se ze standardního tokenizátoru, filtru malých písmen a filtru zastavení. |
LuceneStandardTokenizer |
Zalomí text podle pravidel segmentace textu v kódování Unicode. Tento tokenizátor se implementuje pomocí Apache Lucene. |
MagnitudeScoringFunction |
Definuje funkci, která zvyšuje skóre na základě velikosti číselného pole. |
MagnitudeScoringParameters |
Poskytuje hodnoty parametrů pro funkci bodování velikosti. |
MappingCharFilter |
Filtr znaků, který používá mapování definovaná pomocí možnosti mapování. Shoda je chamtivá (nejdelší porovnávání vzorů v daném bodě vyhrává). Nahrazení může být prázdný řetězec. Tento filtr znaků se implementuje pomocí Apache Lucene. |
MergeSkill |
Dovednost pro sloučení dvou nebo více řetězců do jednoho sjednoceného řetězce s volitelným uživatelem definovaný oddělovač oddělující jednotlivé části komponenty. |
MicrosoftLanguageStemmingTokenizer |
Rozdělí text pomocí pravidel specifických pro konkrétní jazyk a zmenšuje slova na jejich základní tvary. |
MicrosoftLanguageTokenizer |
Rozdělí text pomocí pravidel specifických pro konkrétní jazyk. |
NGramTokenFilter |
Vygeneruje n-gramy dané velikosti. Tento filtr tokenů je implementovaný pomocí Apache Lucene. |
NGramTokenizer |
Tokenizuje vstup na n-gramy dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene. |
OcrSkill |
Dovednost, která extrahuje text ze souborů obrázků. |
OutputFieldMappingEntry |
Mapování výstupních polí pro dovednost |
PIIDetectionSkill |
Pomocí rozhraní ANALÝZA TEXTU API extrahuje osobní údaje ze vstupního textu a umožňuje je maskovat. |
PathHierarchyTokenizer |
Tokenizátor pro hierarchie podobné cestám. Tento tokenizátor se implementuje pomocí Apache Lucene. |
PatternAnalyzer |
Pružně rozděluje text na termíny pomocí vzoru regulárního výrazu. Tento analyzátor je implementovaný pomocí Apache Lucene. |
PatternCaptureTokenFilter |
Používá regexes v Javě k vygenerování více tokenů – jeden pro každou skupinu zachycení v jednom nebo více vzorech. Tento filtr tokenů je implementovaný pomocí Apache Lucene. |
PatternReplaceCharFilter |
Filtr znaků, který nahrazuje znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků, které se mají zachovat, a vzor nahrazení k identifikaci znaků, které se mají nahradit. Například s ohledem na vstupní text "aa bb aa bb", vzor "(aa)\s+(bb)" a nahrazení "$1#$2", výsledek bude "aa#bb aa#bb". Tento filtr znaků se implementuje pomocí Apache Lucene. |
PatternReplaceTokenFilter |
Filtr znaků, který nahrazuje znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků, které se mají zachovat, a vzor nahrazení k identifikaci znaků, které se mají nahradit. Například s ohledem na vstupní text "aa bb aa bb", vzor "(aa)\s+(bb)" a nahrazení "$1#$2", výsledek bude "aa#bb aa#bb". Tento filtr tokenů je implementovaný pomocí Apache Lucene. |
PatternTokenizer |
Tokenizer, který používá porovnávání vzorů regex k vytvoření jedinečných tokenů. Tento tokenizátor se implementuje pomocí Apache Lucene. |
PhoneticTokenFilter |
Vytvořte tokeny pro fonetické shody. Tento filtr tokenů je implementovaný pomocí Apache Lucene. |
QueryAnswerResult |
Odpověď je textová pasáž extrahovaná z obsahu nejdůležitějších dokumentů, které odpovídají dotazu. Odpovědi se extrahují z hlavních výsledků hledání. Kandidáti odpovědí jsou ohodnocení a vyberou se nejlepší odpovědi. |
QueryCaptionResult |
Titulky jsou nejreprezentativnějšími pasážemi z dokumentu relativně k vyhledávacímu dotazu. Často se používají jako souhrn dokumentů. Titulky se vrací pouze pro dotazy typu |
ResourceCounter |
Představuje využití a kvótu prostředku. |
ScoringProfile |
Definuje parametry pro index vyhledávání, které ovlivňují bodování ve vyhledávacích dotazech. |
SearchClientOptions |
Možnosti klienta používané ke konfiguraci požadavků rozhraní API služby Cognitive Search |
SearchDocumentsPageResult |
Odpověď obsahující výsledky vyhledávací stránky z indexu |
SearchDocumentsResult |
Odpověď obsahující výsledky hledání z indexu |
SearchDocumentsResultBase |
Odpověď obsahující výsledky hledání z indexu |
SearchIndex |
Představuje definici indexu vyhledávání, která popisuje pole a chování vyhledávání indexu. |
SearchIndexClientOptions |
Možnosti klienta používané ke konfiguraci požadavků rozhraní API služby Cognitive Search |
SearchIndexStatistics |
Statistika daného indexu Statistiky se shromažďují pravidelně a není zaručeno, že budou vždy aktuální. |
SearchIndexer |
Představuje indexer. |
SearchIndexerClientOptions |
Možnosti klienta používané ke konfiguraci požadavků rozhraní API služby Cognitive Search |
SearchIndexerDataContainer |
Představuje informace o entitě (například Azure SQL tabulce nebo kolekci CosmosDB), která bude indexována. |
SearchIndexerDataSourceConnection |
Představuje definici zdroje dat, kterou lze použít ke konfiguraci indexeru. |
SearchIndexerError |
Představuje chybu indexování na úrovni položky nebo dokumentu. |
SearchIndexerKnowledgeStore |
Definice dalších projekcí pro objekty blob, tabulky nebo soubory azure s obohacenými daty |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Abstraktní třída pro sdílení vlastností mezi konkrétní selektory. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definice projekce pro data, která se mají ukládat do Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definice projekce pro data, která se mají ukládat v objektech blob Azure. |
SearchIndexerKnowledgeStoreProjection |
Objekt kontejneru pro různé selektory projekce. |
SearchIndexerKnowledgeStoreProjectionSelector |
Abstraktní třída pro sdílení vlastností mezi konkrétní selektory. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Popis dat, která se mají ukládat do tabulek Azure |
SearchIndexerLimits | |
SearchIndexerSkillset |
Seznam dovedností. |
SearchIndexerStatus |
Představuje aktuální stav a historii provádění indexeru. |
SearchIndexerWarning |
Představuje upozornění na úrovni položky. |
SearchIndexingBufferedSenderOptions |
Možnosti pro SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Šifrovací klíč spravovaný zákazníkem v Azure Key Vault. Klíče, které vytvoříte a spravujete, můžete použít k šifrování nebo dešifrování neaktivních uložených dat v Azure Cognitive Search, jako jsou indexy a mapy synonym. |
SearchServiceStatistics |
Odpověď z žádosti o získání statistiky služby V případě úspěchu zahrnuje čítače a limity na úrovni služby. |
SearchSuggester |
Definuje, jak by se rozhraní API Pro návrhy mělo použít na skupinu polí v indexu. |
SemanticConfiguration |
Definuje konkrétní konfiguraci, která se má použít v kontextu sémantických funkcí. |
SemanticField |
Pole, které se používá jako součást sémantické konfigurace. |
SemanticPrioritizedFields |
Popisuje pole názvu, obsahu a klíčových slov, která se mají použít pro sémantické řazení, titulky, zvýraznění a odpovědi. |
SemanticSearch |
Definuje parametry pro index vyhledávání, které ovlivňují sémantické funkce. |
SemanticSearchOptions |
Definuje možnosti pro sémantické vyhledávací dotazy. |
SentimentSkill |
Analýza textu kladně-negativní mínění, vyhodnocená jako hodnota s plovoucí desetinou čárkou v rozsahu od nuly do 1. |
SentimentSkillV3 |
Pomocí rozhraní API Analýza textu vyhodnocuje nestrukturovaný text a pro každý záznam poskytuje popisky mínění (například "negativní", "neutrální" a "pozitivní") na základě nejvyššího skóre spolehlivosti zjištěného službou na úrovni věty a dokumentu. |
ServiceCounters |
Představuje čítače a kvóty prostředků na úrovni služby. |
ServiceLimits |
Představuje různá omezení úrovně služeb. |
ShaperSkill |
Dovednost pro přetváření výstupů. Vytvoří komplexní typ pro podporu složených polí (označovaných také jako pole s více částmi). |
ShingleTokenFilter |
Vytvoří kombinace tokenů jako jeden token. Tento filtr tokenů je implementovaný pomocí Apache Lucene. |
Similarity |
Základní typ pro algoritmy podobnosti. Algoritmy podobnosti se používají k výpočtu skóre, která propojí dotazy s dokumenty. Čím vyšší je skóre, tím relevantnější je dokument pro daný konkrétní dotaz. Tato skóre se používají k řazení výsledků hledání. |
SimpleField |
Představuje pole v definici indexu, která popisuje název, datový typ a chování hledání pole. |
SnowballTokenFilter |
Filtr, který vytváří slova pomocí generovaného sněžnice. Tento filtr tokenů je implementovaný pomocí Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Definuje zásadu detekce odstranění dat, která implementuje strategii obnovitelného odstranění. Určuje, zda má být položka odstraněna na základě hodnoty určeného sloupce obnovitelného odstranění. |
SplitSkill |
Dovednost rozdělit řetězec na bloky textu. |
SqlIntegratedChangeTrackingPolicy |
Definuje zásadu detekce změn dat, která zaznamenává změny pomocí integrované funkce Change Tracking služby Azure SQL Database. |
StemmerOverrideTokenFilter |
Poskytuje možnost přepsat jiné filtry stemmingu pomocí vlastního slovníku založeného na stemmingu. Všechny termíny obsahující slovník budou označeny jako klíčová slova, aby se nezobrazovaly s kmeny v řetězci. Musí být umístěn před všechny filtry stopek. Tento filtr tokenů je implementovaný pomocí Apache Lucene. |
StemmerTokenFilter |
Filtr stemming specifický pro jazyk. Tento filtr tokenů je implementovaný pomocí Apache Lucene. |
StopAnalyzer |
Rozdělí text na jiné než písmena; Použije filtry tokenů malých písmen a dorazových slov. Tento analyzátor je implementovaný pomocí Apache Lucene. |
StopwordsTokenFilter |
Odebere stop slova z datového proudu tokenu. Tento filtr tokenů je implementovaný pomocí Apache Lucene. |
SuggestDocumentsResult |
Odpověď obsahující výsledky návrhu dotazu z indexu |
SuggestRequest |
Parametry pro filtrování, řazení, přibližné porovnávání a další návrhy chování dotazů. |
SynonymMap |
Představuje definici mapy synonym. |
SynonymTokenFilter |
Odpovídá jednoslovná nebo víceslovná synonyma v datovém proudu tokenu. Tento filtr tokenů je implementovaný pomocí Apache Lucene. |
TagScoringFunction |
Definuje funkci, která zvyšuje skóre dokumentů pomocí řetězcových hodnot odpovídajících danému seznamu značek. |
TagScoringParameters |
Poskytuje hodnoty parametrů pro bodovací funkci značky. |
TextTranslationSkill |
Dovednost pro překlad textu z jednoho jazyka do jiného. |
TextWeights |
Definuje váhy polí indexu, jejichž shody by měly zvýšit skóre ve vyhledávacích dotazech. |
TruncateTokenFilter |
Zkrátí termíny na určitou délku. Tento filtr tokenů se implementuje pomocí Apache Lucene. |
UaxUrlEmailTokenizer |
Tokenizuje adresy URL a e-maily jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene. |
UniqueTokenFilter |
Vyfiltruje tokeny se stejným textem jako předchozí token. Tento filtr tokenů se implementuje pomocí Apache Lucene. |
VectorSearch |
Obsahuje možnosti konfigurace související s vektorovými vyhledáváními. |
VectorSearchOptions |
Definuje možnosti pro dotazy vektorové vyhledávání. |
VectorSearchProfile |
Definuje kombinaci konfigurací pro použití s vektorovým vyhledáváním. |
VectorizedQuery |
Parametry dotazu, které se mají použít pro vektorové vyhledávání, když je zadaná nezpracovaná hodnota vektoru. |
WebApiSkill |
Dovednost, která může volat koncový bod webového rozhraní API, což vám umožní rozšířit sadu dovedností voláním vlastního kódu. |
WordDelimiterTokenFilter |
Rozdělí slova na podsloví a provede volitelné transformace skupin podseloví. Tento filtr tokenů se implementuje pomocí Apache Lucene. |
Aliasy typu
AnalyzeTextOptions |
Možnosti pro operaci analyzovat text |
AutocompleteMode |
Definuje hodnoty pro AutocompleteMode. |
AutocompleteOptions |
Možnosti pro načtení textu dokončení pro částečný searchText. |
BlobIndexerDataToExtract |
Známé hodnoty podporované služboustorageMetadata: Indexuje pouze standardní vlastnosti objektu blob a metadata zadaná uživatelem. allMetadata: Extrahuje metadata poskytovaná subsystémem úložiště objektů blob v Azure a metadata specifická pro obsah (například metadata jedinečná jenom pro .png soubory se indexují). contentAndMetadata: Extrahuje všechna metadata a textový obsah z každého objektu blob. |
BlobIndexerImageAction |
Známé hodnoty podporované službounone: Ignoruje vložené obrázky nebo soubory obrázků v datové sadě. Tato možnost je výchozí. generateNormalizedImages: Extrahuje text z obrázků (například slovo STOP ze značky zastavení provozu) a vloží ho do pole obsahu. Tato akce vyžaduje, aby hodnota dataToExtract byla nastavená na contentAndMetadata. Normalizovaný obrázek odkazuje na další zpracování, jehož výsledkem je rovnoměrný výstup obrázku, jeho velikost a otočení, aby se podpořilo konzistentní vykreslování při zahrnutí obrázků do vizuálních výsledků hledání. Při použití této možnosti se tyto informace vygenerují pro každou image. generateNormalizedImagePerPage: Extrahuje text z obrázků (například slovo "STOP" ze značky zastavení provozu) a vloží ho do pole obsahu, ale zachází se soubory PDF jinak v tom, že každá stránka se vykresluje jako obrázek a odpovídajícím způsobem normalizuje místo extrahování vložených obrázků. S typy souborů bez PDF se bude zacházet stejně, jako kdyby byla nastavena možnost generateNormalizedImages. |
BlobIndexerPDFTextRotationAlgorithm |
Známé hodnoty podporované službounone: Využívá normální extrakci textu. Tato možnost je výchozí. detectAngles: Může vytvářet lepší a čitelnější extrakci textu ze souborů PDF, které mají otočený text uvnitř. Všimněte si, že při použití tohoto parametru může mít malý dopad na rychlost výkonu. Tento parametr platí jenom pro soubory PDF a jenom pro soubory PDF s vloženým textem. Pokud se otočený text zobrazí ve vloženém obrázku v PDF, tento parametr se nepoužije. |
BlobIndexerParsingMode |
Známé hodnoty podporované služboudefault: Pro normální zpracování souborů nastavte na výchozí. text: Pokud chcete zlepšit výkon indexování souborů ve formátu prostého textu v úložišti objektů blob, nastavte na text. delimitedText: Pokud jsou objekty blob prostými soubory CSV, nastavte na hodnotu delimitedText. json: Pokud chcete extrahovat strukturovaný obsah ze souborů JSON, nastavte na json. jsonArray: Pokud chcete extrahovat jednotlivé prvky pole JSON jako samostatné dokumenty v Azure Cognitive Search, nastavte na jsonArray. jsonLines: Pokud chcete extrahovat jednotlivé entity JSON oddělené novým řádkem jako samostatné dokumenty v Azure Cognitive Search, nastavte na jsonLines. |
CharFilter |
Obsahuje možné případy pro CharFilter. |
CharFilterName |
Definuje hodnoty pro CharFilterName. Známé hodnoty podporované službouhtml_strip: Filtr znaků, který se pokouší vysunout konstruktory HTML. Viz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html. |
CjkBigramTokenFilterScripts |
Definuje hodnoty pro CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Obsahuje možné případy pro CognitiveServicesAccount. |
ComplexDataType |
Definuje hodnoty pro ComplexDataType. Mezi možné hodnoty patří: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Možnosti pro provedení operace počítání indexu |
CreateDataSourceConnectionOptions |
Možnosti operace vytvoření zdroje dat |
CreateIndexOptions |
Možnosti operace vytvoření indexu |
CreateIndexerOptions |
Možnosti operace vytvoření indexeru |
CreateSkillsetOptions |
Možnosti operace vytvoření sady dovedností |
CreateSynonymMapOptions |
Možnosti pro operaci vytvoření mapy synonym |
CustomEntityLookupSkillLanguage |
Definuje podporované jazyky pro CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage lze používat zaměnitelně s tímto typem. |
DataChangeDetectionPolicy |
Obsahuje možné případy pro DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Obsahuje možné případy pro DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Možnosti operace odstranění dokumentů |
EdgeNGramTokenFilterSide |
Definuje hodnoty pro EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage |
Definuje podporované jazyky pro EntityRecognitionSkillKnownEntityRecognitionSkillLanguage lze používat zaměnitelně s tímto typem. |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Obsahuje možnosti konfigurace specifické pro vyčerpávající algoritmus KNN použitý při dotazování, který provede vyhledávání hrubou silou v celém vektorovém indexu. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Možnosti operace získání zdroje dat |
GetIndexOptions |
Možnosti operace získání indexu |
GetIndexStatisticsOptions |
Možnosti operace získání statistiky indexu |
GetIndexerOptions |
Možnosti operace získání indexeru |
GetIndexerStatusOptions |
Možnosti operace získání stavu indexeru |
GetServiceStatisticsOptions |
Možnosti operace získání statistiky služby |
GetSkillSetOptions |
Možnosti pro získání provozu sady dovedností. |
GetSynonymMapsOptions |
Možnosti operace get synonymmaps |
HnswAlgorithmConfiguration |
Obsahuje možnosti konfigurace specifické pro algoritmus přibližných nejbližších sousedů použitý během indexování. |
ImageAnalysisSkillLanguage |
Definuje podporované jazyky pro ImageAnalysisSkillKnownImageAnalysisSkillLanguage lze s tímto typem používat zaměnitelně. |
ImageDetail | |
IndexActionType |
Definuje hodnoty pro IndexActionType. |
IndexDocumentsAction |
Představuje akci indexu, která pracuje s dokumentem. |
IndexIterator |
Iterátor pro výpis indexů, které existují v Search. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() vytvořte jeden požadavek na server pro každou iteraci. |
IndexNameIterator |
Iterátor pro výpis indexů, které existují v Search. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() vytvořte jeden požadavek na server pro každou iteraci. |
IndexerExecutionEnvironment |
Známé hodnoty podporované služboustandard: Označuje, že Azure Cognitive Search může určit, kde se má indexer spustit. Toto je výchozí prostředí, pokud není zadáno nic, a jedná se o doporučenou hodnotu. private: Označuje, že indexer by měl běžet s prostředím zřízeným speciálně pro vyhledávací službu. Jako spouštěcí prostředí by se mělo zadat pouze v případě, že indexer potřebuje zabezpečený přístup k prostředkům přes sdílené prostředky privátního propojení. |
IndexerExecutionStatus |
Definuje hodnoty pro IndexerExecutionStatus. |
IndexerStatus |
Definuje hodnoty pro IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Definuje podporované jazyky pro KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillSkillLanguage lze zaměnitelně s tímto typem. |
LexicalAnalyzer |
Obsahuje možné případy pro Analyzátor. |
LexicalAnalyzerName |
Definuje hodnoty pro LexicalAnalyzerName. Známé hodnoty podporované službouar.microsoft: Microsoft analyzer pro arabštinu. |
LexicalTokenizer |
Obsahuje možné případy tokenizátoru. |
LexicalTokenizerName |
Definuje hodnoty pro LexicalTokenizerName. Známé hodnoty podporované službouclassic: Tokenizátor založený na gramatice, který je vhodný pro zpracování většiny dokumentů v evropském jazyce. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html. |
ListDataSourceConnectionsOptions |
Možnosti pro operaci se seznamem zdrojů dat |
ListIndexersOptions |
Možnosti pro operaci indexerů seznamu |
ListIndexesOptions |
Možnosti pro operaci indexování seznamu |
ListSkillsetsOptions |
Možnosti pro operaci sady dovedností seznamu |
ListSynonymMapsOptions |
Možnosti pro operaci seznamu synonymMaps. |
MergeDocumentsOptions |
Možnosti operace sloučení dokumentů |
MergeOrUploadDocumentsOptions |
Možnosti operace sloučení nebo nahrání dokumentů |
MicrosoftStemmingTokenizerLanguage |
Definuje hodnoty pro MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Definuje hodnoty pro MicrosoftTokenizerLanguage. |
NarrowedModel |
Zužuje typ modelu tak, aby zahrnoval pouze vybraná pole. |
OcrSkillLanguage |
Definuje podporované jazyky pro OcrSkillKnownOcrSkillLanguage lze používat zaměnitelně s tímto typem. |
PIIDetectionSkillMaskingMode |
Definuje hodnoty pro PIIDetectionSkillMaskingMode. Známé hodnoty podporované službounone: Nedochází k žádnému maskování a výstup maskovaného textu nebude vrácen. replace: Nahradí zjištěné entity znakem zadaným v parametru maskingCharacter. Znak se bude opakovat na délku zjištěné entity, aby posuny správně odpovídaly jak vstupnímu textu, tak i výstupu maskovanéhoText. |
PhoneticEncoder |
Definuje hodnoty pro PhoneticEncoder. |
QueryAnswer |
Hodnota, která určuje, zda mají být odpovědi vráceny jako součást odpovědi hledání.
Tento parametr je platný pouze v případě, že je typ dotazu sémantický. Pokud je nastavená hodnota |
QueryCaption |
Hodnota, která určuje, zda mají být titulky vráceny jako součást odpovědi hledání. Tento parametr je platný pouze v případě, že je typ dotazu sémantický. Pokud je tato možnost nastavená, dotaz vrátí titulky extrahované z klíčových pasáží v dokumentech s nejvyšším pořadím. Pokud jsou titulky extrahované, je zvýraznění ve výchozím nastavení povolené. Výchozí hodnota je žádná. |
QueryType |
Definuje hodnoty pro QueryType. |
RegexFlags |
Definuje příznaky pro porovnávání vzorů regex. Známé hodnoty podporované službouCANON_EQ: Povolí kanonickou ekvivalenci. CASE_INSENSITIVE: Povolí porovnávání bez rozlišování velkých a malých písmen. KOMENTÁŘE: Povoluje prázdné znaky a komentáře ve vzoru. DOTALL: Povolí režim dotall. LITERAL: Povolí analýzu vzoru literálu. MULTILINE: Povolí víceřádkový režim. UNICODE_CASE: Umožňuje skládání velkých písmen s kódováním Unicode. UNIX_LINES: Povolí režim čar unixu. |
ResetIndexerOptions |
Možnosti pro resetování operace indexeru |
RunIndexerOptions |
Možnosti pro spuštění operace indexeru |
ScoringFunction |
Obsahuje možné případy pro ScoringFunction. |
ScoringFunctionAggregation |
Definuje hodnoty pro ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Definuje hodnoty pro ScoringFunctionInterpolation. |
ScoringStatistics |
Definuje hodnoty pro ScoringStatistics. |
SearchField |
Představuje pole v definici indexu, která popisuje název, datový typ a chování hledání pole. |
SearchFieldArray |
Pokud |
SearchFieldDataType |
Definuje hodnoty pro SearchFieldDataType. Mezi možné hodnoty patří: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)' Poznámka: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Obsahuje možné případy pro Skill. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Iterátor pro výsledky hledání patikulárního dotazu. Bude provádět požadavky podle potřeby během iterace. Pomocí příkazu .byPage() vytvořte jeden požadavek na server na každou iteraci. |
SearchMode |
Definuje hodnoty pro SearchMode. |
SearchOptions |
Možnosti potvrzení žádosti o úplné vyhledávání |
SearchPick |
Důkladně vyberte pole T pomocí platných cest OData služby Cognitive Search $select. |
SearchRequestOptions |
Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů |
SearchRequestQueryTypeOptions | |
SearchResult |
Obsahuje dokument nalezený vyhledávacím dotazem a přidružená metadata. |
SelectArray |
Pokud |
SelectFields |
Vytvoří sjednocení platných cest OData služby Cognitive Search $select pro T pomocí následného procházení stromu pole s kořenem T. |
SemanticErrorMode |
částečné: Pokud se zpracování sémantických dat nezdaří, částečné výsledky se přesto vrátí. Definice částečných výsledků závisí na tom, jaký sémantický krok selhal a jaký byl důvod selhání. selhání: Pokud během kroku sémantického zpracování dojde k výjimce, dotaz selže a v závislosti na chybě vrátí příslušný kód HTTP. |
SemanticErrorReason |
maxWaitExceeded: Pokud byla nastavena hodnota semanticMaxWaitInMilliseconds a doba trvání sémantického zpracování překročila danou hodnotu. Byly vráceny pouze základní výsledky. capacityOverloaded: Požadavek byl omezený. Byly vráceny pouze základní výsledky. přechodné: Nejméně jeden krok sémantického procesu selhal. |
SemanticSearchResultsType |
baseResults: Výsledky bez sémantického obohacení nebo přeřazení. rerankedResults: Výsledky byly znovu seřazeny s modelem rerankeru a budou obsahovat sémantické titulky. Nebudou obsahovat žádné odpovědi, zvýraznění odpovědí ani popis zvýraznění. |
SentimentSkillLanguage |
Definuje podporované jazyky pro SentimentSkillKnownSentimentSkillLanguage lze používat zaměnitelně s tímto typem. |
SimilarityAlgorithm |
Obsahuje možné případy podobnosti. |
SnowballTokenFilterLanguage |
Definuje hodnoty pro SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Definuje podporované jazyky pro SplitSkillKnownSplitSkillLanguage lze používat zaměnitelně s tímto typem. |
StemmerTokenFilterLanguage |
Definuje hodnoty pro StemmerTokenFilterLanguage. |
StopwordsList |
Definuje hodnoty pro StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Možnosti pro načítání návrhů na základě vyhledávacího textu |
SuggestResult |
Výsledek obsahující dokument nalezený dotazem návrhu a přidružená metadata. |
TextSplitMode | |
TextTranslationSkillLanguage |
Definuje podporované jazyky pro TextTranslationSkillKnownTextTranslationSkillLanguage lze používat zaměnitelně s tímto typem. |
TokenCharacterKind |
Definuje hodnoty pro TokenCharacterKind. |
TokenFilter |
Obsahuje možné případy pro TokenFilter. |
TokenFilterName |
Definuje hodnoty pro TokenFilterName. Známé hodnoty podporované službouarabic_normalization: Filtr tokenů, který použije arabský normalizátor k normalizaci pravopisu. Viz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html. |
UnionToIntersection | |
UploadDocumentsOptions |
Možnosti operace nahrávání dokumentů |
VectorFilterMode |
Určuje, zda jsou použity filtry před nebo po provedení vektorového vyhledávání. |
VectorQuery |
Parametry dotazu pro vektorové a hybridní vyhledávací dotazy. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Obsahuje možnosti konfigurace specifické pro algoritmus použitý během indexování nebo dotazování. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
Metrika podobnosti, která se má použít pro vektorové porovnání. |
VisualFeature |
Výčty
Funkce
create |
Pomocná metoda pro vytvoření objektu SynonymMap. Toto je pouze metoda NodeJS. |
odata(Template |
Uvozuje výraz filtru odata, aby se zabránilo chybám s řetězcovými literály v uvozování. Příklad použití:
Další informace o podporované syntaxi najdete tady: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Podrobnosti funkce
createSynonymMapFromFile(string, string)
Pomocná metoda pro vytvoření objektu SynonymMap. Toto je pouze metoda NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametry
- name
-
string
Název objektu SynonymMap.
- filePath
-
string
Cesta k souboru, který obsahuje synonyma (sepsaná novými řádky)
Návraty
Promise<SynonymMap>
Objekt SynonymMap
odata(TemplateStringsArray, unknown[])
Uvozuje výraz filtru odata, aby se zabránilo chybám s řetězcovými literály v uvozování. Příklad použití:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Další informace o podporované syntaxi najdete tady: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametry
- strings
-
TemplateStringsArray
Pole řetězců pro výraz
- values
-
unknown[]
Pole hodnot výrazu
Návraty
string