@azure/search-documents package
Třídy
| AzureKeyCredential |
Přihlašovací údaje založené na statickém klíči, které podporují aktualizaci hodnoty základního klíče. |
| GeographyPoint |
Představuje geografický bod v globálních souřadnicích. |
| IndexDocumentsBatch |
Třída používaná k provádění dávkových operací s více dokumenty indexu. |
| SearchClient |
Třída, která slouží k provádění operací s indexem vyhledávání, včetně dotazování dokumentů v indexu a přidávání, aktualizace a odebírání. |
| SearchIndexClient |
Třída pro provádění operací pro správu indexů (vytváření, aktualizace, výpis/odstranění) & synonyma. |
| SearchIndexerClient |
Třída, která provádí operace pro správu indexerů (vytváření, aktualizace, výpis/odstranění), zdrojů dat & sad dovedností. |
| SearchIndexingBufferedSender |
Třída používaná k provádění operací uložených ve vyrovnávací paměti vůči indexu vyhledávání, včetně přidávání, aktualizace a odebírání. |
Rozhraní
| AnalyzeRequest |
Určuje některé součásti textu a analýzy, které slouží k rozdělení textu na tokeny. |
| AnalyzeResult |
Výsledek testování analyzátoru na textu |
| AnalyzedTokenInfo |
Informace o tokenu vráceného analyzátorem |
| AsciiFoldingTokenFilter |
Převede abecední, číselné a symbolické znaky Unicode, které nejsou v prvních 127 znaky ASCII (blok "Základní latinka") na jejich ekvivalenty ASCII, pokud takové ekvivalenty existují. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| AutocompleteItem |
Výsledek požadavků automatického dokončování |
| AutocompleteRequest |
Parametry pro porovnávání přibližných shod a další chování dotazů automatického dokončování |
| AutocompleteResult |
Výsledek dotazu automatického dokončování |
| AzureActiveDirectoryApplicationCredentials |
Přihlašovací údaje registrované aplikace vytvořené pro vaši vyhledávací službu, které slouží k ověřenému přístupu k šifrovacím klíčům uloženým ve službě Azure Key Vault. |
| AzureOpenAIEmbeddingSkill |
Umožňuje vygenerovat vektorové vkládání pro daný textový vstup pomocí prostředku Azure OpenAI. |
| AzureOpenAIParameters |
Obsahuje parametry specifické pro použití služby Azure Open AI pro vektorizaci v době dotazu. |
| AzureOpenAIVectorizer |
Obsahuje parametry specifické pro použití služby Azure Open AI pro vektorizaci v době dotazu. |
| BM25Similarity |
Funkce řazení založená na algoritmu podobnosti BM25 Okapi. BM25 je algoritmus podobný TF-IDF, který zahrnuje normalizaci délky (řízenou parametrem "b") a také sytost termínů (řízená parametrem "k1"). |
| BaseCharFilter |
Základní typ pro filtry znaků. |
| BaseCognitiveServicesAccount |
Základní typ pro popis jakéhokoli prostředku služby Azure AI připojeného k sadě dovedností |
| BaseDataChangeDetectionPolicy |
Základní typ zásad detekce změn dat |
| BaseDataDeletionDetectionPolicy |
Základní typ zásad detekce odstranění dat |
| BaseLexicalAnalyzer |
Základní typ pro analyzátory. |
| BaseLexicalNormalizer |
Základní typ pro normalizátory |
| BaseLexicalTokenizer |
Základní typ pro tokenizátory. |
| BaseScoringFunction |
Základní typ pro funkce, které mohou upravovat skóre dokumentu během řazení. |
| BaseSearchIndexerDataIdentity |
Abstraktní základní typ pro identity dat |
| BaseSearchIndexerSkill |
Základní typ dovedností. |
| BaseSearchRequestOptions |
Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů |
| BaseTokenFilter |
Základní typ pro filtry tokenů. |
| BaseVectorQuery |
Parametry dotazu pro vektorové a hybridní vyhledávací dotazy. |
| BaseVectorSearchAlgorithmConfiguration |
Obsahuje možnosti konfigurace specifické pro algoritmus použitý při indexování nebo dotazování. |
| BaseVectorSearchCompression |
Obsahuje možnosti konfigurace specifické pro metodu komprese použitou při indexování nebo dotazování. |
| BaseVectorSearchVectorizer |
Obsahuje konkrétní podrobnosti pro metodu vektorizace, která se má použít během dotazu. |
| BinaryQuantizationCompression |
Obsahuje možnosti konfigurace specifické pro metodu komprese binárního kvantování používané při indexování a dotazování. |
| CjkBigramTokenFilter |
Tvoří bigramy výrazů CJK, které se generují ze standardního tokenizátoru. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| ClassicSimilarity |
Starší algoritmus podobnosti, který používá implementaci TF-IDF lucene TFIDFSimilarity. Tato varianta TF-IDF představuje normalizaci délky statického dokumentu a také koordinující faktory, které postihují dokumenty, které pouze částečně odpovídají prohledáným dotazům. |
| ClassicTokenizer |
Tokenizátor založený na gramatikě, který je vhodný pro zpracování většiny dokumentů evropského jazyka. Tento tokenizátor se implementuje pomocí Apache Lucene. |
| CognitiveServicesAccountKey |
Klíč účtu více oblastí prostředku služby Azure AI, který je připojený k sadě dovedností. |
| CommonGramTokenFilter |
Při indexování vytvořte bigramy pro často se vyskytující termíny. Jednotlivé termíny jsou stále indexované, s překryvnými bigramy. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| ComplexField |
Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole. |
| ConditionalSkill |
Dovednost, která umožňuje scénářům, které vyžadují logickou operaci k určení dat, která se mají přiřadit k výstupu. |
| CorsOptions |
Definuje možnosti pro řízení sdílení prostředků mezi zdroji (CORS) pro index. |
| CreateOrUpdateIndexOptions |
Možnosti operace vytvoření/aktualizace indexu |
| CreateOrUpdateSkillsetOptions |
Možnosti operace vytvoření/aktualizace sady dovedností |
| CreateOrUpdateSynonymMapOptions |
Možnosti pro operaci vytvoření nebo aktualizace synonym mapy |
| CreateorUpdateDataSourceConnectionOptions |
Možnosti operace vytvoření/aktualizace zdroje dat |
| CreateorUpdateIndexerOptions |
Možnosti operace vytvoření/aktualizace indexeru |
| CustomAnalyzer |
Umožňuje převzít kontrolu nad procesem převodu textu na indexovatelné nebo prohledávatelné tokeny. Jedná se o uživatelsky definovanou konfiguraci, která se skládá z jednoho předdefinovaného tokenizátoru a jednoho nebo více filtrů. Tokenizátor zodpovídá za dělení textu na tokeny a filtry pro úpravy tokenů vygenerovaných tokenem. |
| CustomEntity |
Objekt obsahující informace o nalezených shodách a souvisejících metadatech. |
| CustomEntityAlias |
Složitý objekt, který lze použít k určení alternativního pravopisu nebo synonym pro název kořenové entity. |
| CustomEntityLookupSkill |
Dovednost hledá text z vlastního seznamu slov a frází definovaných uživatelem. |
| CustomLexicalNormalizer |
Umožňuje nakonfigurovat normalizaci pro filtrovatelná, řazená a omezující pole, která ve výchozím nastavení fungují s striktním porovnáváním. Jedná se o uživatelsky definovanou konfiguraci, která se skládá z alespoň jednoho nebo více filtrů, které upravují uložený token. |
| DefaultCognitiveServicesAccount |
Prázdný objekt, který představuje výchozí prostředek služby Azure AI pro sadu dovedností. |
| DeleteDataSourceConnectionOptions |
Možnosti operace odstranění zdroje dat |
| DeleteIndexOptions |
Možnosti operace odstranění indexu |
| DeleteIndexerOptions |
Možnosti operace odstranění indexeru |
| DeleteSkillsetOptions |
Možnosti pro odstranění operaionu sady dovedností |
| DeleteSynonymMapOptions |
Možnosti operace odstranění mapy synonym |
| DictionaryDecompounderTokenFilter |
Rozloží složená slova nalezená v mnoha německých jazycích. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| DistanceScoringFunction |
Definuje funkci, která zvyšuje skóre na základě vzdálenosti od zeměpisného umístění. |
| DistanceScoringParameters |
Poskytuje hodnoty parametrů funkci bodování vzdálenosti. |
| DocumentExtractionSkill |
Dovednost, která extrahuje obsah ze souboru v kanálu rozšiřování. |
| DocumentIntelligenceLayoutSkill |
Dovednost, která extrahuje informace o obsahu a rozvržení prostřednictvím služeb Azure AI Services ze souborů v rámci kanálu rozšiřování. |
| DocumentIntelligenceLayoutSkillChunkingProperties |
Určuje kardinalitu pro rozdělení obsahu do bloků. |
| EdgeNGramTokenFilter |
Vygeneruje n-gramy dané velikosti počínaje přední nebo zadní částí vstupního tokenu. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| EdgeNGramTokenizer |
Tokenizuje vstup z okraje na n-gramy dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene. |
| ElisionTokenFilter |
Odebere elisions. Například "l'avion" (letadlo) bude převedeno na "avion" (letadlo). Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| EntityLinkingSkill |
Pomocí rozhraní API pro analýzu textu extrahuje propojené entity z textu. |
| EntityRecognitionSkill |
Rozpoznávání entit analýzy textu |
| EntityRecognitionSkillV3 |
Pomocí rozhraní API pro analýzu textu extrahuje entity různých typů z textu. |
| ExhaustiveKnnParameters |
Obsahuje parametry specifické pro vyčerpávající algoritmus KNN. |
| ExtractiveQueryAnswer |
Extrahuje kandidáty odpovědí z obsahu dokumentů vrácených v reakci na dotaz vyjádřený jako otázka v přirozeném jazyce. |
| ExtractiveQueryCaption |
Extrahuje titulky z odpovídajících dokumentů, které obsahují pasáže relevantní pro vyhledávací dotaz. |
| FacetResult |
Jeden kbelík výsledku fasetového dotazu. Zaznamenává počet dokumentů s hodnotou pole spadající do konkrétní oblasti nebo s konkrétní hodnotou nebo intervalem. |
| FieldMapping |
Definuje mapování mezi polem ve zdroji dat a cílovým polem v indexu. |
| FieldMappingFunction |
Představuje funkci, která před indexováním transformuje hodnotu ze zdroje dat. |
| FreshnessScoringFunction |
Definuje funkci, která zvyšuje skóre na základě hodnoty pole data a času. |
| FreshnessScoringParameters |
Poskytuje hodnoty parametrů pro funkci bodování aktuálnosti. |
| GetDocumentOptions |
Možnosti pro načtení jednoho dokumentu |
| HighWaterMarkChangeDetectionPolicy |
Definuje zásadu detekce změn dat, která zachycuje změny na základě hodnoty sloupce horní značky. |
| HnswParameters |
Obsahuje parametry specifické pro algoritmus hnsw. |
| ImageAnalysisSkill |
Dovednost, která analyzuje soubory obrázků. Extrahuje bohatou sadu vizuálních funkcí na základě obsahu obrázku. |
| IndexDocumentsClient |
Klient indexování dokumentů |
| IndexDocumentsOptions |
Možnosti pro úpravu dávkové operace indexu |
| IndexDocumentsResult |
Odpověď obsahující stav operací pro všechny dokumenty v požadavku indexování |
| IndexerExecutionResult |
Představuje výsledek spuštění jednotlivých indexerů. |
| IndexingParameters |
Představuje parametry pro spuštění indexeru. |
| IndexingParametersConfiguration |
Slovník vlastností konfigurace specifické pro indexer. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu. |
| IndexingResult |
Stav operace indexování pro jeden dokument |
| IndexingSchedule |
Představuje plán provádění indexeru. |
| InputFieldMappingEntry |
Mapování vstupních polí pro dovednost |
| KeepTokenFilter |
Filtr tokenů, který uchovává pouze tokeny s textem obsaženým v zadaném seznamu slov. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| KeyPhraseExtractionSkill |
Dovednost, která používá analýzu textu pro extrakci klíčových frází. |
| KeywordMarkerTokenFilter |
Označí termíny jako klíčová slova. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| KeywordTokenizer |
Vygeneruje celý vstup jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene. |
| LanguageDetectionSkill |
Dovednost, která rozpozná jazyk vstupního textu a hlásí kód jednoho jazyka pro každý dokument odeslaný na žádost. Kód jazyka je spárovaný se skóre označujícím spolehlivost analýzy. |
| LengthTokenFilter |
Odebere slova, která jsou příliš dlouhá nebo příliš krátká. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| LimitTokenFilter |
Omezuje počet tokenů při indexování. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| ListSearchResultsPageSettings |
Argumenty pro načtení další stránky výsledků hledání |
| LuceneStandardAnalyzer |
Standardní analyzátor Apache Lucene; Skládá se ze standardního tokenizátoru, filtru malými písmeny a filtru zastavení. |
| LuceneStandardTokenizer |
Zalomí text podle pravidel segmentace textu unicode. Tento tokenizátor se implementuje pomocí Apache Lucene. |
| MagnitudeScoringFunction |
Definuje funkci, která zvyšuje skóre na základě velikosti číselného pole. |
| MagnitudeScoringParameters |
Poskytuje hodnoty parametrů pro funkci bodování velikosti. |
| MappingCharFilter |
Filtr znaků, který používá mapování definovaná pomocí možnosti mapování. Porovnávání je greedy (nejdelší porovnávání vzorů v daném bodě vyhrává). Nahrazení může být prázdný řetězec. Tento filtr znaků se implementuje pomocí Apache Lucene. |
| MergeSkill |
Dovednost pro sloučení dvou nebo více řetězců do jednoho sjednoceného řetězce s volitelným uživatelem definovaným oddělovačem, který odděluje jednotlivé součásti. |
| MicrosoftLanguageStemmingTokenizer |
Rozdělí text pomocí pravidel specifických pro jazyk a zmenšuje slova na jejich základní formuláře. |
| MicrosoftLanguageTokenizer |
Rozdělí text pomocí pravidel specifických pro jazyk. |
| NGramTokenFilter |
Vygeneruje n-gramy dané velikosti. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| NGramTokenizer |
Tokenizuje vstup na n-gramy dané velikosti. Tento tokenizátor se implementuje pomocí Apache Lucene. |
| OcrSkill |
Dovednost, která extrahuje text ze souborů obrázků. |
| OutputFieldMappingEntry |
Mapování výstupních polí pro dovednost |
| PIIDetectionSkill |
Pomocí rozhraní API pro analýzu textu extrahuje osobní údaje ze vstupního textu a poskytne vám možnost ho maskovat. |
| PathHierarchyTokenizer |
Tokenizátor pro hierarchie podobné cestě. Tento tokenizátor se implementuje pomocí Apache Lucene. |
| PatternAnalyzer |
Pružně odděluje text do termínů pomocí vzoru regulárního výrazu. Tento analyzátor se implementuje pomocí Apache Lucene. |
| PatternCaptureTokenFilter |
Používá regulární výrazy Java k vygenerování více tokenů – jeden pro každou skupinu zachycení v jednom nebo více vzorech. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| PatternReplaceCharFilter |
Filtr znaků, který nahradí znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků k zachování a nahrazení vzoru pro identifikaci znaků, které se mají nahradit. Například při zadání textu "aa bb aa bb", vzoru "(aa)\s+(bb)" a nahrazení "$1#$2" bude výsledkem "aa#bb aa#bb". Tento filtr znaků se implementuje pomocí Apache Lucene. |
| PatternReplaceTokenFilter |
Filtr znaků, který nahradí znaky ve vstupním řetězci. Používá regulární výraz k identifikaci sekvencí znaků k zachování a nahrazení vzoru pro identifikaci znaků, které se mají nahradit. Například při zadání textu "aa bb aa bb", vzoru "(aa)\s+(bb)" a nahrazení "$1#$2" bude výsledkem "aa#bb aa#bb". Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| PatternTokenizer |
Tokenizátor, který používá porovnávání vzorů regulárních výrazů k vytvoření jedinečných tokenů. Tento tokenizátor se implementuje pomocí Apache Lucene. |
| PhoneticTokenFilter |
Vytváření tokenů pro fonetické shody Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| QueryAnswerResult |
Odpověď je textový úsek extrahovaný z obsahu nejrelevavantnějších dokumentů, které odpovídají dotazu. Odpovědi se extrahují z nejlepších výsledků hledání. Kandidáti na odpovědi jsou hodnoceni a vyberou se hlavní odpovědi. |
| QueryCaptionResult |
Titulky jsou nejvýraznější pasáže z dokumentu relativně do vyhledávacího dotazu. Často se používají jako souhrn dokumentů. Titulky jsou vráceny pouze pro dotazy typu |
| RescoringOptions |
Obsahuje možnosti pro změnu hodnocení. |
| ResourceCounter |
Představuje využití a kvótu prostředku. |
| ScalarQuantizationCompression |
Obsahuje možnosti konfigurace specifické pro metodu komprese skalární quantizace, která se používá při indexování a dotazování. |
| ScalarQuantizationParameters |
Obsahuje parametry specifické pro skalární kvantování. |
| ScoringProfile |
Definuje parametry indexu vyhledávání, které ovlivňují bodování ve vyhledávacích dotazech. |
| SearchClientOptions |
Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání |
| SearchDocumentsPageResult |
Odpověď obsahující výsledky vyhledávací stránky z indexu |
| SearchDocumentsResult |
Odpověď obsahující výsledky hledání z indexu |
| SearchDocumentsResultBase |
Odpověď obsahující výsledky hledání z indexu |
| SearchIndex |
Představuje definici indexu vyhledávání, která popisuje pole a chování vyhledávání indexu. |
| SearchIndexClientOptions |
Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání |
| SearchIndexStatistics |
Statistika pro daný index Statistiky se shromažďují pravidelně a není zaručeno, že budou vždy up-to-date. |
| SearchIndexer |
Představuje indexer. |
| SearchIndexerClientOptions |
Možnosti klienta používané ke konfiguraci požadavků rozhraní API kognitivního vyhledávání |
| SearchIndexerDataContainer |
Představuje informace o entitě (například tabulce Azure SQL nebo kolekci CosmosDB), která se bude indexovat. |
| SearchIndexerDataNoneIdentity |
Vymaže vlastnost identity zdroje dat. |
| SearchIndexerDataSourceConnection |
Představuje definici zdroje dat, kterou lze použít ke konfiguraci indexeru. |
| SearchIndexerDataUserAssignedIdentity |
Určuje identitu zdroje dat, která se má použít. |
| SearchIndexerError |
Představuje chybu indexování na úrovni položky nebo dokumentu. |
| SearchIndexerIndexProjection |
Definicedalšíchch |
| SearchIndexerIndexProjectionParameters |
Slovník vlastností konfigurace specifické pro projekce indexu. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu. |
| SearchIndexerIndexProjectionSelector |
Popis dat uložených v určeném indexu vyhledávání |
| SearchIndexerKnowledgeStore |
Definicedalšíchch dat pro azure blob, tabulek nebo souborů |
| SearchIndexerKnowledgeStoreBlobProjectionSelector |
Abstraktní třída pro sdílení vlastností mezi betonovými selektory |
| SearchIndexerKnowledgeStoreFileProjectionSelector |
Definice projekce pro data, která se mají ukládat ve službě Azure Files. |
| SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definice projekce pro data, která se mají ukládat v objektu blob Azure. |
| SearchIndexerKnowledgeStoreParameters |
Slovník vlastností konfigurace specifické pro úložiště znalostí. Každý název je název konkrétní vlastnosti. Každá hodnota musí být primitivního typu. |
| SearchIndexerKnowledgeStoreProjection |
Objekt kontejneru pro různé selektory projekce |
| SearchIndexerKnowledgeStoreProjectionSelector |
Abstraktní třída pro sdílení vlastností mezi betonovými selektory |
| SearchIndexerKnowledgeStoreTableProjectionSelector |
Popis dat, která se mají ukládat v tabulkách Azure |
| SearchIndexerLimits | |
| SearchIndexerSkillset |
Seznam dovedností. |
| SearchIndexerStatus |
Představuje aktuální stav a historii spuštění indexeru. |
| SearchIndexerWarning |
Představuje upozornění na úrovni položky. |
| SearchIndexingBufferedSenderOptions |
Možnosti pro SearchIndexingBufferedSender. |
| SearchResourceEncryptionKey |
Šifrovací klíč spravovaný zákazníkem ve službě Azure Key Vault. Klíče, které vytvoříte a spravujete, se dají použít k šifrování nebo dešifrování neaktivních uložených dat ve službě Azure Cognitive Search, jako jsou indexy a mapy synonym. |
| SearchServiceStatistics |
Odpověď z žádosti o získání statistiky služby V případě úspěchu zahrnuje čítače a limity na úrovni služby. |
| SearchSuggester |
Definuje, jak se má rozhraní API navrhnout na skupinu polí v indexu. |
| SemanticConfiguration |
Definuje konkrétní konfiguraci, která se má použít v kontextu sémantických funkcí. |
| SemanticField |
Pole, které se používá jako součást sémantické konfigurace. |
| SemanticPrioritizedFields |
Popisuje pole nadpisu, obsahu a klíčových slov, která se mají použít pro sémantické řazení, titulky, zvýraznění a odpovědi. |
| SemanticSearch |
Definuje parametry indexu vyhledávání, které ovlivňují sémantické schopnosti. |
| SemanticSearchOptions |
Definuje možnosti pro sémantické vyhledávací dotazy. |
| SentimentSkill |
Analýza textu s pozitivním negativním míněním, vyhodnocená jako hodnota s plovoucí desetinou čárkou v rozsahu od nuly do 1. |
| SentimentSkillV3 |
Pomocí rozhraní API pro analýzu textu vyhodnocuje nestrukturovaný text a pro každý záznam poskytuje popisky mínění (například "negativní", "neutrální" a "pozitivní") na základě nejvyššího skóre spolehlivosti zjištěného službou na úrovni věty a dokumentu. |
| ServiceCounters |
Představuje čítače a kvóty prostředků na úrovni služby. |
| ServiceLimits |
Představuje různé limity na úrovni služby. |
| ShaperSkill |
Dovednost pro přetváření výstupů. Vytvoří komplexní typ pro podporu složených polí (označovaných také jako pole s více částmi). |
| ShingleTokenFilter |
Vytvoří kombinace tokenů jako jeden token. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| Similarity |
Základní typ pro algoritmy podobnosti Algoritmy podobnosti se používají k výpočtu skóre, které sváže dotazy s dokumenty. Čím vyšší je skóre, tím relevantnější dokument je pro daný dotaz. Tato skóre slouží k řazení výsledků hledání. |
| SimpleField |
Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole. |
| SnowballTokenFilter |
Filtr, který vychází ze slov pomocí vygenerovaného smyšlí snowballu. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| SoftDeleteColumnDeletionDetectionPolicy |
Definuje zásadu detekce odstranění dat, která implementuje strategii obnovitelného odstranění. Určuje, zda má být položka odstraněna na základě hodnoty určeného sloupce obnovitelného odstranění. |
| SplitSkill |
Dovednost rozdělit řetězec na bloky textu. |
| SqlIntegratedChangeTrackingPolicy |
Definuje zásadu detekce změn dat, která zachycuje změny pomocí integrované funkce Change Tracking ve službě Azure SQL Database. |
| StemmerOverrideTokenFilter |
Poskytuje možnost přepsat další stemmingové filtry pomocí vlastních slovníkových stemmingů. Všechny termíny založené na slovníku budou označeny jako klíčová slova, aby se nezvolily pomocí stemmerů v řetězci. Musí být umístěny před všemi filtry pro vytváření. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| StemmerTokenFilter |
Filtr pro konkrétní jazyk. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| StopAnalyzer |
Rozdělí text bez písmen; Použije filtry tokenů s malými písmeny a stopword. Tento analyzátor se implementuje pomocí Apache Lucene. |
| StopwordsTokenFilter |
Odebere slova ze streamu tokenu. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| SuggestDocumentsResult |
Odpověď obsahující výsledky návrhového dotazu z indexu |
| SuggestRequest |
Parametry pro filtrování, řazení, přibližné porovnávání a další návrhy chování dotazů. |
| SynonymMap |
Představuje definici mapy synonym. |
| SynonymTokenFilter |
Porovná jednoslovné nebo víceslovné synonyma v datovém proudu tokenů. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| TagScoringFunction |
Definuje funkci, která zvyšuje skóre dokumentů s řetězcovými hodnotami odpovídajícími danému seznamu značek. |
| TagScoringParameters |
Poskytuje hodnoty parametrů funkci bodování značek. |
| TextTranslationSkill |
Dovednost překládat text z jednoho jazyka do druhého. |
| TextWeights |
Definuje váhy u polí indexu, u kterých by se mělo zvýšit bodování ve vyhledávacích dotazech. |
| TruncateTokenFilter |
Zkracuje termíny na určitou délku. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| UaxUrlEmailTokenizer |
Tokenizuje adresy URL a e-maily jako jeden token. Tento tokenizátor se implementuje pomocí Apache Lucene. |
| UniqueTokenFilter |
Vyfiltruje tokeny se stejným textem jako předchozí token. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
| VectorSearch |
Obsahuje možnosti konfigurace související s vektorové vyhledávání. |
| VectorSearchOptions |
Definuje možnosti pro dotazy vektorové vyhledávání. |
| VectorSearchProfile |
Definuje kombinaci konfigurací, které se mají použít s vektorovým vyhledáváním. |
| VectorizableTextQuery |
Parametry dotazu, které se mají použít pro vektorové vyhledávání, pokud je k dispozici textová hodnota, která musí být vektorizována. |
| VectorizedQuery |
Parametry dotazu, které se mají použít pro vektorové vyhledávání při zadání nezpracované hodnoty vektoru. |
| WebApiParameters |
Určuje vlastnosti pro připojení k vektorizátoru definovanému uživatelem. |
| WebApiSkill |
Dovednost, která může volat koncový bod webového rozhraní API, což vám umožní rozšířit sadu dovedností tím, že zavolá váš vlastní kód. |
| WebApiVectorizer |
Určuje vektorizátor definovaný uživatelem pro generování vektorového vkládání řetězce dotazu. Integrace externí vektorizátoru se dosahuje pomocí vlastního rozhraní webového rozhraní API sady dovedností. |
| WordDelimiterTokenFilter |
Rozdělí slova do dílčích slov a provede volitelné transformace skupin podwordů. Tento filtr tokenu se implementuje pomocí Apache Lucene. |
Aliasy typu
| AnalyzeTextOptions |
Možnosti pro analýzu textové operace |
| AutocompleteMode |
Definuje hodnoty pro AutocompleteMode. |
| AutocompleteOptions |
Možnosti pro načtení textu dokončení pro částečný hledaný text |
| AzureOpenAIModelName |
Definuje hodnoty pro AzureOpenAIModelName. Známé hodnoty podporované službou
text-embedding-ada-002 |
| BlobIndexerDataToExtract | |
| BlobIndexerImageAction | |
| BlobIndexerPDFTextRotationAlgorithm | |
| BlobIndexerParsingMode | |
| CharFilter |
Obsahuje možné případy pro CharFilter. |
| CharFilterName |
Definuje hodnoty pro CharFilterName. Známé hodnoty podporované službouhtml_strip: Filtr znaků, který se pokusí odstranit konstruktory HTML. Podívejte se na https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
| CjkBigramTokenFilterScripts |
Definuje hodnoty pro CjkBigramTokenFilterScripts. |
| CognitiveServicesAccount |
Obsahuje možné případy pro CognitiveServicesAccount. |
| ComplexDataType |
Definuje hodnoty pro ComplexDataType. Mezi možné hodnoty patří: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
| CountDocumentsOptions |
Možnosti pro provádění operace počítání indexu |
| CreateDataSourceConnectionOptions |
Možnosti pro operaci vytvoření zdroje dat |
| CreateIndexOptions |
Možnosti pro vytvoření operace indexu |
| CreateIndexerOptions |
Možnosti pro vytvoření operace indexeru |
| CreateSkillsetOptions |
Možnosti pro vytvoření operace sady dovedností |
| CreateSynonymMapOptions |
Možnosti pro operaci vytvoření mapy synonym |
| CustomEntityLookupSkillLanguage | |
| DataChangeDetectionPolicy |
Obsahuje možné případy pro DataChangeDetectionPolicy. |
| DataDeletionDetectionPolicy |
Obsahuje možné případy DataDeletionDetectionPolicy. |
| DeleteDocumentsOptions |
Možnosti operace odstranění dokumentů |
| DocumentIntelligenceLayoutSkillChunkingUnit |
Definuje hodnoty pro DocumentIntelligenceLayoutSkillChunkingUnit. Známé hodnoty podporované služboucharacters: Určuje chunk po znacích. |
| DocumentIntelligenceLayoutSkillExtractionOptions |
Definuje hodnoty pro DocumentIntelligenceLayoutSkillExtractionOptions. Známé hodnoty podporované službou
obrazy: Určete, že obsah obrazu má být extrahován z dokumentu. |
| DocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Definuje hodnoty pro DocumentIntelligenceLayoutSkillMarkdownHeaderDepth. Známé hodnoty podporované službou
h1: Záhlaví úrovně 1. |
| DocumentIntelligenceLayoutSkillOutputFormat |
Definuje hodnoty pro DocumentIntelligenceLayoutSkillOutputFormat. Známé hodnoty podporované službou
text: Určete formát výstupu jako text. |
| DocumentIntelligenceLayoutSkillOutputMode |
Definuje hodnoty pro DocumentIntelligenceLayoutSkillOutputMode. Známé hodnoty podporované službouoneToMany: Určete, že výstup má být analyzován jako 'oneToMany'. |
| EdgeNGramTokenFilterSide |
Definuje hodnoty pro EdgeNGramTokenFilterSide. |
| EntityCategory | |
| EntityRecognitionSkillLanguage | |
| ExcludedODataTypes | |
| ExhaustiveKnnAlgorithmConfiguration |
Obsahuje možnosti konfigurace specifické pro vyčerpávající algoritmus KNN použitý při dotazování, který provede vyhledávání hrubou silou v celém indexu vektoru. |
| ExtractDocumentKey | |
| GetDataSourceConnectionOptions |
Možnosti pro získání operace zdroje dat |
| GetIndexOptions |
Možnosti pro získání operace indexu |
| GetIndexStatisticsOptions |
Možnosti pro získání operace statistiky indexu |
| GetIndexerOptions |
Možnosti pro získání operace indexeru |
| GetIndexerStatusOptions |
Možnosti pro získání operace stavu indexeru |
| GetServiceStatisticsOptions |
Možnosti pro získání operace statistiky služby |
| GetSkillSetOptions |
Možnosti pro získání operace sady dovedností |
| GetSynonymMapsOptions |
Možnosti pro operaci get synonymmaps |
| HnswAlgorithmConfiguration |
Obsahuje možnosti konfigurace specifické pro přibližný algoritmus nejbližších sousedů používaný během indexování. |
| ImageAnalysisSkillLanguage | |
| ImageDetail | |
| IndexActionType |
Definuje hodnoty pro IndexActionType. |
| IndexDocumentsAction |
Představuje akci indexu, která pracuje s dokumentem. |
| IndexIterator |
Iterátor pro výpis indexů, které existují ve vyhledávací službě. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace. |
| IndexNameIterator |
Iterátor pro výpis indexů, které existují ve vyhledávací službě. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace. |
| IndexProjectionMode |
Definuje hodnoty pro IndexProjectionMode. Známé hodnoty podporované službou
skipIndexingParentDocuments: Zdrojový dokument se přeskočí z zápisu do cílového indexu indexeru. |
| IndexerExecutionEnvironment | |
| IndexerExecutionStatus |
Definuje hodnoty pro IndexerExecutionStatus. |
| IndexerStatus |
Definuje hodnoty pro IndexerStatus. |
| KeyPhraseExtractionSkillLanguage | |
| LexicalAnalyzer |
Obsahuje možné případy analyzátoru. |
| LexicalAnalyzerName |
Definuje hodnoty pro LexicalAnalyzerName. Známé hodnoty podporované službou
ar.microsoft: Analyzátor společnosti Microsoft pro arabštinu. |
| LexicalNormalizer |
Obsahuje možné případy pro LexicalNormalizer. |
| LexicalNormalizerName |
Definuje hodnoty pro LexicalNormalizerName. Známé hodnoty podporované službou
asciifolding: Převede abecední, číselné a symbolické znaky Unicode, které nejsou v prvních 127 znaky ASCII (blok "Základní latinka") na jejich ekvivalenty ASCII, pokud takové ekvivalenty existují. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
| LexicalTokenizer |
Obsahuje možné případy tokenizátoru. |
| LexicalTokenizerName |
Definuje hodnoty pro LexicalTokenizerName. Známé hodnoty podporované službou
klasické: tokenizátor založený na gramatikě, který je vhodný pro zpracování většiny dokumentů evropského jazyka. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
| ListDataSourceConnectionsOptions |
Možnosti operace zdrojů dat seznamu |
| ListIndexersOptions |
Možnosti operace indexerů seznamu |
| ListIndexesOptions |
Možnosti operace indexů seznamu |
| ListSkillsetsOptions |
Možnosti operace sad dovedností seznamu |
| ListSynonymMapsOptions |
Možnosti operace synonymMaps seznamu |
| MergeDocumentsOptions |
Možnosti operace sloučení dokumentů |
| MergeOrUploadDocumentsOptions |
Možnosti operace sloučení nebo nahrání dokumentů |
| MicrosoftStemmingTokenizerLanguage |
Definuje hodnoty pro MicrosoftStemmingTokenizerLanguage. |
| MicrosoftTokenizerLanguage |
Definuje hodnoty pro MicrosoftTokenizerLanguage. |
| NarrowedModel |
Zužuje typ modelu tak, aby zahrnoval pouze vybraná pole. |
| OcrLineEnding |
Definuje hodnoty pro OcrLineEnding. Známé hodnoty podporované službou
mezery: Řádky jsou oddělené jedním znakem mezery. |
| OcrSkillLanguage | |
| PIIDetectionSkillMaskingMode | |
| PhoneticEncoder |
Definuje hodnoty pro fonetickýEncoder. |
| QueryAnswer |
Hodnota, která určuje, jestli se odpovědi mají vrátit jako součást odpovědi hledání.
Tento parametr je platný pouze v případě, že je typ dotazu "sémantický". Pokud je nastavená hodnota |
| QueryCaption |
Hodnota, která určuje, zda mají být titulky vráceny jako součást odpovědi hledání. Tento parametr je platný pouze v případě, že je typ dotazu "sémantický". Pokud je tato možnost nastavená, dotaz vrátí titulky extrahované z klíčových pasáží v nejřadivějších dokumentech. Pokud jsou titulky extrahované, zvýraznění je ve výchozím nastavení povolené. Výchozí hodnota je žádná. |
| QueryType |
Definuje hodnoty pro QueryType. |
| RankingOrder |
Definuje hodnoty pro RankingOrder. Známé hodnoty podporované službou
BoostedRerankerScore: Nastaví pořadí řazení na BoostedRerankerScore |
| RegexFlags | |
| ResetIndexerOptions |
Možnosti operace resetování indexeru |
| RunIndexerOptions |
Možnosti spuštění operace indexeru |
| ScoringFunction |
Obsahuje možné případy pro ScoringFunction. |
| ScoringFunctionAggregation |
Definuje hodnoty pro ScoringFunctionAggregation. |
| ScoringFunctionInterpolation |
Definuje hodnoty pro ScoringFunctionInterpolation. |
| ScoringStatistics |
Definuje hodnoty pro bodováníStatistics. |
| SearchField |
Představuje pole v definici indexu, které popisuje název, datový typ a chování hledání pole. |
| SearchFieldArray |
Pokud |
| SearchFieldDataType |
Definuje hodnoty pro SearchFieldDataType. Známé hodnoty podporované službou:Edm.String: Označuje, že pole obsahuje řetězec. Edm.Int32: Označuje, že pole obsahuje 32bitové celé číslo se znaménkem. Edm.Int64: Označuje, že pole obsahuje 64bitové celé číslo se znaménkem. Edm.Double: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s dvojitou přesností IEEE. Edm.Boolean: Označuje, že pole obsahuje logickou hodnotu (true nebo false). Edm.DateTimeOffset: Označuje, že pole obsahuje hodnotu data a času, včetně informací o časovém pásmu. Edm.GeographyPoint: Označuje, že pole obsahuje geografické umístění z hlediska zeměpisné délky a zeměpisné šířky. Edm.ComplexType: Označuje, že pole obsahuje jeden nebo více složitých objektů, které zase mají dílčí pole jiných typů. Edm.Single: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s jednou přesností. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Single). Edm.Half: Označuje, že pole obsahuje číslo s plovoucí desetinnou čárkou s poloviční přesností. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Half). Edm.Int16: Označuje, že pole obsahuje 16bitové celé číslo se znaménkem. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Int16). Edm.SByte: Označuje, že pole obsahuje 8bitové celé číslo se znaménkem. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.SByte). Edm.Byte: Označuje, že pole obsahuje 8bitové celé číslo bez znaménka. To platí jenom v případě, že se používá jako součást typu kolekce, tj. Collection(Edm.Byte). |
| SearchIndexerDataIdentity |
Obsahuje možné případy pro SearchIndexerDataIdentity. |
| SearchIndexerDataSourceType | |
| SearchIndexerSkill |
Obsahuje možné případy dovednosti. |
| SearchIndexingBufferedSenderDeleteDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderDeleteDocuments. |
| SearchIndexingBufferedSenderFlushDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderFlushDocuments. |
| SearchIndexingBufferedSenderMergeDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderMergeDocuments. |
| SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderMergeOrUploadDocuments. |
| SearchIndexingBufferedSenderUploadDocumentsOptions |
Možnosti pro SearchIndexingBufferedSenderUploadDocuments. |
| SearchIterator |
Iterátor pro výsledky hledání patikulárního dotazu. Bude provádět požadavky podle potřeby během iterace. Pomocí .byPage() proveďte jeden požadavek na server podle iterace. |
| SearchMode |
Definuje hodnoty pro SearchMode. |
| SearchOptions |
Možnosti potvrzení žádosti o úplné vyhledávání |
| SearchPick |
Hluboce vyberte pole T pomocí platných cest OData kognitivního vyhledávání $select. |
| SearchRequestOptions |
Parametry pro filtrování, řazení, fasetování, stránkování a další chování vyhledávacích dotazů |
| SearchRequestQueryTypeOptions | |
| SearchResult |
Obsahuje dokument nalezený vyhledávacím dotazem a přidruženými metadaty. |
| SelectArray |
Pokud |
| SelectFields |
Vytvoří sjednocení platných cest OData služby Cognitive Search $select pro T pomocí procházení po objednávce stromu polí v kořenovém adresáři T. |
| SemanticErrorMode | |
| SemanticErrorReason | |
| SemanticSearchResultsType | |
| SentimentSkillLanguage | |
| SimilarityAlgorithm |
Obsahuje možné případy podobnosti. |
| SnowballTokenFilterLanguage |
Definuje hodnoty pro SnowballTokenFilterLanguage. |
| SplitSkillLanguage | |
| StemmerTokenFilterLanguage |
Definuje hodnoty pro StemmerTokenFilterLanguage. |
| StopwordsList |
Definuje hodnoty pro StopwordsList. |
| SuggestNarrowedModel | |
| SuggestOptions |
Možnosti načítání návrhů na základě vyhledávacího textu |
| SuggestResult |
Výsledek obsahující dokument nalezený dotazem návrhu a přidruženými metadaty. |
| TextSplitMode | |
| TextTranslationSkillLanguage | |
| TokenCharacterKind |
Definuje hodnoty pro TokenCharacterKind. |
| TokenFilter |
Obsahuje možné případy pro TokenFilter. |
| TokenFilterName |
Definuje hodnoty pro TokenFilterName. Známé hodnoty podporované službou
arabic_normalization: Filtr tokenů, který použije arabský normalizátor k normalizaci orthografie. Podívejte se na http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
| UnionToIntersection | |
| UploadDocumentsOptions |
Možnosti operace nahrání dokumentů |
| VectorEncodingFormat |
Definuje hodnoty pro VectorEncodingFormat. Známé hodnoty podporované služboupackedBit: Formát kódování představující bity zabalené do širšího datového typu. |
| VectorFilterMode | |
| VectorQuery |
Parametry dotazu pro vektorové a hybridní vyhledávací dotazy. |
| VectorQueryKind | |
| VectorSearchAlgorithmConfiguration |
Obsahuje možnosti konfigurace specifické pro algoritmus použitý při indexování nebo dotazování. |
| VectorSearchAlgorithmKind | |
| VectorSearchAlgorithmMetric | |
| VectorSearchCompression |
Obsahuje možnosti konfigurace specifické pro metodu komprese použitou při indexování nebo dotazování. |
| VectorSearchCompressionKind |
Definuje hodnoty pro VectorSearchCompressionKind. Známé hodnoty podporované službou
skalarQuantization: Skalární kvantování, typ metody komprese. V skalárním kvantování se původní hodnoty vektorů komprimují na užší typ diskretizací a představují každou komponentu vektoru pomocí snížené množiny kvantovaných hodnot, čímž se zmenší celková velikost dat. |
| VectorSearchCompressionRescoreStorageMethod |
Definuje hodnoty pro VectorSearchCompressionRescoreStorageMethod. Známé hodnoty podporované službou
preserveOriginals: Tato možnost zachová původní vektory s plnou přesností. Tuto možnost vyberte pro maximální flexibilitu a nejvyšší kvalitu komprimovaných výsledků hledání. To spotřebovává více úložiště, ale umožňuje převzorkování a převzorkování. |
| VectorSearchCompressionTarget |
Definuje hodnoty pro VectorSearchCompressionTarget. Známé hodnoty podporované službouint8 |
| VectorSearchVectorizer |
Obsahuje možnosti konfigurace, jak vektorizovat textové vektorové dotazy. |
| VectorSearchVectorizerKind |
Definuje hodnoty pro VectorSearchVectorizerKind. Známé hodnoty podporované službou
azureOpenAI: Generování vkládání pomocí prostředku Azure OpenAI v době dotazu |
| VisualFeature | |
Výčty
Funkce
| create |
Pomocná metoda pro vytvoření synonymMap objektu. Jedná se pouze o metodu NodeJS. |
| odata(Template |
Uvozuje výraz filtru odata, aby nedocházelo k chybám s řetězcovými literály. Příklad použití:
Další informace o podporované syntaxi najdete v tématu: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Podrobnosti funkce
createSynonymMapFromFile(string, string)
Pomocná metoda pro vytvoření synonymMap objektu. Jedná se pouze o metodu NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametry
- name
-
string
Název objektu SynonymMap.
- filePath
-
string
Cesta k souboru, který obsahuje synonyma (s hodnocením novými řádky)
Návraty
Promise<SynonymMap>
Objekt SynonymMap
odata(TemplateStringsArray, unknown[])
Uvozuje výraz filtru odata, aby nedocházelo k chybám s řetězcovými literály. Příklad použití:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Další informace o podporované syntaxi najdete v tématu: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametry
- strings
-
TemplateStringsArray
Pole řetězců pro výraz
- values
-
unknown[]
Pole hodnot pro výraz
Návraty
string