@azure/search-documents package
Klassen
AzureKeyCredential |
Een referentie op basis van een statische sleutel die ondersteuning biedt voor het bijwerken van de onderliggende sleutelwaarde. |
GeographyPoint |
Vertegenwoordigt een geografisch punt in globale coördinaten. |
IndexDocumentsBatch |
Klasse die wordt gebruikt om batchbewerkingen uit te voeren met meerdere documenten naar de index. |
SearchClient |
Klasse die wordt gebruikt om bewerkingen uit te voeren op een zoekindex, waaronder het uitvoeren van query's op documenten in de index en het toevoegen, bijwerken en verwijderen ervan. |
SearchIndexClient |
Klasse voor het uitvoeren van bewerkingen voor het beheren van indexen (maken, bijwerken, lijst/verwijderen), & synoniemen. |
SearchIndexerClient |
Klasse voor het uitvoeren van bewerkingen voor het beheren (maken, bijwerken, weergeven/verwijderen) van indexeerfuncties, gegevensbronnen & vaardighedensets. |
SearchIndexingBufferedSender |
Klasse die wordt gebruikt om gebufferde bewerkingen uit te voeren op een zoekindex, waaronder het toevoegen, bijwerken en verwijderen ervan. |
Interfaces
AnalyzeRequest |
Hiermee geeft u enkele tekst- en analyseonderdelen op die worden gebruikt om die tekst op te splitsen in tokens. |
AnalyzeResult |
Het resultaat van het testen van een analyse op tekst. |
AnalyzedTokenInfo |
Informatie over een token dat door een analyse wordt geretourneerd. |
AsciiFoldingTokenFilter |
Converteert alfabetische, numerieke en symbolische Unicode-tekens die zich niet in de eerste 127 ASCII-tekens (het Unicode-blok 'Basic Latin' bevinden) naar hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Dit tokenfilter wordt geïmplementeerd met apache Lucene. |
AutocompleteItem |
Het resultaat van aanvragen voor automatisch aanvullen. |
AutocompleteRequest |
Parameters voor fuzzy overeenkomsten en ander gedrag voor automatisch aanvullen van query's. |
AutocompleteResult |
Het resultaat van de query automatisch aanvullen. |
AzureActiveDirectoryApplicationCredentials |
Referenties van een geregistreerde toepassing die is gemaakt voor uw zoekservice, die wordt gebruikt voor geverifieerde toegang tot de versleutelingssleutels die zijn opgeslagen in Azure Key Vault. |
BM25Similarity |
Rangschikkingsfunctie op basis van het okapi BM25-gelijkenis-algoritme. BM25 is een TF-IDF-achtig algoritme dat lengtenormalisatie (beheerd door de parameter b) en termfrequentieverzadiging (beheerd door de parameter k1) omvat. |
BaseCharFilter |
Basistype voor tekenfilters. |
BaseCognitiveServicesAccount |
Basistype voor het beschrijven van een Azure AI-serviceresource die is gekoppeld aan een vaardighedenset. |
BaseDataChangeDetectionPolicy |
Basistype voor detectiebeleid voor gegevenswijziging. |
BaseDataDeletionDetectionPolicy |
Basistype voor detectiebeleid voor gegevensverwijdering. |
BaseLexicalAnalyzer |
Basistype voor analysen. |
BaseLexicalTokenizer |
Basistype voor tokenizers. |
BaseScoringFunction |
Basistype voor functies die documentscores kunnen wijzigen tijdens de rangschikking. |
BaseSearchIndexerSkill |
Basistype voor vaardigheden. |
BaseSearchRequestOptions |
Parameters voor filteren, sorteren, faceting, paging en ander zoekquerygedrag. |
BaseTokenFilter |
Basistype voor tokenfilters. |
BaseVectorQuery |
De queryparameters voor vector- en hybride zoekquery's. |
BaseVectorSearchAlgorithmConfiguration |
Bevat configuratieopties die specifiek zijn voor het algoritme dat wordt gebruikt tijdens het indexeren en/of uitvoeren van query's. |
CjkBigramTokenFilter |
Vormt bigrams van CJK-termen die worden gegenereerd op basis van de standaardtokenizer. Dit tokenfilter wordt geïmplementeerd met apache Lucene. |
ClassicSimilarity |
Verouderd gelijkenis-algoritme dat gebruikmaakt van de Lucene TFIDFSimilarity-implementatie van TF-IDF. Deze variatie van TF-IDF introduceert statische documentlengtenormalisatie en coördinatiefactoren die documenten bestraffen die slechts gedeeltelijk overeenkomen met de gezochte query's. |
ClassicTokenizer |
Tokenizer op basis van grammatica die geschikt is voor het verwerken van de meeste Europese documenten. Deze tokenizer wordt geïmplementeerd met apache Lucene. |
CognitiveServicesAccountKey |
Een Azure AI-serviceresource die is ingericht met een sleutel die is gekoppeld aan een vaardighedenset. |
CommonGramTokenFilter |
Maak bigrams voor veelgebruikte termen tijdens het indexeren. Enkele termen worden ook nog steeds geïndexeerd, met bigrams erboven. Dit tokenfilter wordt geïmplementeerd met apache Lucene. |
ComplexField |
Vertegenwoordigt een veld in een indexdefinitie, waarin de naam, het gegevenstype en het zoekgedrag van een veld worden beschreven. |
ConditionalSkill |
Een vaardigheid waarmee scenario's waarvoor een Booleaanse bewerking is vereist, kunnen worden bepaald welke gegevens aan een uitvoer moeten worden toegewezen. |
CorsOptions |
Definieert opties voor het beheren van CORS (Cross-Origin Resource Sharing) voor een index. |
CreateOrUpdateIndexOptions |
Opties voor het maken/bijwerken van indexbewerkingen. |
CreateOrUpdateSkillsetOptions |
Opties voor het maken/bijwerken van vaardighedensetbewerkingen. |
CreateOrUpdateSynonymMapOptions |
Opties voor het maken/bijwerken van synoniemmapbewerking. |
CreateorUpdateDataSourceConnectionOptions |
Opties voor het maken/bijwerken van gegevensbronbewerkingen. |
CreateorUpdateIndexerOptions |
Opties voor het maken/bijwerken van de indexeerfunctie. |
CustomAnalyzer |
Hiermee kunt u de controle overnemen over het proces van het converteren van tekst naar indexeerbare/doorzoekbare tokens. Het is een door de gebruiker gedefinieerde configuratie die bestaat uit één vooraf gedefinieerde tokenizer en een of meer filters. De tokenizer is verantwoordelijk voor het opsplitsen van tekst in tokens en de filters voor het wijzigen van tokens die door de tokenizer worden verzonden. |
CustomEntity |
Een object dat informatie bevat over de gevonden overeenkomsten en gerelateerde metagegevens. |
CustomEntityAlias |
Een complex object dat kan worden gebruikt om alternatieve spellingen of synoniemen voor de naam van de hoofdentiteit op te geven. |
CustomEntityLookupSkill |
Een vaardigheid zoekt naar tekst uit een aangepaste, door de gebruiker gedefinieerde lijst met woorden en woordgroepen. |
DefaultCognitiveServicesAccount |
Een leeg object dat de standaardresource van de Azure AI-service vertegenwoordigt voor een vaardighedenset. |
DeleteDataSourceConnectionOptions |
Opties voor het verwijderen van de gegevensbronbewerking. |
DeleteIndexOptions |
Opties voor het verwijderen van de indexbewerking. |
DeleteIndexerOptions |
Opties voor het verwijderen van de indexeerfunctie. |
DeleteSkillsetOptions |
Opties voor het verwijderen van vaardighedensetoperaion. |
DeleteSynonymMapOptions |
Opties voor het verwijderen van synoniemmapbewerking. |
DictionaryDecompounderTokenFilter |
Breek samengestelde woorden op die in veel Germaanse talen te vinden zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
DistanceScoringFunction |
Hiermee definieert u een functie die scores verhoogt op basis van de afstand tot een geografische locatie. |
DistanceScoringParameters |
Biedt parameterwaarden voor een scorefunctie voor afstand. |
DocumentExtractionSkill |
Een vaardigheid waarmee inhoud wordt geëxtraheerd uit een bestand in de verrijkingspijplijn. |
EdgeNGramTokenFilter |
Genereert n-grammen van de opgegeven grootte(n) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
EdgeNGramTokenizer |
Hiermee wordt de invoer van een rand omgezet in n-grammen van de opgegeven grootte(n). Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
ElisionTokenFilter |
Verwijdert elisies. 'l'avion' (het vliegtuig) wordt bijvoorbeeld geconverteerd naar 'avion' (vliegtuig). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
EntityLinkingSkill |
Met behulp van de Text Analytics-API extraheert u gekoppelde entiteiten uit tekst. |
EntityRecognitionSkill |
Herkenning van text analytics-entiteiten. |
EntityRecognitionSkillV3 |
Met behulp van de Text Analytics-API worden entiteiten van verschillende typen uit tekst geëxtraheerd. |
ExhaustiveKnnParameters |
Bevat de parameters die specifiek zijn voor het volledige KNN-algoritme. |
ExtractiveQueryAnswer |
Hiermee worden antwoordkandidaten geëxtraheerd uit de inhoud van de documenten die worden geretourneerd als antwoord op een query die wordt uitgedrukt als een vraag in natuurlijke taal. |
ExtractiveQueryCaption |
Extraheert bijschriften uit de overeenkomende documenten die passages bevatten die relevant zijn voor de zoekquery. |
FacetResult |
Eén bucket met een facetqueryresultaat. Rapporteert het aantal documenten met een veldwaarde die binnen een bepaald bereik valt of een bepaalde waarde of interval heeft. |
FieldMapping |
Hiermee definieert u een toewijzing tussen een veld in een gegevensbron en een doelveld in een index. |
FieldMappingFunction |
Vertegenwoordigt een functie die een waarde uit een gegevensbron transformeert vóór het indexeren. |
FreshnessScoringFunction |
Hiermee definieert u een functie die scores verhoogt op basis van de waarde van een datum/tijd-veld. |
FreshnessScoringParameters |
Biedt parameterwaarden voor een functie voor het scoren van nieuwheid. |
GetDocumentOptions |
Opties voor het ophalen van één document. |
HighWaterMarkChangeDetectionPolicy |
Definieert een detectiebeleid voor gegevenswijzigingen dat wijzigingen vastlegt op basis van de waarde van een kolom met hoge watermarkeringen. |
HnswParameters |
Bevat de parameters die specifiek zijn voor het hnsw-algoritme. |
ImageAnalysisSkill |
Een vaardigheid die afbeeldingsbestanden analyseert. Het extraheert een uitgebreide set visuele functies op basis van de afbeeldingsinhoud. |
IndexDocumentsClient |
Index Documents Client |
IndexDocumentsOptions |
Opties voor de bewerking indexbatch wijzigen. |
IndexDocumentsResult |
Antwoord met de status van bewerkingen voor alle documenten in de indexeringsaanvraag. |
IndexerExecutionResult |
Vertegenwoordigt het resultaat van de uitvoering van een afzonderlijke indexeerfunctie. |
IndexingParameters |
Vertegenwoordigt parameters voor de uitvoering van de indexeerfunctie. |
IndexingParametersConfiguration |
Een woordenlijst met configuratie-eigenschappen die specifiek zijn voor de indexeerfunctie. Elke naam is de naam van een specifieke eigenschap. Elke waarde moet van een primitief type zijn. |
IndexingResult |
Status van een indexeringsbewerking voor één document. |
IndexingSchedule |
Vertegenwoordigt een schema voor het uitvoeren van de indexeerfunctie. |
InputFieldMappingEntry |
Toewijzing van invoervelden voor een vaardigheid. |
KeepTokenFilter |
Een tokenfilter waarmee alleen tokens worden opgeslagen met tekst in een opgegeven lijst met woorden. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
KeyPhraseExtractionSkill |
Een vaardigheid die gebruikmaakt van tekstanalyse voor sleuteltermextractie. |
KeywordMarkerTokenFilter |
Hiermee worden termen gemarkeerd als trefwoorden. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
KeywordTokenizer |
Verzendt de volledige invoer als één token. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
LanguageDetectionSkill |
Een vaardigheid die de taal van invoertekst detecteert en één taalcode rapporteert voor elk document dat op de aanvraag wordt ingediend. De taalcode wordt gekoppeld aan een score die de betrouwbaarheid van de analyse aangeeft. |
LengthTokenFilter |
Hiermee verwijdert u woorden die te lang of te kort zijn. Dit tokenfilter wordt geïmplementeerd met apache Lucene. |
LimitTokenFilter |
Beperkt het aantal tokens tijdens het indexeren. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
ListSearchResultsPageSettings |
Argumenten voor het ophalen van de volgende pagina met zoekresultaten. |
LuceneStandardAnalyzer |
Standaard Apache Lucene Analyzer; Bestaat uit de standaardtokenizer, een filter in kleine letters en een stopfilter. |
LuceneStandardTokenizer |
Hiermee wordt de tekst volgens de Unicode-tekstsegmentatieregels verbroken. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
MagnitudeScoringFunction |
Hiermee definieert u een functie die scores verhoogt op basis van de grootte van een numeriek veld. |
MagnitudeScoringParameters |
Biedt parameterwaarden voor een scorefunctie voor de grootte. |
MappingCharFilter |
Een tekenfilter waarmee toewijzingen worden toegepast die zijn gedefinieerd met de optie toewijzingen. Vergelijken is greedy (langste patroonmatching op een bepaald punt wint). Vervanging mag de lege tekenreeks zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
MergeSkill |
Een vaardigheid voor het samenvoegen van twee of meer tekenreeksen in één uniforme tekenreeks, met een optioneel door de gebruiker gedefinieerd scheidingsteken tussen elk onderdeelonderdeel. |
MicrosoftLanguageStemmingTokenizer |
Verdeelt tekst met behulp van taalspecifieke regels en vermindert woorden tot hun basisvormen. |
MicrosoftLanguageTokenizer |
Verdeelt tekst met behulp van taalspecifieke regels. |
NGramTokenFilter |
Genereert n-grammen van de opgegeven grootte(n). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
NGramTokenizer |
Tokeniseert de invoer in n-gram van de opgegeven grootte(n). Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
OcrSkill |
Een vaardigheid waarmee tekst wordt geëxtraheerd uit afbeeldingsbestanden. |
OutputFieldMappingEntry |
Toewijzing van uitvoervelden voor een vaardigheid. |
PIIDetectionSkill |
Met behulp van de Text Analytics-API extraheert u persoonlijke gegevens uit een invoertekst en krijgt u de mogelijkheid om deze te maskeren. |
PathHierarchyTokenizer |
Tokenizer voor padachtige hiërarchieën. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
PatternAnalyzer |
Op flexibele wijze scheidt u tekst in termen via een patroon voor reguliere expressies. Deze analyse wordt geïmplementeerd met behulp van Apache Lucene. |
PatternCaptureTokenFilter |
Gebruikt Java-regexes om meerdere tokens te verzenden: één voor elke opnamegroep in een of meer patronen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
PatternReplaceCharFilter |
Een tekenfilter dat tekens in de invoertekenreeks vervangt. Er wordt een reguliere expressie gebruikt om tekenreeksen te identificeren die moeten worden behouden en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Op basis van bijvoorbeeld de invoertekst 'aa bb aa bb', patroon '(aa)\s+(bb)' en vervangende '$1#$2', zou het resultaat 'aa#bb aa#bb' zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
PatternReplaceTokenFilter |
Een tekenfilter dat tekens in de invoertekenreeks vervangt. Er wordt een reguliere expressie gebruikt om tekenreeksen te identificeren die moeten worden behouden en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Op basis van bijvoorbeeld de invoertekst 'aa bb aa bb', patroon '(aa)\s+(bb)' en vervangende '$1#$2', zou het resultaat 'aa#bb aa#bb' zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
PatternTokenizer |
Tokenizer die gebruikmaakt van regex-patroonkoppeling om afzonderlijke tokens te maken. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene. |
PhoneticTokenFilter |
Tokens maken voor fonetische overeenkomsten. Dit tokenfilter wordt geïmplementeerd met apache Lucene. |
QueryAnswerResult |
Een antwoord is een tekstfragment dat is geëxtraheerd uit de inhoud van de meest relevante documenten die overeenkomen met de query. Antwoorden worden geëxtraheerd uit de bovenste zoekresultaten. Antwoordkandidaten worden beoordeeld en de belangrijkste antwoorden worden geselecteerd. |
QueryCaptionResult |
Bijschriften zijn de meest representatieve passages uit het document ten opzichte van de zoekquery. Ze worden vaak gebruikt als documentsamenvatting. Bijschriften worden alleen geretourneerd voor query's van het type |
ResourceCounter |
Vertegenwoordigt het gebruik en quotum van een resource. |
ScoringProfile |
Hiermee definieert u parameters voor een zoekindex die van invloed zijn op het scoren in zoekquery's. |
SearchClientOptions |
Clientopties die worden gebruikt voor het configureren van Cognitive Search-API-aanvragen. |
SearchDocumentsPageResult |
Antwoord met zoekresultaten van een index. |
SearchDocumentsResult |
Antwoord met zoekresultaten van een index. |
SearchDocumentsResultBase |
Antwoord met zoekresultaten van een index. |
SearchIndex |
Vertegenwoordigt een zoekindexdefinitie, waarmee de velden en het zoekgedrag van een index worden beschreven. |
SearchIndexClientOptions |
Clientopties die worden gebruikt voor het configureren van Cognitive Search-API-aanvragen. |
SearchIndexStatistics |
Statistieken voor een bepaalde index. Statistieken worden periodiek verzameld en zijn niet altijd altijd up-to-date. |
SearchIndexer |
Vertegenwoordigt een indexeerfunctie. |
SearchIndexerClientOptions |
Clientopties die worden gebruikt voor het configureren van Cognitive Search-API-aanvragen. |
SearchIndexerDataContainer |
Vertegenwoordigt informatie over de entiteit (zoals Azure SQL tabel of CosmosDB-verzameling) die wordt geïndexeerd. |
SearchIndexerDataSourceConnection |
Vertegenwoordigt een definitie van een gegevensbron, die kan worden gebruikt om een indexeerfunctie te configureren. |
SearchIndexerError |
Vertegenwoordigt een indexeringsfout op item- of documentniveau. |
SearchIndexerKnowledgeStore |
Definitie van aanvullende projecties naar azure blob, tabel of bestanden, van verrijkte gegevens. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Abstracte klasse om eigenschappen te delen tussen concrete selectors. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Projectiedefinitie voor welke gegevens moeten worden opgeslagen in Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Projectiedefinitie voor welke gegevens moeten worden opgeslagen in Azure Blob. |
SearchIndexerKnowledgeStoreProjection |
Containerobject voor verschillende projectiekiezers. |
SearchIndexerKnowledgeStoreProjectionSelector |
Abstracte klasse om eigenschappen te delen tussen concrete selectors. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Beschrijving van welke gegevens moeten worden opgeslagen in Azure Tables. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Een lijst met vaardigheden. |
SearchIndexerStatus |
Vertegenwoordigt de huidige status en uitvoeringsgeschiedenis van een indexeerfunctie. |
SearchIndexerWarning |
Vertegenwoordigt een waarschuwing op itemniveau. |
SearchIndexingBufferedSenderOptions |
Opties voor SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Een door de klant beheerde versleutelingssleutel in Azure Key Vault. Sleutels die u maakt en beheert, kunnen worden gebruikt voor het versleutelen of ontsleutelen van data-at-rest in Azure Cognitive Search, zoals indexen en synoniemenkaarten. |
SearchServiceStatistics |
Antwoord van een aanvraag voor het ophalen van servicestatistieken. Als dit lukt, bevat het prestatiemeteritems en limieten voor serviceniveaus. |
SearchSuggester |
Definieert hoe de Suggest-API moet worden toegepast op een groep velden in de index. |
SemanticConfiguration |
Definieert een specifieke configuratie die moet worden gebruikt in de context van semantische mogelijkheden. |
SemanticField |
Een veld dat wordt gebruikt als onderdeel van de semantische configuratie. |
SemanticPrioritizedFields |
Beschrijft de velden titel, inhoud en trefwoorden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. |
SemanticSearch |
Hiermee definieert u parameters voor een zoekindex die semantische mogelijkheden beïnvloeden. |
SemanticSearchOptions |
Definieert opties voor semantische zoekquery's |
SentimentSkill |
Tekstanalyse van positief-negatief sentiment, gescoord als een drijvende-kommawaarde in een bereik van nul tot 1. |
SentimentSkillV3 |
Met behulp van de Text Analytics-API evalueert ongestructureerde tekst en biedt voor elke record gevoelslabels (zoals 'negatief', 'neutraal' en 'positief') op basis van de hoogste betrouwbaarheidsscore die door de service is gevonden op zins- en documentniveau. |
ServiceCounters |
Vertegenwoordigt resourcetellers en quota op serviceniveau. |
ServiceLimits |
Vertegenwoordigt verschillende serviceniveaulimieten. |
ShaperSkill |
Een vaardigheid voor het opnieuw vormgeven van de uitvoer. Er wordt een complex type gemaakt ter ondersteuning van samengestelde velden (ook wel velden met meerdere delen genoemd). |
ShingleTokenFilter |
Hiermee maakt u combinaties van tokens als één token. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
Similarity |
Basistype voor gelijkenisalgoritmen. Gelijkenisalgoritmen worden gebruikt om scores te berekenen die query's koppelen aan documenten. Hoe hoger de score, hoe relevanter het document is voor die specifieke query. Deze scores worden gebruikt om de zoekresultaten te rangschikken. |
SimpleField |
Vertegenwoordigt een veld in een indexdefinitie, waarin de naam, het gegevenstype en het zoekgedrag van een veld worden beschreven. |
SnowballTokenFilter |
Een filter dat woorden afstamt met behulp van een door sneeuwbal gegenereerde stemmer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Definieert een detectiebeleid voor gegevensverwijdering dat een strategie voor voorlopig verwijderen implementeert. Hiermee wordt bepaald of een item moet worden verwijderd op basis van de waarde van een aangewezen kolom 'voorlopig verwijderen'. |
SplitSkill |
Een vaardigheid om een tekenreeks te splitsen in tekstsegmenten. |
SqlIntegratedChangeTrackingPolicy |
Definieert een detectiebeleid voor gegevenswijzigingen waarmee wijzigingen worden vastgelegd met behulp van de functie Geïntegreerde Wijzigingen bijhouden van Azure SQL Database. |
StemmerOverrideTokenFilter |
Biedt de mogelijkheid om andere stemfilters te overschrijven met aangepaste stemming op basis van woordenlijsten. Woordenlijst-stamtermen worden gemarkeerd als trefwoorden, zodat ze niet worden afgestamd met stemmers in de keten. Moet vóór eventuele stamfilters worden geplaatst. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
StemmerTokenFilter |
Taalspecifiek stemfilter. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
StopAnalyzer |
Verdeelt tekst op niet-letters; Hiermee past u de tokenfilters kleine letters en stopwoorden toe. Deze analyse wordt geïmplementeerd met behulp van Apache Lucene. |
StopwordsTokenFilter |
Hiermee verwijdert u stopwoorden uit een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
SuggestDocumentsResult |
Antwoord met suggestiequeryresultaten van een index. |
SuggestRequest |
Parameters voor het filteren, sorteren, fuzzy matching en andere suggesties voor querygedrag. |
SynonymMap |
Vertegenwoordigt een synoniemtoewijzingsdefinitie. |
SynonymTokenFilter |
Komt overeen met synoniemen van één of meerdere woorden in een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene. |
TagScoringFunction |
Definieert een functie die scores van documenten verhoogt met tekenreekswaarden die overeenkomen met een bepaalde lijst met tags. |
TagScoringParameters |
Biedt parameterwaarden voor een tagscorefunctie. |
TextTranslationSkill |
Een vaardigheid om tekst van de ene taal naar de andere te vertalen. |
TextWeights |
Definieert gewichten voor indexvelden waarvoor overeenkomsten de score in zoekquery's moeten verhogen. |
TruncateTokenFilter |
Hiermee worden de voorwaarden afgekapt tot een specifieke lengte. Dit tokenfilter wordt geïmplementeerd met apache Lucene. |
UaxUrlEmailTokenizer |
Hiermee worden URL's en e-mailberichten als één token gebruikt. Deze tokenizer wordt geïmplementeerd met apache Lucene. |
UniqueTokenFilter |
Hiermee filtert u tokens met dezelfde tekst als het vorige token. Dit tokenfilter wordt geïmplementeerd met apache Lucene. |
VectorSearch |
Bevat configuratieopties met betrekking tot vectorzoekopdrachten. |
VectorSearchOptions |
Definieert opties voor vectorzoekquery's |
VectorSearchProfile |
Definieert een combinatie van configuraties die moeten worden gebruikt met vectorzoekopdrachten. |
VectorizedQuery |
De queryparameters die moeten worden gebruikt voor vectorzoekopdrachten wanneer een onbewerkte vectorwaarde wordt opgegeven. |
WebApiSkill |
Een vaardigheid die een web-API-eindpunt kan aanroepen, zodat u een vaardighedenset kunt uitbreiden door uw aangepaste code aan te roepen. |
WordDelimiterTokenFilter |
Hiermee splitst u woorden in subwoorden en voert u optionele transformaties uit op subwoordgroepen. Dit tokenfilter wordt geïmplementeerd met apache Lucene. |
Type-aliassen
AnalyzeTextOptions |
Opties voor het analyseren van tekstbewerkingen. |
AutocompleteMode |
Definieert waarden voor AutocompleteMode. |
AutocompleteOptions |
Opties voor het ophalen van voltooiingstekst voor een gedeeltelijke zoektekst. |
BlobIndexerDataToExtract |
Bekende waarden die door de service worden ondersteundstorageMetadata: indexeert alleen de standaard blobeigenschappen en door de gebruiker opgegeven metagegevens. allMetadata: extraheert metagegevens die worden geleverd door het Azure Blob Storage-subsysteem en de specifieke metagegevens van het inhoudstype (bijvoorbeeld metagegevens die uniek zijn voor alleen .png bestanden worden geïndexeerd). contentAndMetadata: extraheert alle metagegevens en tekstinhoud uit elke blob. |
BlobIndexerImageAction |
Bekende waarden die door de service worden ondersteundnone: Ingesloten afbeeldingen of afbeeldingsbestanden in de gegevensset worden genegeerd. Dit is de standaardinstelling. generateNormalizedImages: extraheert tekst uit afbeeldingen (bijvoorbeeld het woord 'STOP' van een verkeersstopbord) en sluit deze in het inhoudsveld in. Deze actie vereist dat 'dataToExtract' is ingesteld op 'contentAndMetadata'. Een genormaliseerde afbeelding verwijst naar extra verwerking, wat resulteert in uniforme afbeeldingsuitvoer, die wordt aangepast en gedraaid om een consistente weergave te bevorderen wanneer u afbeeldingen opneemt in visuele zoekresultaten. Deze informatie wordt gegenereerd voor elke afbeelding wanneer u deze optie gebruikt. generateNormalizedImagePerPage: extraheert tekst uit afbeeldingen (bijvoorbeeld het woord 'STOP' van een verkeersstopbord) en sluit deze in het inhoudsveld in, maar behandelt PDF-bestanden anders omdat elke pagina wordt weergegeven als een afbeelding en dienovereenkomstig wordt genormaliseerd, in plaats van ingesloten afbeeldingen te extraheren. Niet-PDF-bestandstypen worden hetzelfde behandeld als wanneer 'generateNormalizedImages' is ingesteld. |
BlobIndexerPDFTextRotationAlgorithm |
Bekende waarden die door de service worden ondersteundnone: maakt gebruik van normale tekstextractie. Dit is de standaardinstelling. detectAngles: Kan betere en beter leesbare tekstextractie produceren uit PDF-bestanden die tekst hebben gedraaid. Houd er rekening mee dat er een kleine invloed kan zijn op de snelheid van de prestaties wanneer deze parameter wordt gebruikt. Deze parameter is alleen van toepassing op PDF-bestanden en alleen op PDF-bestanden met ingesloten tekst. Als de gedraaide tekst wordt weergegeven in een ingesloten afbeelding in het PDF-bestand, is deze parameter niet van toepassing. |
BlobIndexerParsingMode |
Bekende waarden die door de service worden ondersteundstandaardinstelling: ingesteld op standaard voor normale bestandsverwerking. text: stel in op tekst om de indexeringsprestaties voor tekstbestanden zonder opmaak in blobopslag te verbeteren. delimitedText: stel in op delimitedText wanneer blobs CSV-bestanden zonder opmaak zijn. json: stel in op json om gestructureerde inhoud uit JSON-bestanden te extraheren. jsonArray: stel in op jsonArray om afzonderlijke elementen van een JSON-matrix te extraheren als afzonderlijke documenten in Azure Cognitive Search. jsonLines: stel in op jsonLines om afzonderlijke JSON-entiteiten, gescheiden door een nieuwe regel, te extraheren als afzonderlijke documenten in Azure Cognitive Search. |
CharFilter |
Bevat de mogelijke cases voor CharFilter. |
CharFilterName |
Definieert waarden voor CharFilterName. Bekende waarden die door de service worden ondersteundhtml_strip: een tekenfilter waarmee HTML-constructies worden verwijderd. Zie https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Definieert waarden voor CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Bevat de mogelijke cases voor CognitiveServicesAccount. |
ComplexDataType |
Definieert waarden voor ComplexDataType. Mogelijke waarden zijn: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Opties voor het uitvoeren van de tellingsbewerking op de index. |
CreateDataSourceConnectionOptions |
Opties voor het maken van een gegevensbronbewerking. |
CreateIndexOptions |
Opties voor het maken van een indexbewerking. |
CreateIndexerOptions |
Opties voor het maken van een indexeerfunctie. |
CreateSkillsetOptions |
Opties voor het maken van een vaardighedensetbewerking. |
CreateSynonymMapOptions |
Opties voor het maken van de bewerking synoniemmap. |
CustomEntityLookupSkillLanguage |
Definieert ondersteunde talen voor CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage kan door elkaar worden gebruikt met dit type |
DataChangeDetectionPolicy |
Bevat de mogelijke cases voor DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Bevat de mogelijke cases voor DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Opties voor het verwijderen van documenten. |
EdgeNGramTokenFilterSide |
Definieert waarden voor EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage |
Definieert ondersteunde talen voor EntityRecognitionSkillKnownEntityRecognitionSkillLanguage kan door elkaar worden gebruikt met dit type |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Bevat configuratieopties die specifiek zijn voor het uitgebreide KNN-algoritme dat wordt gebruikt tijdens het uitvoeren van query's, waarmee brute-force-zoekopdrachten worden uitgevoerd in de hele vectorindex. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Opties voor het ophalen van gegevensbronbewerkingen. |
GetIndexOptions |
Opties voor het ophalen van de indexbewerking. |
GetIndexStatisticsOptions |
Opties voor het ophalen van indexstatistieken. |
GetIndexerOptions |
Opties voor het ophalen van de indexeerfunctie. |
GetIndexerStatusOptions |
Opties voor het ophalen van de status van de indexeerfunctie. |
GetServiceStatisticsOptions |
Opties voor het ophalen van servicestatistieken. |
GetSkillSetOptions |
Opties voor het ophalen van vaardighedensetbewerkingen. |
GetSynonymMapsOptions |
Opties voor het ophalen van synoniemen. |
HnswAlgorithmConfiguration |
Bevat configuratieopties die specifiek zijn voor het algoritme hnsw bij benadering dichtstbijzijnde buren dat wordt gebruikt tijdens de indexeringstijd. |
ImageAnalysisSkillLanguage |
Definieert ondersteunde talen voor ImageAnalysisSkillKnownImageAnalysisSkillLanguage kan door elkaar worden gebruikt met dit type |
ImageDetail | |
IndexActionType |
Definieert waarden voor IndexActionType. |
IndexDocumentsAction |
Vertegenwoordigt een indexactie die op een document wordt uitgevoerd. |
IndexIterator |
Een iterator voor het weergeven van de indexen die aanwezig zijn in de Search-service. Tijdens de iteratie worden aanvragen indien nodig ingediend. Gebruik .byPage() om per iteratie één aanvraag naar de server te verzenden. |
IndexNameIterator |
Een iterator voor het weergeven van de indexen die aanwezig zijn in de Search-service. Tijdens de iteratie worden aanvragen indien nodig ingediend. Gebruik .byPage() om per iteratie één aanvraag naar de server te verzenden. |
IndexerExecutionEnvironment |
Bekende waarden die door de service worden ondersteundstandaard: geeft aan dat Azure Cognitive Search kunt bepalen waar de indexeerfunctie moet worden uitgevoerd. Dit is de standaardomgeving wanneer niets is opgegeven en de aanbevolen waarde is. privé: geeft aan dat de indexeerfunctie moet worden uitgevoerd met de omgeving die specifiek is ingericht voor de zoekservice. Dit moet alleen worden opgegeven als de uitvoeringsomgeving als de indexeerfunctie veilig toegang moet hebben tot resources via gedeelde Private Link-resources. |
IndexerExecutionStatus |
Definieert waarden voor IndexerExecutionStatus. |
IndexerStatus |
Definieert waarden voor IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Definieert ondersteunde talen voor KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage kan door elkaar worden gebruikt met dit type |
LexicalAnalyzer |
Bevat de mogelijke cases voor Analyzer. |
LexicalAnalyzerName |
Definieert waarden voor LexicalAnalyzerName. Bekende waarden die door de service worden ondersteundar.microsoft: Microsoft analyzer voor Arabisch. |
LexicalTokenizer |
Bevat de mogelijke cases voor Tokenizer. |
LexicalTokenizerName |
Definieert waarden voor LexicalTokenizerName. Bekende waarden die door de service worden ondersteundklassiek: tokenizer op basis van grammatica die geschikt is voor het verwerken van de meeste Europese documenten. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Opties voor een bewerking voor een lijst met gegevensbronnen. |
ListIndexersOptions |
Opties voor een lijstindexeerfunctiebewerking. |
ListIndexesOptions |
Opties voor een lijstindexbewerking. |
ListSkillsetsOptions |
Opties voor een bewerking voor het weergeven van vaardighedensets. |
ListSynonymMapsOptions |
Opties voor een bewerking list synoniemMaps. |
MergeDocumentsOptions |
Opties voor het samenvoegen van documenten. |
MergeOrUploadDocumentsOptions |
Opties voor het samenvoegen of uploaden van documenten. |
MicrosoftStemmingTokenizerLanguage |
Definieert waarden voor MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Definieert waarden voor MicrosoftTokenizerLanguage. |
NarrowedModel |
Hiermee wordt het modeltype beperkt tot alleen de geselecteerde velden |
OcrSkillLanguage |
Definieert ondersteunde talen voor OcrSkillKnownOcrSkillLanguage kan door elkaar worden gebruikt met dit type |
PIIDetectionSkillMaskingMode |
Definieert waarden voor PIIDetectionSkillMaskingMode. Bekende waarden die door de service worden ondersteundnone: er vindt geen maskering plaats en de maskedText-uitvoer wordt niet geretourneerd. replace: vervangt de gedetecteerde entiteiten door het teken dat is opgegeven in de parameter maskingCharacter. Het teken wordt herhaald tot de lengte van de gedetecteerde entiteit, zodat de verschuivingen correct overeenkomen met zowel de invoertekst als de uitvoer maskedText. |
PhoneticEncoder |
Definieert waarden voor PhoneticEncoder. |
QueryAnswer |
Een waarde die aangeeft of antwoorden moeten worden geretourneerd als onderdeel van het zoekantwoord.
Deze parameter is alleen geldig als het querytype 'semantisch' is. Als dit is ingesteld op |
QueryCaption |
Een waarde die aangeeft of bijschriften moeten worden geretourneerd als onderdeel van het zoekantwoord. Deze parameter is alleen geldig als het querytype 'semantisch' is. Indien ingesteld, retourneert de query bijschriften die zijn geëxtraheerd uit sleutelpassages in de hoogst gerangschikte documenten. Wanneer Bijschriften 'extraherend' is, is markeren standaard ingeschakeld. De standaardwaarde is 'none'. |
QueryType |
Definieert waarden voor QueryType. |
RegexFlags |
Hiermee definieert u vlaggen voor het vergelijken van regex-patronen Bekende waarden die door de service worden ondersteundCANON_EQ: maakt canonieke equivalentie mogelijk. CASE_INSENSITIVE: schakelt niet-hoofdlettergevoelige overeenkomsten in. OPMERKINGEN: hiermee staat u witruimte en opmerkingen in het patroon toe. DOTALL: hiermee schakelt u de dotall-modus in. LITERAL: hiermee schakelt u letterlijke parsering van het patroon in. MULTILINE: hiermee schakelt u de modus voor meerdere regels in. UNICODE_CASE: hiermee schakelt u Unicode-bewuste case folding in. UNIX_LINES: hiermee schakelt u de unix-regelmodus in. |
ResetIndexerOptions |
Opties voor het opnieuw instellen van de indexeerfunctie. |
RunIndexerOptions |
Opties voor het uitvoeren van de indexeerfunctie. |
ScoringFunction |
Bevat de mogelijke cases voor ScoringFunction. |
ScoringFunctionAggregation |
Definieert waarden voor ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Definieert waarden voor ScoringFunctionInterpolation. |
ScoringStatistics |
Definieert waarden voor ScoringStatistics. |
SearchField |
Vertegenwoordigt een veld in een indexdefinitie, waarin de naam, het gegevenstype en het zoekgedrag van een veld worden beschreven. |
SearchFieldArray |
Als |
SearchFieldDataType |
Definieert waarden voor SearchFieldDataType. Mogelijke waarden zijn: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)' Nb: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Bevat de mogelijke cases voor Vaardigheid. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opties voor SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Opties voor SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Opties voor SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opties voor SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Opties voor SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Een iterator voor zoekresultaten van een paticulaire query. Tijdens de iteratie worden aanvragen indien nodig ingediend. Gebruik .byPage() om per iteratie één aanvraag naar de server te verzenden. |
SearchMode |
Definieert waarden voor SearchMode. |
SearchOptions |
Opties voor het doorvoeren van een volledige zoekaanvraag. |
SearchPick |
Kies velden van T met behulp van geldige OData-$select paden voor Cognitive Search. |
SearchRequestOptions |
Parameters voor filteren, sorteren, faceting, paging en ander zoekquerygedrag. |
SearchRequestQueryTypeOptions | |
SearchResult |
Bevat een document dat is gevonden door een zoekquery, plus bijbehorende metagegevens. |
SelectArray |
Als |
SelectFields |
Produceert een samenvoeging van geldige Cognitive Search OData-$select paden voor T met behulp van een doorkruising na volgorde van de veldstructuur die is geroot op T. |
SemanticErrorMode |
partieel: als de semantische verwerking mislukt, worden er nog steeds gedeeltelijke resultaten geretourneerd. De definitie van gedeeltelijke resultaten is afhankelijk van welke semantische stap is mislukt en wat de reden voor de fout was. fail: als er een uitzondering is tijdens de semantische verwerkingsstap, mislukt de query en retourneert de juiste HTTP-code, afhankelijk van de fout. |
SemanticErrorReason |
maxWaitExceeded: als 'semanticMaxWaitInMilliseconds' is ingesteld en de duur van de semantische verwerking die waarde overschrijdt. Alleen de basisresultaten zijn geretourneerd. capacityOverloaded: de aanvraag is beperkt. Alleen de basisresultaten zijn geretourneerd. tijdelijk: ten minste één stap van het semantische proces is mislukt. |
SemanticSearchResultsType |
baseResults: resultaten zonder semantische verrijking of herrankering. rerankedResults: resultaten zijn opnieuw gerankt met het rerankermodel en bevatten semantische bijschriften. Ze bevatten geen antwoorden, antwoordpunten of onderschrift highlights. |
SentimentSkillLanguage |
Definieert ondersteunde talen voor SentimentSkillKnownSentimentSkillLanguage kan door elkaar worden gebruikt met dit type |
SimilarityAlgorithm |
Bevat de mogelijke cases voor gelijkenis. |
SnowballTokenFilterLanguage |
Definieert waarden voor SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Definieert ondersteunde talen voor SplitSkillKnownSplitSkillLanguage kunnen door elkaar worden gebruikt met dit type |
StemmerTokenFilterLanguage |
Definieert waarden voor StemmerTokenFilterLanguage. |
StopwordsList |
Definieert waarden voor StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Opties voor het ophalen van suggesties op basis van de searchText. |
SuggestResult |
Een resultaat met een document dat is gevonden door een suggestiequery, plus bijbehorende metagegevens. |
TextSplitMode | |
TextTranslationSkillLanguage |
Definieert ondersteunde talen voor TextTranslationSkillKnownTextTranslationSkillLanguage kan door elkaar worden gebruikt met dit type |
TokenCharacterKind |
Definieert waarden voor TokenCharacterKind. |
TokenFilter |
Bevat de mogelijke cases voor TokenFilter. |
TokenFilterName |
Definieert waarden voor TokenFilterName. Bekende waarden die door de service worden ondersteundarabic_normalization: een tokenfilter waarmee de Arabische normalisatiefunctie wordt toegepast om de spelling te normaliseren. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Opties voor de bewerking documenten uploaden. |
VectorFilterMode |
Bepaalt of filters worden toegepast voor of nadat de vectorzoekopdracht is uitgevoerd. |
VectorQuery |
De queryparameters voor vector- en hybride zoekquery's. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Bevat configuratieopties die specifiek zijn voor het algoritme dat wordt gebruikt tijdens het indexeren en/of uitvoeren van query's. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
De metrische overeenkomstwaarde die moet worden gebruikt voor vectorvergelijkingen. |
VisualFeature |
Enums
KnownAnalyzerNames |
Definieert waarden voor AnalyzerName. Zie https://docs.microsoft.com/rest/api/searchservice/Language-support |
KnownBlobIndexerDataToExtract |
Bekende waarden van BlobIndexerDataToExtract die door de service worden geaccepteerd. |
KnownBlobIndexerImageAction |
Bekende waarden van BlobIndexerImageAction die door de service worden geaccepteerd. |
KnownBlobIndexerPDFTextRotationAlgorithm |
Bekende waarden van BlobIndexerPDFTextRotationAlgorithm die door de service worden geaccepteerd. |
KnownBlobIndexerParsingMode |
Bekende waarden van BlobIndexerParsingMode die de service accepteert. |
KnownCharFilterNames |
Bekende waarden van CharFilterName die de service accepteert. |
KnownCustomEntityLookupSkillLanguage |
Bekende waarden van CustomEntityLookupSkillLanguage die door de service worden geaccepteerd. |
KnownEntityCategory |
Bekende waarden van EntityCategory die door de service worden geaccepteerd. |
KnownEntityRecognitionSkillLanguage |
Bekende waarden van EntityRecognitionSkillLanguage die de service accepteert. |
KnownImageAnalysisSkillLanguage |
Bekende waarden van ImageAnalysisSkillLanguage die door de service worden geaccepteerd. |
KnownImageDetail |
Bekende waarden van ImageDetail die de service accepteert. |
KnownKeyPhraseExtractionSkillLanguage |
Bekende waarden van KeyPhraseExtractionSkillLanguage die de service accepteert. |
KnownOcrSkillLanguage |
Bekende waarden van OcrSkillLanguage die door de service worden geaccepteerd. |
KnownRegexFlags |
Bekende waarden van RegexFlags die door de service worden geaccepteerd. |
KnownSearchAudience |
Bekende waarden voor zoekdoelgroep |
KnownSearchIndexerDataSourceType |
Bekende waarden van SearchIndexerDataSourceType die de service accepteert. |
KnownSentimentSkillLanguage |
Bekende waarden van SentimentSkillLanguage die de service accepteert. |
KnownSplitSkillLanguage |
Bekende waarden van SplitSkillLanguage die door de service worden geaccepteerd. |
KnownTextSplitMode |
Bekende waarden van TextSplitMode die de service accepteert. |
KnownTextTranslationSkillLanguage |
Bekende waarden van TextTranslationSkillLanguage die de service accepteert. |
KnownTokenFilterNames |
Bekende waarden van TokenFilterName die de service accepteert. |
KnownTokenizerNames |
Bekende waarden van LexicalTokenizerName die de service accepteert. |
KnownVisualFeature |
Bekende waarden van VisualFeature die de service accepteert. |
Functies
create |
Helpermethode voor het maken van een SynonymMap-object. Dit is een methode met alleen NodeJS. |
odata(Template |
Escapes voor een odata-filterexpressie om fouten te voorkomen bij het citeren van letterlijke tekenreeksen. Gebruiksvoorbeeld:
Zie voor meer informatie over ondersteunde syntaxis: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Functiedetails
createSynonymMapFromFile(string, string)
Helpermethode voor het maken van een SynonymMap-object. Dit is een methode met alleen NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parameters
- name
-
string
Naam van de Synoniemmap.
- filePath
-
string
Pad van het bestand dat de synoniemen bevat (gescheiden door nieuwe regels)
Retouren
Promise<SynonymMap>
SynonymMap-object
odata(TemplateStringsArray, unknown[])
Escapes voor een odata-filterexpressie om fouten te voorkomen bij het citeren van letterlijke tekenreeksen. Gebruiksvoorbeeld:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Zie voor meer informatie over ondersteunde syntaxis: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parameters
- strings
-
TemplateStringsArray
Matrix van tekenreeksen voor de expressie
- values
-
unknown[]
Matrix van waarden voor de expressie
Retouren
string