@azure/search-documents package

Klassen

AzureKeyCredential

Een referentie op basis van een statische sleutel die ondersteuning biedt voor het bijwerken van de onderliggende sleutelwaarde.

GeographyPoint

Vertegenwoordigt een geografisch punt in globale coördinaten.

IndexDocumentsBatch

Klasse die wordt gebruikt om batchbewerkingen uit te voeren met meerdere documenten naar de index.

SearchClient

Klasse die wordt gebruikt om bewerkingen uit te voeren op een zoekindex, waaronder het uitvoeren van query's op documenten in de index en het toevoegen, bijwerken en verwijderen ervan.

SearchIndexClient

Klasse voor het uitvoeren van bewerkingen voor het beheren van indexen (maken, bijwerken, lijst/verwijderen), & synoniemen.

SearchIndexerClient

Klasse voor het uitvoeren van bewerkingen voor het beheren (maken, bijwerken, weergeven/verwijderen) van indexeerfuncties, gegevensbronnen & vaardighedensets.

SearchIndexingBufferedSender

Klasse die wordt gebruikt om gebufferde bewerkingen uit te voeren op een zoekindex, waaronder het toevoegen, bijwerken en verwijderen ervan.

Interfaces

AnalyzeRequest

Hiermee geeft u enkele tekst- en analyseonderdelen op die worden gebruikt om die tekst op te splitsen in tokens.

AnalyzeResult

Het resultaat van het testen van een analyse op tekst.

AnalyzedTokenInfo

Informatie over een token dat door een analyse wordt geretourneerd.

AsciiFoldingTokenFilter

Converteert alfabetische, numerieke en symbolische Unicode-tekens die zich niet in de eerste 127 ASCII-tekens (het Unicode-blok 'Basic Latin' bevinden) naar hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Dit tokenfilter wordt geïmplementeerd met apache Lucene.

AutocompleteItem

Het resultaat van aanvragen voor automatisch aanvullen.

AutocompleteRequest

Parameters voor fuzzy overeenkomsten en ander gedrag voor automatisch aanvullen van query's.

AutocompleteResult

Het resultaat van de query automatisch aanvullen.

AzureActiveDirectoryApplicationCredentials

Referenties van een geregistreerde toepassing die is gemaakt voor uw zoekservice, die wordt gebruikt voor geverifieerde toegang tot de versleutelingssleutels die zijn opgeslagen in Azure Key Vault.

BM25Similarity

Rangschikkingsfunctie op basis van het okapi BM25-gelijkenis-algoritme. BM25 is een TF-IDF-achtig algoritme dat lengtenormalisatie (beheerd door de parameter b) en termfrequentieverzadiging (beheerd door de parameter k1) omvat.

BaseCharFilter

Basistype voor tekenfilters.

BaseCognitiveServicesAccount

Basistype voor het beschrijven van een Azure AI-serviceresource die is gekoppeld aan een vaardighedenset.

BaseDataChangeDetectionPolicy

Basistype voor detectiebeleid voor gegevenswijziging.

BaseDataDeletionDetectionPolicy

Basistype voor detectiebeleid voor gegevensverwijdering.

BaseLexicalAnalyzer

Basistype voor analysen.

BaseLexicalTokenizer

Basistype voor tokenizers.

BaseScoringFunction

Basistype voor functies die documentscores kunnen wijzigen tijdens de rangschikking.

BaseSearchIndexerSkill

Basistype voor vaardigheden.

BaseSearchRequestOptions

Parameters voor filteren, sorteren, faceting, paging en ander zoekquerygedrag.

BaseTokenFilter

Basistype voor tokenfilters.

BaseVectorQuery

De queryparameters voor vector- en hybride zoekquery's.

BaseVectorSearchAlgorithmConfiguration

Bevat configuratieopties die specifiek zijn voor het algoritme dat wordt gebruikt tijdens het indexeren en/of uitvoeren van query's.

CjkBigramTokenFilter

Vormt bigrams van CJK-termen die worden gegenereerd op basis van de standaardtokenizer. Dit tokenfilter wordt geïmplementeerd met apache Lucene.

ClassicSimilarity

Verouderd gelijkenis-algoritme dat gebruikmaakt van de Lucene TFIDFSimilarity-implementatie van TF-IDF. Deze variatie van TF-IDF introduceert statische documentlengtenormalisatie en coördinatiefactoren die documenten bestraffen die slechts gedeeltelijk overeenkomen met de gezochte query's.

ClassicTokenizer

Tokenizer op basis van grammatica die geschikt is voor het verwerken van de meeste Europese documenten. Deze tokenizer wordt geïmplementeerd met apache Lucene.

CognitiveServicesAccountKey

Een Azure AI-serviceresource die is ingericht met een sleutel die is gekoppeld aan een vaardighedenset.

CommonGramTokenFilter

Maak bigrams voor veelgebruikte termen tijdens het indexeren. Enkele termen worden ook nog steeds geïndexeerd, met bigrams erboven. Dit tokenfilter wordt geïmplementeerd met apache Lucene.

ComplexField

Vertegenwoordigt een veld in een indexdefinitie, waarin de naam, het gegevenstype en het zoekgedrag van een veld worden beschreven.

ConditionalSkill

Een vaardigheid waarmee scenario's waarvoor een Booleaanse bewerking is vereist, kunnen worden bepaald welke gegevens aan een uitvoer moeten worden toegewezen.

CorsOptions

Definieert opties voor het beheren van CORS (Cross-Origin Resource Sharing) voor een index.

CreateOrUpdateIndexOptions

Opties voor het maken/bijwerken van indexbewerkingen.

CreateOrUpdateSkillsetOptions

Opties voor het maken/bijwerken van vaardighedensetbewerkingen.

CreateOrUpdateSynonymMapOptions

Opties voor het maken/bijwerken van synoniemmapbewerking.

CreateorUpdateDataSourceConnectionOptions

Opties voor het maken/bijwerken van gegevensbronbewerkingen.

CreateorUpdateIndexerOptions

Opties voor het maken/bijwerken van de indexeerfunctie.

CustomAnalyzer

Hiermee kunt u de controle overnemen over het proces van het converteren van tekst naar indexeerbare/doorzoekbare tokens. Het is een door de gebruiker gedefinieerde configuratie die bestaat uit één vooraf gedefinieerde tokenizer en een of meer filters. De tokenizer is verantwoordelijk voor het opsplitsen van tekst in tokens en de filters voor het wijzigen van tokens die door de tokenizer worden verzonden.

CustomEntity

Een object dat informatie bevat over de gevonden overeenkomsten en gerelateerde metagegevens.

CustomEntityAlias

Een complex object dat kan worden gebruikt om alternatieve spellingen of synoniemen voor de naam van de hoofdentiteit op te geven.

CustomEntityLookupSkill

Een vaardigheid zoekt naar tekst uit een aangepaste, door de gebruiker gedefinieerde lijst met woorden en woordgroepen.

DefaultCognitiveServicesAccount

Een leeg object dat de standaardresource van de Azure AI-service vertegenwoordigt voor een vaardighedenset.

DeleteDataSourceConnectionOptions

Opties voor het verwijderen van de gegevensbronbewerking.

DeleteIndexOptions

Opties voor het verwijderen van de indexbewerking.

DeleteIndexerOptions

Opties voor het verwijderen van de indexeerfunctie.

DeleteSkillsetOptions

Opties voor het verwijderen van vaardighedensetoperaion.

DeleteSynonymMapOptions

Opties voor het verwijderen van synoniemmapbewerking.

DictionaryDecompounderTokenFilter

Breek samengestelde woorden op die in veel Germaanse talen te vinden zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

DistanceScoringFunction

Hiermee definieert u een functie die scores verhoogt op basis van de afstand tot een geografische locatie.

DistanceScoringParameters

Biedt parameterwaarden voor een scorefunctie voor afstand.

DocumentExtractionSkill

Een vaardigheid waarmee inhoud wordt geëxtraheerd uit een bestand in de verrijkingspijplijn.

EdgeNGramTokenFilter

Genereert n-grammen van de opgegeven grootte(n) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

EdgeNGramTokenizer

Hiermee wordt de invoer van een rand omgezet in n-grammen van de opgegeven grootte(n). Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

ElisionTokenFilter

Verwijdert elisies. 'l'avion' (het vliegtuig) wordt bijvoorbeeld geconverteerd naar 'avion' (vliegtuig). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

EntityLinkingSkill

Met behulp van de Text Analytics-API extraheert u gekoppelde entiteiten uit tekst.

EntityRecognitionSkill

Herkenning van text analytics-entiteiten.

EntityRecognitionSkillV3

Met behulp van de Text Analytics-API worden entiteiten van verschillende typen uit tekst geëxtraheerd.

ExhaustiveKnnParameters

Bevat de parameters die specifiek zijn voor het volledige KNN-algoritme.

ExtractiveQueryAnswer

Hiermee worden antwoordkandidaten geëxtraheerd uit de inhoud van de documenten die worden geretourneerd als antwoord op een query die wordt uitgedrukt als een vraag in natuurlijke taal.

ExtractiveQueryCaption

Extraheert bijschriften uit de overeenkomende documenten die passages bevatten die relevant zijn voor de zoekquery.

FacetResult

Eén bucket met een facetqueryresultaat. Rapporteert het aantal documenten met een veldwaarde die binnen een bepaald bereik valt of een bepaalde waarde of interval heeft.

FieldMapping

Hiermee definieert u een toewijzing tussen een veld in een gegevensbron en een doelveld in een index.

FieldMappingFunction

Vertegenwoordigt een functie die een waarde uit een gegevensbron transformeert vóór het indexeren.

FreshnessScoringFunction

Hiermee definieert u een functie die scores verhoogt op basis van de waarde van een datum/tijd-veld.

FreshnessScoringParameters

Biedt parameterwaarden voor een functie voor het scoren van nieuwheid.

GetDocumentOptions

Opties voor het ophalen van één document.

HighWaterMarkChangeDetectionPolicy

Definieert een detectiebeleid voor gegevenswijzigingen dat wijzigingen vastlegt op basis van de waarde van een kolom met hoge watermarkeringen.

HnswParameters

Bevat de parameters die specifiek zijn voor het hnsw-algoritme.

ImageAnalysisSkill

Een vaardigheid die afbeeldingsbestanden analyseert. Het extraheert een uitgebreide set visuele functies op basis van de afbeeldingsinhoud.

IndexDocumentsClient

Index Documents Client

IndexDocumentsOptions

Opties voor de bewerking indexbatch wijzigen.

IndexDocumentsResult

Antwoord met de status van bewerkingen voor alle documenten in de indexeringsaanvraag.

IndexerExecutionResult

Vertegenwoordigt het resultaat van de uitvoering van een afzonderlijke indexeerfunctie.

IndexingParameters

Vertegenwoordigt parameters voor de uitvoering van de indexeerfunctie.

IndexingParametersConfiguration

Een woordenlijst met configuratie-eigenschappen die specifiek zijn voor de indexeerfunctie. Elke naam is de naam van een specifieke eigenschap. Elke waarde moet van een primitief type zijn.

IndexingResult

Status van een indexeringsbewerking voor één document.

IndexingSchedule

Vertegenwoordigt een schema voor het uitvoeren van de indexeerfunctie.

InputFieldMappingEntry

Toewijzing van invoervelden voor een vaardigheid.

KeepTokenFilter

Een tokenfilter waarmee alleen tokens worden opgeslagen met tekst in een opgegeven lijst met woorden. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

KeyPhraseExtractionSkill

Een vaardigheid die gebruikmaakt van tekstanalyse voor sleuteltermextractie.

KeywordMarkerTokenFilter

Hiermee worden termen gemarkeerd als trefwoorden. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

KeywordTokenizer

Verzendt de volledige invoer als één token. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

LanguageDetectionSkill

Een vaardigheid die de taal van invoertekst detecteert en één taalcode rapporteert voor elk document dat op de aanvraag wordt ingediend. De taalcode wordt gekoppeld aan een score die de betrouwbaarheid van de analyse aangeeft.

LengthTokenFilter

Hiermee verwijdert u woorden die te lang of te kort zijn. Dit tokenfilter wordt geïmplementeerd met apache Lucene.

LimitTokenFilter

Beperkt het aantal tokens tijdens het indexeren. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

ListSearchResultsPageSettings

Argumenten voor het ophalen van de volgende pagina met zoekresultaten.

LuceneStandardAnalyzer

Standaard Apache Lucene Analyzer; Bestaat uit de standaardtokenizer, een filter in kleine letters en een stopfilter.

LuceneStandardTokenizer

Hiermee wordt de tekst volgens de Unicode-tekstsegmentatieregels verbroken. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

MagnitudeScoringFunction

Hiermee definieert u een functie die scores verhoogt op basis van de grootte van een numeriek veld.

MagnitudeScoringParameters

Biedt parameterwaarden voor een scorefunctie voor de grootte.

MappingCharFilter

Een tekenfilter waarmee toewijzingen worden toegepast die zijn gedefinieerd met de optie toewijzingen. Vergelijken is greedy (langste patroonmatching op een bepaald punt wint). Vervanging mag de lege tekenreeks zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene.

MergeSkill

Een vaardigheid voor het samenvoegen van twee of meer tekenreeksen in één uniforme tekenreeks, met een optioneel door de gebruiker gedefinieerd scheidingsteken tussen elk onderdeelonderdeel.

MicrosoftLanguageStemmingTokenizer

Verdeelt tekst met behulp van taalspecifieke regels en vermindert woorden tot hun basisvormen.

MicrosoftLanguageTokenizer

Verdeelt tekst met behulp van taalspecifieke regels.

NGramTokenFilter

Genereert n-grammen van de opgegeven grootte(n). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

NGramTokenizer

Tokeniseert de invoer in n-gram van de opgegeven grootte(n). Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

OcrSkill

Een vaardigheid waarmee tekst wordt geëxtraheerd uit afbeeldingsbestanden.

OutputFieldMappingEntry

Toewijzing van uitvoervelden voor een vaardigheid.

PIIDetectionSkill

Met behulp van de Text Analytics-API extraheert u persoonlijke gegevens uit een invoertekst en krijgt u de mogelijkheid om deze te maskeren.

PathHierarchyTokenizer

Tokenizer voor padachtige hiërarchieën. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

PatternAnalyzer

Op flexibele wijze scheidt u tekst in termen via een patroon voor reguliere expressies. Deze analyse wordt geïmplementeerd met behulp van Apache Lucene.

PatternCaptureTokenFilter

Gebruikt Java-regexes om meerdere tokens te verzenden: één voor elke opnamegroep in een of meer patronen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

PatternReplaceCharFilter

Een tekenfilter dat tekens in de invoertekenreeks vervangt. Er wordt een reguliere expressie gebruikt om tekenreeksen te identificeren die moeten worden behouden en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Op basis van bijvoorbeeld de invoertekst 'aa bb aa bb', patroon '(aa)\s+(bb)' en vervangende '$1#$2', zou het resultaat 'aa#bb aa#bb' zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene.

PatternReplaceTokenFilter

Een tekenfilter dat tekens in de invoertekenreeks vervangt. Er wordt een reguliere expressie gebruikt om tekenreeksen te identificeren die moeten worden behouden en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Op basis van bijvoorbeeld de invoertekst 'aa bb aa bb', patroon '(aa)\s+(bb)' en vervangende '$1#$2', zou het resultaat 'aa#bb aa#bb' zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

PatternTokenizer

Tokenizer die gebruikmaakt van regex-patroonkoppeling om afzonderlijke tokens te maken. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

PhoneticTokenFilter

Tokens maken voor fonetische overeenkomsten. Dit tokenfilter wordt geïmplementeerd met apache Lucene.

QueryAnswerResult

Een antwoord is een tekstfragment dat is geëxtraheerd uit de inhoud van de meest relevante documenten die overeenkomen met de query. Antwoorden worden geëxtraheerd uit de bovenste zoekresultaten. Antwoordkandidaten worden beoordeeld en de belangrijkste antwoorden worden geselecteerd.

QueryCaptionResult

Bijschriften zijn de meest representatieve passages uit het document ten opzichte van de zoekquery. Ze worden vaak gebruikt als documentsamenvatting. Bijschriften worden alleen geretourneerd voor query's van het type semantic.

ResourceCounter

Vertegenwoordigt het gebruik en quotum van een resource.

ScoringProfile

Hiermee definieert u parameters voor een zoekindex die van invloed zijn op het scoren in zoekquery's.

SearchClientOptions

Clientopties die worden gebruikt voor het configureren van Cognitive Search-API-aanvragen.

SearchDocumentsPageResult

Antwoord met zoekresultaten van een index.

SearchDocumentsResult

Antwoord met zoekresultaten van een index.

SearchDocumentsResultBase

Antwoord met zoekresultaten van een index.

SearchIndex

Vertegenwoordigt een zoekindexdefinitie, waarmee de velden en het zoekgedrag van een index worden beschreven.

SearchIndexClientOptions

Clientopties die worden gebruikt voor het configureren van Cognitive Search-API-aanvragen.

SearchIndexStatistics

Statistieken voor een bepaalde index. Statistieken worden periodiek verzameld en zijn niet altijd altijd up-to-date.

SearchIndexer

Vertegenwoordigt een indexeerfunctie.

SearchIndexerClientOptions

Clientopties die worden gebruikt voor het configureren van Cognitive Search-API-aanvragen.

SearchIndexerDataContainer

Vertegenwoordigt informatie over de entiteit (zoals Azure SQL tabel of CosmosDB-verzameling) die wordt geïndexeerd.

SearchIndexerDataSourceConnection

Vertegenwoordigt een definitie van een gegevensbron, die kan worden gebruikt om een indexeerfunctie te configureren.

SearchIndexerError

Vertegenwoordigt een indexeringsfout op item- of documentniveau.

SearchIndexerKnowledgeStore

Definitie van aanvullende projecties naar azure blob, tabel of bestanden, van verrijkte gegevens.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Abstracte klasse om eigenschappen te delen tussen concrete selectors.

SearchIndexerKnowledgeStoreFileProjectionSelector

Projectiedefinitie voor welke gegevens moeten worden opgeslagen in Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Projectiedefinitie voor welke gegevens moeten worden opgeslagen in Azure Blob.

SearchIndexerKnowledgeStoreProjection

Containerobject voor verschillende projectiekiezers.

SearchIndexerKnowledgeStoreProjectionSelector

Abstracte klasse om eigenschappen te delen tussen concrete selectors.

SearchIndexerKnowledgeStoreTableProjectionSelector

Beschrijving van welke gegevens moeten worden opgeslagen in Azure Tables.

SearchIndexerLimits
SearchIndexerSkillset

Een lijst met vaardigheden.

SearchIndexerStatus

Vertegenwoordigt de huidige status en uitvoeringsgeschiedenis van een indexeerfunctie.

SearchIndexerWarning

Vertegenwoordigt een waarschuwing op itemniveau.

SearchIndexingBufferedSenderOptions

Opties voor SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Een door de klant beheerde versleutelingssleutel in Azure Key Vault. Sleutels die u maakt en beheert, kunnen worden gebruikt voor het versleutelen of ontsleutelen van data-at-rest in Azure Cognitive Search, zoals indexen en synoniemenkaarten.

SearchServiceStatistics

Antwoord van een aanvraag voor het ophalen van servicestatistieken. Als dit lukt, bevat het prestatiemeteritems en limieten voor serviceniveaus.

SearchSuggester

Definieert hoe de Suggest-API moet worden toegepast op een groep velden in de index.

SemanticConfiguration

Definieert een specifieke configuratie die moet worden gebruikt in de context van semantische mogelijkheden.

SemanticField

Een veld dat wordt gebruikt als onderdeel van de semantische configuratie.

SemanticPrioritizedFields

Beschrijft de velden titel, inhoud en trefwoorden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden.

SemanticSearch

Hiermee definieert u parameters voor een zoekindex die semantische mogelijkheden beïnvloeden.

SemanticSearchOptions

Definieert opties voor semantische zoekquery's

SentimentSkill

Tekstanalyse van positief-negatief sentiment, gescoord als een drijvende-kommawaarde in een bereik van nul tot 1.

SentimentSkillV3

Met behulp van de Text Analytics-API evalueert ongestructureerde tekst en biedt voor elke record gevoelslabels (zoals 'negatief', 'neutraal' en 'positief') op basis van de hoogste betrouwbaarheidsscore die door de service is gevonden op zins- en documentniveau.

ServiceCounters

Vertegenwoordigt resourcetellers en quota op serviceniveau.

ServiceLimits

Vertegenwoordigt verschillende serviceniveaulimieten.

ShaperSkill

Een vaardigheid voor het opnieuw vormgeven van de uitvoer. Er wordt een complex type gemaakt ter ondersteuning van samengestelde velden (ook wel velden met meerdere delen genoemd).

ShingleTokenFilter

Hiermee maakt u combinaties van tokens als één token. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Similarity

Basistype voor gelijkenisalgoritmen. Gelijkenisalgoritmen worden gebruikt om scores te berekenen die query's koppelen aan documenten. Hoe hoger de score, hoe relevanter het document is voor die specifieke query. Deze scores worden gebruikt om de zoekresultaten te rangschikken.

SimpleField

Vertegenwoordigt een veld in een indexdefinitie, waarin de naam, het gegevenstype en het zoekgedrag van een veld worden beschreven.

SnowballTokenFilter

Een filter dat woorden afstamt met behulp van een door sneeuwbal gegenereerde stemmer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Definieert een detectiebeleid voor gegevensverwijdering dat een strategie voor voorlopig verwijderen implementeert. Hiermee wordt bepaald of een item moet worden verwijderd op basis van de waarde van een aangewezen kolom 'voorlopig verwijderen'.

SplitSkill

Een vaardigheid om een tekenreeks te splitsen in tekstsegmenten.

SqlIntegratedChangeTrackingPolicy

Definieert een detectiebeleid voor gegevenswijzigingen waarmee wijzigingen worden vastgelegd met behulp van de functie Geïntegreerde Wijzigingen bijhouden van Azure SQL Database.

StemmerOverrideTokenFilter

Biedt de mogelijkheid om andere stemfilters te overschrijven met aangepaste stemming op basis van woordenlijsten. Woordenlijst-stamtermen worden gemarkeerd als trefwoorden, zodat ze niet worden afgestamd met stemmers in de keten. Moet vóór eventuele stamfilters worden geplaatst. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

StemmerTokenFilter

Taalspecifiek stemfilter. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

StopAnalyzer

Verdeelt tekst op niet-letters; Hiermee past u de tokenfilters kleine letters en stopwoorden toe. Deze analyse wordt geïmplementeerd met behulp van Apache Lucene.

StopwordsTokenFilter

Hiermee verwijdert u stopwoorden uit een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

SuggestDocumentsResult

Antwoord met suggestiequeryresultaten van een index.

SuggestRequest

Parameters voor het filteren, sorteren, fuzzy matching en andere suggesties voor querygedrag.

SynonymMap

Vertegenwoordigt een synoniemtoewijzingsdefinitie.

SynonymTokenFilter

Komt overeen met synoniemen van één of meerdere woorden in een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

TagScoringFunction

Definieert een functie die scores van documenten verhoogt met tekenreekswaarden die overeenkomen met een bepaalde lijst met tags.

TagScoringParameters

Biedt parameterwaarden voor een tagscorefunctie.

TextTranslationSkill

Een vaardigheid om tekst van de ene taal naar de andere te vertalen.

TextWeights

Definieert gewichten voor indexvelden waarvoor overeenkomsten de score in zoekquery's moeten verhogen.

TruncateTokenFilter

Hiermee worden de voorwaarden afgekapt tot een specifieke lengte. Dit tokenfilter wordt geïmplementeerd met apache Lucene.

UaxUrlEmailTokenizer

Hiermee worden URL's en e-mailberichten als één token gebruikt. Deze tokenizer wordt geïmplementeerd met apache Lucene.

UniqueTokenFilter

Hiermee filtert u tokens met dezelfde tekst als het vorige token. Dit tokenfilter wordt geïmplementeerd met apache Lucene.

VectorSearch

Bevat configuratieopties met betrekking tot vectorzoekopdrachten.

VectorSearchOptions

Definieert opties voor vectorzoekquery's

VectorSearchProfile

Definieert een combinatie van configuraties die moeten worden gebruikt met vectorzoekopdrachten.

VectorizedQuery

De queryparameters die moeten worden gebruikt voor vectorzoekopdrachten wanneer een onbewerkte vectorwaarde wordt opgegeven.

WebApiSkill

Een vaardigheid die een web-API-eindpunt kan aanroepen, zodat u een vaardighedenset kunt uitbreiden door uw aangepaste code aan te roepen.

WordDelimiterTokenFilter

Hiermee splitst u woorden in subwoorden en voert u optionele transformaties uit op subwoordgroepen. Dit tokenfilter wordt geïmplementeerd met apache Lucene.

Type-aliassen

AnalyzeTextOptions

Opties voor het analyseren van tekstbewerkingen.

AutocompleteMode

Definieert waarden voor AutocompleteMode.

AutocompleteOptions

Opties voor het ophalen van voltooiingstekst voor een gedeeltelijke zoektekst.

BlobIndexerDataToExtract

Bekende waarden die door de service worden ondersteund

storageMetadata: indexeert alleen de standaard blobeigenschappen en door de gebruiker opgegeven metagegevens. allMetadata: extraheert metagegevens die worden geleverd door het Azure Blob Storage-subsysteem en de specifieke metagegevens van het inhoudstype (bijvoorbeeld metagegevens die uniek zijn voor alleen .png bestanden worden geïndexeerd). contentAndMetadata: extraheert alle metagegevens en tekstinhoud uit elke blob.

BlobIndexerImageAction

Bekende waarden die door de service worden ondersteund

none: Ingesloten afbeeldingen of afbeeldingsbestanden in de gegevensset worden genegeerd. Dit is de standaardinstelling. generateNormalizedImages: extraheert tekst uit afbeeldingen (bijvoorbeeld het woord 'STOP' van een verkeersstopbord) en sluit deze in het inhoudsveld in. Deze actie vereist dat 'dataToExtract' is ingesteld op 'contentAndMetadata'. Een genormaliseerde afbeelding verwijst naar extra verwerking, wat resulteert in uniforme afbeeldingsuitvoer, die wordt aangepast en gedraaid om een consistente weergave te bevorderen wanneer u afbeeldingen opneemt in visuele zoekresultaten. Deze informatie wordt gegenereerd voor elke afbeelding wanneer u deze optie gebruikt. generateNormalizedImagePerPage: extraheert tekst uit afbeeldingen (bijvoorbeeld het woord 'STOP' van een verkeersstopbord) en sluit deze in het inhoudsveld in, maar behandelt PDF-bestanden anders omdat elke pagina wordt weergegeven als een afbeelding en dienovereenkomstig wordt genormaliseerd, in plaats van ingesloten afbeeldingen te extraheren. Niet-PDF-bestandstypen worden hetzelfde behandeld als wanneer 'generateNormalizedImages' is ingesteld.

BlobIndexerPDFTextRotationAlgorithm

Bekende waarden die door de service worden ondersteund

none: maakt gebruik van normale tekstextractie. Dit is de standaardinstelling. detectAngles: Kan betere en beter leesbare tekstextractie produceren uit PDF-bestanden die tekst hebben gedraaid. Houd er rekening mee dat er een kleine invloed kan zijn op de snelheid van de prestaties wanneer deze parameter wordt gebruikt. Deze parameter is alleen van toepassing op PDF-bestanden en alleen op PDF-bestanden met ingesloten tekst. Als de gedraaide tekst wordt weergegeven in een ingesloten afbeelding in het PDF-bestand, is deze parameter niet van toepassing.

BlobIndexerParsingMode

Bekende waarden die door de service worden ondersteund

standaardinstelling: ingesteld op standaard voor normale bestandsverwerking. text: stel in op tekst om de indexeringsprestaties voor tekstbestanden zonder opmaak in blobopslag te verbeteren. delimitedText: stel in op delimitedText wanneer blobs CSV-bestanden zonder opmaak zijn. json: stel in op json om gestructureerde inhoud uit JSON-bestanden te extraheren. jsonArray: stel in op jsonArray om afzonderlijke elementen van een JSON-matrix te extraheren als afzonderlijke documenten in Azure Cognitive Search. jsonLines: stel in op jsonLines om afzonderlijke JSON-entiteiten, gescheiden door een nieuwe regel, te extraheren als afzonderlijke documenten in Azure Cognitive Search.

CharFilter

Bevat de mogelijke cases voor CharFilter.

CharFilterName

Definieert waarden voor CharFilterName.
<xref:KnownCharFilterName> kan door elkaar worden gebruikt met CharFilterName. Deze opsomming bevat de bekende waarden die door de service worden ondersteund.

Bekende waarden die door de service worden ondersteund

html_strip: een tekenfilter waarmee HTML-constructies worden verwijderd. Zie https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Definieert waarden voor CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Bevat de mogelijke cases voor CognitiveServicesAccount.

ComplexDataType

Definieert waarden voor ComplexDataType. Mogelijke waarden zijn: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Opties voor het uitvoeren van de tellingsbewerking op de index.

CreateDataSourceConnectionOptions

Opties voor het maken van een gegevensbronbewerking.

CreateIndexOptions

Opties voor het maken van een indexbewerking.

CreateIndexerOptions

Opties voor het maken van een indexeerfunctie.

CreateSkillsetOptions

Opties voor het maken van een vaardighedensetbewerking.

CreateSynonymMapOptions

Opties voor het maken van de bewerking synoniemmap.

CustomEntityLookupSkillLanguage

Definieert ondersteunde talen voor CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage kan door elkaar worden gebruikt met dit type

DataChangeDetectionPolicy

Bevat de mogelijke cases voor DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Bevat de mogelijke cases voor DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opties voor het verwijderen van documenten.

EdgeNGramTokenFilterSide

Definieert waarden voor EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage

Definieert ondersteunde talen voor EntityRecognitionSkillKnownEntityRecognitionSkillLanguage kan door elkaar worden gebruikt met dit type

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Bevat configuratieopties die specifiek zijn voor het uitgebreide KNN-algoritme dat wordt gebruikt tijdens het uitvoeren van query's, waarmee brute-force-zoekopdrachten worden uitgevoerd in de hele vectorindex.

ExtractDocumentKey
GetDataSourceConnectionOptions

Opties voor het ophalen van gegevensbronbewerkingen.

GetIndexOptions

Opties voor het ophalen van de indexbewerking.

GetIndexStatisticsOptions

Opties voor het ophalen van indexstatistieken.

GetIndexerOptions

Opties voor het ophalen van de indexeerfunctie.

GetIndexerStatusOptions

Opties voor het ophalen van de status van de indexeerfunctie.

GetServiceStatisticsOptions

Opties voor het ophalen van servicestatistieken.

GetSkillSetOptions

Opties voor het ophalen van vaardighedensetbewerkingen.

GetSynonymMapsOptions

Opties voor het ophalen van synoniemen.

HnswAlgorithmConfiguration

Bevat configuratieopties die specifiek zijn voor het algoritme hnsw bij benadering dichtstbijzijnde buren dat wordt gebruikt tijdens de indexeringstijd.

ImageAnalysisSkillLanguage

Definieert ondersteunde talen voor ImageAnalysisSkillKnownImageAnalysisSkillLanguage kan door elkaar worden gebruikt met dit type

ImageDetail
IndexActionType

Definieert waarden voor IndexActionType.

IndexDocumentsAction

Vertegenwoordigt een indexactie die op een document wordt uitgevoerd.

IndexIterator

Een iterator voor het weergeven van de indexen die aanwezig zijn in de Search-service. Tijdens de iteratie worden aanvragen indien nodig ingediend. Gebruik .byPage() om per iteratie één aanvraag naar de server te verzenden.

IndexNameIterator

Een iterator voor het weergeven van de indexen die aanwezig zijn in de Search-service. Tijdens de iteratie worden aanvragen indien nodig ingediend. Gebruik .byPage() om per iteratie één aanvraag naar de server te verzenden.

IndexerExecutionEnvironment

Bekende waarden die door de service worden ondersteund

standaard: geeft aan dat Azure Cognitive Search kunt bepalen waar de indexeerfunctie moet worden uitgevoerd. Dit is de standaardomgeving wanneer niets is opgegeven en de aanbevolen waarde is. privé: geeft aan dat de indexeerfunctie moet worden uitgevoerd met de omgeving die specifiek is ingericht voor de zoekservice. Dit moet alleen worden opgegeven als de uitvoeringsomgeving als de indexeerfunctie veilig toegang moet hebben tot resources via gedeelde Private Link-resources.

IndexerExecutionStatus

Definieert waarden voor IndexerExecutionStatus.

IndexerStatus

Definieert waarden voor IndexerStatus.

KeyPhraseExtractionSkillLanguage

Definieert ondersteunde talen voor KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage kan door elkaar worden gebruikt met dit type

LexicalAnalyzer

Bevat de mogelijke cases voor Analyzer.

LexicalAnalyzerName

Definieert waarden voor LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> kan door elkaar worden gebruikt met LexicalAnalyzerName, deze opsomming bevat de bekende waarden die de service ondersteunt.

Bekende waarden die door de service worden ondersteund

ar.microsoft: Microsoft analyzer voor Arabisch.
ar.lucene: Lucene analyzer voor Arabisch.
hy.lucene: Lucene analyzer voor Armeens.
bn.microsoft: Microsoft Analyzer voor Bangla.
eu.lucene: Lucene analyzer voor Baskisch.
bg.microsoft: Microsoft analyzer voor Bulgaars.
bg.lucene: Lucene analyzer voor Bulgaars.
ca.microsoft: Microsoft analyzer voor Catalaans.
ca.lucene: Lucene analyzer voor Catalaans.
zh-Hans.microsoft: Microsoft analyzer voor Chinees (vereenvoudigd).
zh-Hans.lucene: Lucene analyzer voor Chinees (Vereenvoudigd).
zh-Hant.microsoft: Microsoft analyzer voor Chinees (traditioneel).
zh-Hant.lucene: Lucene analyzer voor Chinees (Traditioneel).
hr.microsoft: Microsoft analyzer voor Kroatisch.
cs.microsoft: Microsoft analyzer voor Tsjechisch.
cs.lucene: Lucene analyzer voor Tsjechisch.
da.microsoft: Microsoft analyzer voor Deens.
da.lucene: Lucene analyzer voor Deens.
nl.microsoft: Microsoft analyzer voor Nederlands.
nl.lucene: Lucene analyzer for Dutch.
nl.microsoft: Microsoft analyzer voor Engels.
en.lucene: Lucene analyzer for English.
et.microsoft: Microsoft analyzer voor Estlands.
fi.microsoft: Microsoft analyzer voor Fins.
fi.lucene: Lucene analyzer voor Fins.
fr.microsoft: Microsoft analyzer voor Frans.
fr.lucene: Lucene analyzer voor Frans.
gl.lucene: Lucene analyzer voor Galicisch.
de.microsoft: Microsoft analyzer voor Duits.
de.lucene: Lucene analyzer voor Duits.
el.microsoft: Microsoft analyzer voor Grieks.
el.lucene: Lucene analyzer voor Grieks.
gu.microsoft: Microsoft Analyzer voor Gujarati.
he.microsoft: Microsoft analyzer voor Hebreeuws.
hi.microsoft: Microsoft analyzer voor Hindi.
hi.lucene: Lucene analyzer voor Hindi.
hu.microsoft: Microsoft analyzer voor Hongaars.
hu.lucene: Lucene analyzer voor Hongaars.
is.microsoft: Microsoft analyzer voor IJslands.
id.microsoft: Microsoft analyzer voor Indonesisch (Bahasa).
id.lucene: Lucene analyzer voor Indonesisch.
ga.lucene: Lucene analyzer voor Iers.
it.microsoft: Microsoft analyzer voor Italiaans.
it.lucene: Lucene analyzer voor Italiaans.
ja.microsoft: Microsoft analyzer voor Japans.
ja.lucene: Lucene analyzer voor Japans.
kn.microsoft: Microsoft analyzer voor Kannada.
ko.microsoft: Microsoft analyzer voor Koreaans.
ko.lucene: Lucene analyzer voor Koreaans.
lv.microsoft: Microsoft analyzer voor Lets.
lv.lucene: Lucene analyzer voor Lets.
lt.microsoft: Microsoft analyzer voor Litouws.
ml.microsoft: Microsoft analyzer voor Malayalam.
ms.microsoft: Microsoft analyzer voor Maleis (Latijns).
mr.microsoft: Microsoft Analyzer voor Marathi.
nb.microsoft: Microsoft analyzer voor Noors (Bokmål).
no.lucene: Lucene analyzer voor Noors.
fa.lucene: Lucene analyzer voor Perzisch.
pl.microsoft: Microsoft analyzer voor Pools.
pl.lucene: Lucene analyzer voor Pools.
pt-BR.microsoft: Microsoft analyzer voor Portugees (Brazilië).
pt-BR.lucene: Lucene analyzer voor Portugees (Brazilië).
pt-PT.microsoft: Microsoft analyzer voor Portugees (Portugal).
pt-PT.lucene: Lucene analyzer voor Portugees (Portugal).
pa.microsoft: Microsoft analyzer voor Punjabi.
ro.microsoft: Microsoft analyzer voor Roemeens.
ro.lucene: Lucene analyzer voor Roemeens.
ru.microsoft: Microsoft analyzer voor Russisch.
ru.lucene: Lucene analyzer voor Russisch.
sr-cyrillic.microsoft: Microsoft analyzer voor Servisch (Cyrillisch).
sr-latin.microsoft: Microsoft analyzer voor Servisch (Latijn).
sk.microsoft: Microsoft analyzer voor Slowaaks.
sl.microsoft: Microsoft analyzer voor Sloveens.
es.microsoft: Microsoft analyzer voor Spaans.
es.lucene: Lucene analyzer voor Spaans.
sv.microsoft: Microsoft analyzer voor Zweeds.
sv.lucene: Lucene analyzer voor Zweeds.
ta.microsoft: Microsoft analyzer voor Tamil.
te.microsoft: Microsoft analyzer voor Telugu.
th.microsoft: Microsoft analyzer voor Thai.
th.lucene: Lucene analyzer voor Thai.
tr.microsoft: Microsoft analyzer voor Turks.
tr.lucene: Lucene analyzer voor Turks.
uk.microsoft: Microsoft analyzer voor Oekraïens.
your.microsoft: Microsoft Analyzer voor Urdu.
vi.microsoft: Microsoft Analyzer voor Vietnamees.
standard.lucene: Standard Lucene analyzer.
standardasciifolding.lucene: Standaard ASCII Folding Lucene analyzer. Zie https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
trefwoord: behandelt de volledige inhoud van een veld als één token. Dit is handig voor gegevens zoals postcodes, id's en sommige productnamen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
patroon: flexibel scheidt tekst in termen via een patroon voor reguliere expressies. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
eenvoudig: verdeelt tekst op niet-letters en converteert deze naar kleine letters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop: Verdeelt tekst bij niet-letters; Hiermee past u de tokenfilters kleine letters en stopwoorden toe. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
witruimte: een analyse die gebruikmaakt van de witruimtetokenizer. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Bevat de mogelijke cases voor Tokenizer.

LexicalTokenizerName

Definieert waarden voor LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> kan door elkaar worden gebruikt met LexicalTokenizerName. Deze opsomming bevat de bekende waarden die door de service worden ondersteund.

Bekende waarden die door de service worden ondersteund

klassiek: tokenizer op basis van grammatica die geschikt is voor het verwerken van de meeste Europese documenten. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: tokeniseert de invoer van een rand in n-grammen van de opgegeven grootte(n). Zie https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: verzendt de volledige invoer als één token. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
letter: verdeelt tekst op niet-letters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
kleine letters: verdeelt tekst op niet-letters en converteert deze naar kleine letters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: Verdeelt tekst met taalspecifieke regels.
microsoft_language_stemming_tokenizer: Verdeelt tekst met taalspecifieke regels en vermindert woorden tot de basisvormen.
nGram: tokeniseert de invoer in n-grammen van de opgegeven grootte(n). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer voor padachtige hiërarchieën. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
pattern: Tokenizer die gebruikmaakt van regex-patroonkoppeling om afzonderlijke tokens te maken. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Standard Lucene analyzer; Bestaat uit de standaardtokenizer, een filter in kleine letters en een stopfilter. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Url's en e-mailberichten tokennen als één token. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
witruimte: verdeelt tekst op witruimte. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Opties voor een bewerking voor een lijst met gegevensbronnen.

ListIndexersOptions

Opties voor een lijstindexeerfunctiebewerking.

ListIndexesOptions

Opties voor een lijstindexbewerking.

ListSkillsetsOptions

Opties voor een bewerking voor het weergeven van vaardighedensets.

ListSynonymMapsOptions

Opties voor een bewerking list synoniemMaps.

MergeDocumentsOptions

Opties voor het samenvoegen van documenten.

MergeOrUploadDocumentsOptions

Opties voor het samenvoegen of uploaden van documenten.

MicrosoftStemmingTokenizerLanguage

Definieert waarden voor MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Definieert waarden voor MicrosoftTokenizerLanguage.

NarrowedModel

Hiermee wordt het modeltype beperkt tot alleen de geselecteerde velden

OcrSkillLanguage

Definieert ondersteunde talen voor OcrSkillKnownOcrSkillLanguage kan door elkaar worden gebruikt met dit type

PIIDetectionSkillMaskingMode

Definieert waarden voor PIIDetectionSkillMaskingMode.

Bekende waarden die door de service worden ondersteund

none: er vindt geen maskering plaats en de maskedText-uitvoer wordt niet geretourneerd. replace: vervangt de gedetecteerde entiteiten door het teken dat is opgegeven in de parameter maskingCharacter. Het teken wordt herhaald tot de lengte van de gedetecteerde entiteit, zodat de verschuivingen correct overeenkomen met zowel de invoertekst als de uitvoer maskedText.

PhoneticEncoder

Definieert waarden voor PhoneticEncoder.

QueryAnswer

Een waarde die aangeeft of antwoorden moeten worden geretourneerd als onderdeel van het zoekantwoord. Deze parameter is alleen geldig als het querytype 'semantisch' is. Als dit is ingesteld op extractive, retourneert de query antwoorden die zijn geëxtraheerd uit sleutelpassages in de hoogst gerangschikte documenten.

QueryCaption

Een waarde die aangeeft of bijschriften moeten worden geretourneerd als onderdeel van het zoekantwoord. Deze parameter is alleen geldig als het querytype 'semantisch' is. Indien ingesteld, retourneert de query bijschriften die zijn geëxtraheerd uit sleutelpassages in de hoogst gerangschikte documenten. Wanneer Bijschriften 'extraherend' is, is markeren standaard ingeschakeld. De standaardwaarde is 'none'.

QueryType

Definieert waarden voor QueryType.

RegexFlags

Hiermee definieert u vlaggen voor het vergelijken van regex-patronen

Bekende waarden die door de service worden ondersteund

CANON_EQ: maakt canonieke equivalentie mogelijk. CASE_INSENSITIVE: schakelt niet-hoofdlettergevoelige overeenkomsten in. OPMERKINGEN: hiermee staat u witruimte en opmerkingen in het patroon toe. DOTALL: hiermee schakelt u de dotall-modus in. LITERAL: hiermee schakelt u letterlijke parsering van het patroon in. MULTILINE: hiermee schakelt u de modus voor meerdere regels in. UNICODE_CASE: hiermee schakelt u Unicode-bewuste case folding in. UNIX_LINES: hiermee schakelt u de unix-regelmodus in.

ResetIndexerOptions

Opties voor het opnieuw instellen van de indexeerfunctie.

RunIndexerOptions

Opties voor het uitvoeren van de indexeerfunctie.

ScoringFunction

Bevat de mogelijke cases voor ScoringFunction.

ScoringFunctionAggregation

Definieert waarden voor ScoringFunctionAggregation.

ScoringFunctionInterpolation

Definieert waarden voor ScoringFunctionInterpolation.

ScoringStatistics

Definieert waarden voor ScoringStatistics.

SearchField

Vertegenwoordigt een veld in een indexdefinitie, waarin de naam, het gegevenstype en het zoekgedrag van een veld worden beschreven.

SearchFieldArray

Als TModel een niet-getypt object is, een niet-getypte tekenreeksmatrix, anders de door slashs gescheiden velden van TModel.

SearchFieldDataType

Definieert waarden voor SearchFieldDataType. Mogelijke waarden zijn: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)'

Nb: Edm.Single alleen is geen geldig gegevenstype. Deze moet worden gebruikt als onderdeel van een verzamelingstype.

SearchIndexerDataSourceType
SearchIndexerSkill

Bevat de mogelijke cases voor Vaardigheid.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opties voor SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opties voor SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opties voor SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opties voor SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opties voor SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Een iterator voor zoekresultaten van een paticulaire query. Tijdens de iteratie worden aanvragen indien nodig ingediend. Gebruik .byPage() om per iteratie één aanvraag naar de server te verzenden.

SearchMode

Definieert waarden voor SearchMode.

SearchOptions

Opties voor het doorvoeren van een volledige zoekaanvraag.

SearchPick

Kies velden van T met behulp van geldige OData-$select paden voor Cognitive Search.

SearchRequestOptions

Parameters voor filteren, sorteren, faceting, paging en ander zoekquerygedrag.

SearchRequestQueryTypeOptions
SearchResult

Bevat een document dat is gevonden door een zoekquery, plus bijbehorende metagegevens.

SelectArray

Als TFields nooit is, een niet-getypte tekenreeksmatrix Anders een beperkt Fields[] type dat ergens anders in het verbruikstype moet worden gebruikt.

SelectFields

Produceert een samenvoeging van geldige Cognitive Search OData-$select paden voor T met behulp van een doorkruising na volgorde van de veldstructuur die is geroot op T.

SemanticErrorMode

partieel: als de semantische verwerking mislukt, worden er nog steeds gedeeltelijke resultaten geretourneerd. De definitie van gedeeltelijke resultaten is afhankelijk van welke semantische stap is mislukt en wat de reden voor de fout was.

fail: als er een uitzondering is tijdens de semantische verwerkingsstap, mislukt de query en retourneert de juiste HTTP-code, afhankelijk van de fout.

SemanticErrorReason

maxWaitExceeded: als 'semanticMaxWaitInMilliseconds' is ingesteld en de duur van de semantische verwerking die waarde overschrijdt. Alleen de basisresultaten zijn geretourneerd.

capacityOverloaded: de aanvraag is beperkt. Alleen de basisresultaten zijn geretourneerd.

tijdelijk: ten minste één stap van het semantische proces is mislukt.

SemanticSearchResultsType

baseResults: resultaten zonder semantische verrijking of herrankering.

rerankedResults: resultaten zijn opnieuw gerankt met het rerankermodel en bevatten semantische bijschriften. Ze bevatten geen antwoorden, antwoordpunten of onderschrift highlights.

SentimentSkillLanguage

Definieert ondersteunde talen voor SentimentSkillKnownSentimentSkillLanguage kan door elkaar worden gebruikt met dit type

SimilarityAlgorithm

Bevat de mogelijke cases voor gelijkenis.

SnowballTokenFilterLanguage

Definieert waarden voor SnowballTokenFilterLanguage.

SplitSkillLanguage

Definieert ondersteunde talen voor SplitSkillKnownSplitSkillLanguage kunnen door elkaar worden gebruikt met dit type

StemmerTokenFilterLanguage

Definieert waarden voor StemmerTokenFilterLanguage.

StopwordsList

Definieert waarden voor StopwordsList.

SuggestNarrowedModel
SuggestOptions

Opties voor het ophalen van suggesties op basis van de searchText.

SuggestResult

Een resultaat met een document dat is gevonden door een suggestiequery, plus bijbehorende metagegevens.

TextSplitMode
TextTranslationSkillLanguage

Definieert ondersteunde talen voor TextTranslationSkillKnownTextTranslationSkillLanguage kan door elkaar worden gebruikt met dit type

TokenCharacterKind

Definieert waarden voor TokenCharacterKind.

TokenFilter

Bevat de mogelijke cases voor TokenFilter.

TokenFilterName

Definieert waarden voor TokenFilterName.
<xref:KnownTokenFilterName> kan door elkaar worden gebruikt met TokenFilterName. Deze opsomming bevat de bekende waarden die door de service worden ondersteund.

Bekende waarden die door de service worden ondersteund

arabic_normalization: een tokenfilter waarmee de Arabische normalisatiefunctie wordt toegepast om de spelling te normaliseren. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrof: stript alle tekens na een apostrof (inclusief de apostrof zelf). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: converteert alfabetische, numerieke en symbolische Unicode-tekens die niet voorkomen in de eerste 127 ASCII-tekens (het Unicode-blok 'Latijns basis') naar hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: vormt bigrams van CJK-termen die worden gegenereerd op basis van de standaardtokenizer. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: normaliseert CJK-breedteverschillen. Vouwt fullwidth ASCII-varianten in het equivalente latijnse basis en Katakana-varianten met halve breedte in de equivalente Kana. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
klassiek: Verwijdert Engelse bezitwoorden en puntjes uit acroniemen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: Maak bigrams voor veelgebruikte termen tijdens het indexeren. Enkele termen worden ook nog steeds geïndexeerd, met bigrams eroverheen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: genereert n-gram van de opgegeven grootte(n) vanaf de voor- of achterkant van een invoertoken. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: verwijdert elisies. 'l'avion' (het vliegtuig) wordt bijvoorbeeld geconverteerd naar 'avion' (vliegtuig). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Normaliseert Duitse tekens volgens de heuristiek van het Duitse 2-sneeuwbalalgoritme. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: hiermee normaliseert u tekst in Hindi om enkele verschillen in spellingvariaties te verwijderen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normaliseert de Unicode-weergave van tekst in Indiase talen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: verzendt elk binnenkomende token twee keer, één keer als trefwoord en eenmaal als niet-trefwoord. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: Een kstem-filter met hoge prestaties voor Engels. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
lengte: hiermee verwijdert u woorden die te lang of te kort zijn. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limiet: beperkt het aantal tokens tijdens het indexeren. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
kleine letters: hiermee normaliseert u tokentekst naar kleine letters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm
nGram_v2: genereert n-gram van de opgegeven grootte(n). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Normalisatie voor Perzisch wordt toegepast. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetisch: maak tokens voor fonetische overeenkomsten. Zie https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: gebruikt het Porter-stem-algoritme om de tokenstroom te transformeren. Zie http://tartarus.org/~martin/PorterStemmer
reverse: hiermee keert u de tokentekenreeks om. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Normaliseert het gebruik van de uitwisselbare Scandinavische tekens. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Vouwt Scandinavische karakters åÅäæÄÆ-a> en öÖøØ-o>. Het discrimineert ook het gebruik van dubbele klinkers aa, ae, ao, oe en oo, waardoor alleen de eerste overblijft. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle: hiermee maakt u combinaties van tokens als één token. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
sneeuwbal: een filter dat woorden afstelt met behulp van een door sneeuwbal gegenereerde stemmer. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: hiermee normaliseert u de Unicode-weergave van Sorani-tekst. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: Taalspecifiek stemfilter. Zie https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
stopwords: hiermee verwijdert u stopwoorden uit een tokenstroom. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
trim: hiermee worden de voorloop- en volgspaties van tokens verwijderd. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
afkappen: hiermee worden de voorwaarden afgekapt tot een specifieke lengte. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
uniek: filtert tokens met dezelfde tekst als het vorige token. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
hoofdletters: hiermee wordt tokentekst genormaliseerd naar hoofdletters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: splitst woorden in subwoorden en voert optionele transformaties uit op subwoordgroepen.

UnionToIntersection
UploadDocumentsOptions

Opties voor de bewerking documenten uploaden.

VectorFilterMode

Bepaalt of filters worden toegepast voor of nadat de vectorzoekopdracht is uitgevoerd.

VectorQuery

De queryparameters voor vector- en hybride zoekquery's.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Bevat configuratieopties die specifiek zijn voor het algoritme dat wordt gebruikt tijdens het indexeren en/of uitvoeren van query's.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

De metrische overeenkomstwaarde die moet worden gebruikt voor vectorvergelijkingen.

VisualFeature

Enums

KnownAnalyzerNames

Definieert waarden voor AnalyzerName. Zie https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownBlobIndexerDataToExtract

Bekende waarden van BlobIndexerDataToExtract die door de service worden geaccepteerd.

KnownBlobIndexerImageAction

Bekende waarden van BlobIndexerImageAction die door de service worden geaccepteerd.

KnownBlobIndexerPDFTextRotationAlgorithm

Bekende waarden van BlobIndexerPDFTextRotationAlgorithm die door de service worden geaccepteerd.

KnownBlobIndexerParsingMode

Bekende waarden van BlobIndexerParsingMode die de service accepteert.

KnownCharFilterNames

Bekende waarden van CharFilterName die de service accepteert.

KnownCustomEntityLookupSkillLanguage

Bekende waarden van CustomEntityLookupSkillLanguage die door de service worden geaccepteerd.

KnownEntityCategory

Bekende waarden van EntityCategory die door de service worden geaccepteerd.

KnownEntityRecognitionSkillLanguage

Bekende waarden van EntityRecognitionSkillLanguage die de service accepteert.

KnownImageAnalysisSkillLanguage

Bekende waarden van ImageAnalysisSkillLanguage die door de service worden geaccepteerd.

KnownImageDetail

Bekende waarden van ImageDetail die de service accepteert.

KnownKeyPhraseExtractionSkillLanguage

Bekende waarden van KeyPhraseExtractionSkillLanguage die de service accepteert.

KnownOcrSkillLanguage

Bekende waarden van OcrSkillLanguage die door de service worden geaccepteerd.

KnownRegexFlags

Bekende waarden van RegexFlags die door de service worden geaccepteerd.

KnownSearchAudience

Bekende waarden voor zoekdoelgroep

KnownSearchIndexerDataSourceType

Bekende waarden van SearchIndexerDataSourceType die de service accepteert.

KnownSentimentSkillLanguage

Bekende waarden van SentimentSkillLanguage die de service accepteert.

KnownSplitSkillLanguage

Bekende waarden van SplitSkillLanguage die door de service worden geaccepteerd.

KnownTextSplitMode

Bekende waarden van TextSplitMode die de service accepteert.

KnownTextTranslationSkillLanguage

Bekende waarden van TextTranslationSkillLanguage die de service accepteert.

KnownTokenFilterNames

Bekende waarden van TokenFilterName die de service accepteert.

KnownTokenizerNames

Bekende waarden van LexicalTokenizerName die de service accepteert.

KnownVisualFeature

Bekende waarden van VisualFeature die de service accepteert.

Functies

createSynonymMapFromFile(string, string)

Helpermethode voor het maken van een SynonymMap-object. Dit is een methode met alleen NodeJS.

odata(TemplateStringsArray, unknown[])

Escapes voor een odata-filterexpressie om fouten te voorkomen bij het citeren van letterlijke tekenreeksen. Gebruiksvoorbeeld:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Zie voor meer informatie over ondersteunde syntaxis: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Functiedetails

createSynonymMapFromFile(string, string)

Helpermethode voor het maken van een SynonymMap-object. Dit is een methode met alleen NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parameters

name

string

Naam van de Synoniemmap.

filePath

string

Pad van het bestand dat de synoniemen bevat (gescheiden door nieuwe regels)

Retouren

Promise<SynonymMap>

SynonymMap-object

odata(TemplateStringsArray, unknown[])

Escapes voor een odata-filterexpressie om fouten te voorkomen bij het citeren van letterlijke tekenreeksen. Gebruiksvoorbeeld:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Zie voor meer informatie over ondersteunde syntaxis: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parameters

strings

TemplateStringsArray

Matrix van tekenreeksen voor de expressie

values

unknown[]

Matrix van waarden voor de expressie

Retouren

string