Condividi tramite


@azure/search-documents package

Classi

AzureKeyCredential

Credenziali basate su chiavi statiche che supportano l'aggiornamento del valore della chiave sottostante.

GeographyPoint

Rappresenta un punto geografico nelle coordinate globali.

IndexDocumentsBatch

Classe usata per eseguire operazioni batch con più documenti nell'indice.

SearchClient

Classe usata per eseguire operazioni su un indice di ricerca, inclusa l'esecuzione di query sui documenti nell'indice, nonché l'aggiunta, l'aggiornamento e la rimozione di tali documenti.

SearchIndexClient

Classe per eseguire operazioni per gestire (creare, aggiornare, elencare/eliminare) indici, & mapping sinonimi.

SearchIndexerClient

Classe per eseguire operazioni per gestire (creare, aggiornare, elencare/eliminare) indicizzatori, origini dati & set di competenze.

SearchIndexingBufferedSender

Classe usata per eseguire operazioni memorizzate nel buffer su un indice di ricerca, tra cui l'aggiunta, l'aggiornamento e la rimozione.

Interfacce

AnalyzeRequest

Specifica alcuni componenti di testo e analisi usati per suddividere il testo in token.

AnalyzeResult

Risultato del test di un analizzatore sul testo.

AnalyzedTokenInfo

Informazioni su un token restituito da un analizzatore.

AsciiFoldingTokenFilter

Converte caratteri Unicode alfabetici, numerici e simbolici che non si trovano nei primi 127 caratteri ASCII (blocco Unicode "Latino di base") nei rispettivi equivalenti ASCII, se tali equivalenti esistono. Questo filtro di token viene implementato usando Apache Lucene.

AutocompleteItem

Risultato delle richieste di completamento automatico.

AutocompleteRequest

Parametri per la corrispondenza fuzzy e altri comportamenti di query di completamento automatico.

AutocompleteResult

Risultato della query di completamento automatico.

AzureActiveDirectoryApplicationCredentials

Credenziali di un'applicazione registrata creata per il servizio di ricerca, usata per l'accesso autenticato alle chiavi di crittografia archiviate in Azure Key Vault.

AzureOpenAIEmbeddingSkill

Consente di generare un'incorporamento vettoriale per un input di testo specificato usando la risorsa OpenAI di Azure.

AzureOpenAIParameters

Contiene i parametri specifici dell'uso di un servizio Azure Open AI per la vettorizzazione in fase di query.

AzureOpenAIVectorizer

Contiene i parametri specifici dell'uso di un servizio Azure Open AI per la vettorizzazione in fase di query.

BM25Similarity

Funzione di classificazione basata sull'algoritmo di somiglianza okapi BM25. BM25 è un algoritmo simile a TF-IDF che include la normalizzazione della lunghezza (controllata dal parametro 'b'), nonché la saturazione della frequenza dei termini (controllata dal parametro 'k1').

BaseCharFilter

Tipo di base per i filtri di caratteri.

BaseCognitiveServicesAccount

Tipo di base per descrivere qualsiasi risorsa del servizio di intelligenza artificiale di Azure collegata a un set di competenze.

BaseDataChangeDetectionPolicy

Tipo di base per i criteri di rilevamento delle modifiche dei dati.

BaseDataDeletionDetectionPolicy

Tipo di base per i criteri di rilevamento dell'eliminazione dei dati.

BaseLexicalAnalyzer

Tipo di base per gli analizzatori.

BaseLexicalTokenizer

Tipo di base per i tokenizer.

BaseScoringFunction

Tipo di base per le funzioni che possono modificare i punteggi del documento durante la classificazione.

BaseSearchIndexerDataIdentity

Tipo di base astratto per le identità dei dati.

BaseSearchIndexerSkill

Tipo di base per le competenze.

BaseSearchRequestOptions

Parametri per il filtro, l'ordinamento, il facet, il paging e altri comportamenti delle query di ricerca.

BaseTokenFilter

Tipo di base per i filtri di token.

BaseVectorQuery

Parametri di query per le query di ricerca ibrida e vettoriali.

BaseVectorSearchAlgorithmConfiguration

Contiene opzioni di configurazione specifiche dell'algoritmo utilizzato durante l'indicizzazione e/o l'esecuzione di query.

BaseVectorSearchCompression

Contiene opzioni di configurazione specifiche del metodo di compressione utilizzato durante l'indicizzazione o l'esecuzione di query.

BaseVectorSearchVectorizer

Contiene dettagli specifici per un metodo di vettorizzazione da usare durante il tempo di query.

BinaryQuantizationCompression

Contiene opzioni di configurazione specifiche per il metodo di compressione della quantizzazione binaria usato durante l'indicizzazione e l'esecuzione di query.

CjkBigramTokenFilter

Forma bigrams dei termini CJK generati dal tokenizer standard. Questo filtro di token viene implementato usando Apache Lucene.

ClassicSimilarity

Algoritmo di somiglianza legacy che usa l'implementazione lucene TFIDFSimilarity di TF-IDF. Questa variazione di TF-IDF introduce la normalizzazione statica della lunghezza del documento, nonché fattori di coordinamento che penalizzano i documenti che corrispondono solo parzialmente alle query sottoposte a ricerca.

ClassicTokenizer

Tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Questo tokenizer viene implementato tramite Apache Lucene.

CognitiveServicesAccountKey

Chiave dell'account in più aree di una risorsa del servizio azure per intelligenza artificiale collegata a un set di competenze.

CommonGramTokenFilter

Costruisci bigram per i termini che si verificano di frequente durante l'indicizzazione. Anche i termini singoli sono indicizzati, con bigrams sovrapposti. Questo filtro di token viene implementato usando Apache Lucene.

ComplexField

Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo.

ConditionalSkill

Competenza che consente scenari che richiedono un'operazione booleana per determinare i dati da assegnare a un output.

CorsOptions

Definisce le opzioni per controllare la condivisione di risorse tra le origini (CORS) per un indice.

CreateOrUpdateIndexOptions

Opzioni per l'operazione di creazione/aggiornamento dell'indice.

CreateOrUpdateSkillsetOptions

Opzioni per l'operazione di creazione/aggiornamento del set di competenze.

CreateOrUpdateSynonymMapOptions

Opzioni per l'operazione create/update synonymmap.

CreateorUpdateDataSourceConnectionOptions

Opzioni per l'operazione di creazione/aggiornamento dell'origine dati.

CreateorUpdateIndexerOptions

Opzioni per l'operazione di creazione/aggiornamento dell'indicizzatore.

CustomAnalyzer

Consente di assumere il controllo del processo di conversione del testo in token indicizzabili/ricercabili. Si tratta di una configurazione definita dall'utente costituita da un singolo tokenizzatore predefinito e uno o più filtri. Il tokenizer è responsabile dell'interruzione del testo nei token e dei filtri per la modifica dei token generati dal tokenizer.

CustomEntity

Oggetto che contiene informazioni sulle corrispondenze trovate e sui metadati correlati.

CustomEntityAlias

Oggetto complesso che può essere usato per specificare ortografia o sinonimi alternativi per il nome dell'entità radice.

CustomEntityLookupSkill

Una competenza cerca testo da un elenco personalizzato definito dall'utente di parole e frasi.

DefaultCognitiveServicesAccount

Oggetto vuoto che rappresenta la risorsa predefinita del servizio di intelligenza artificiale di Azure per un set di competenze.

DeleteDataSourceConnectionOptions

Opzioni per l'operazione di eliminazione dell'origine dati.

DeleteIndexOptions

Opzioni per l'operazione di eliminazione dell'indice.

DeleteIndexerOptions

Opzioni per l'operazione di eliminazione dell'indicizzatore.

DeleteSkillsetOptions

Opzioni per eliminare l'operazione del set di competenze.

DeleteSynonymMapOptions

Opzioni per l'operazione delete synonymmap.

DictionaryDecompounderTokenFilter

Scompone parole composte presenti in molte lingue germaniche. Questo filtro di token viene implementato usando Apache Lucene.

DistanceScoringFunction

Definisce una funzione che aumenta i punteggi in base alla distanza da una posizione geografica.

DistanceScoringParameters

Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi della distanza.

DocumentExtractionSkill

Competenza che estrae il contenuto da un file all'interno della pipeline di arricchimento.

EdgeNGramTokenFilter

Genera n-grammi delle dimensioni specificate a partire dalla parte anteriore o posteriore di un token di input. Questo filtro di token viene implementato usando Apache Lucene.

EdgeNGramTokenizer

Tokenzza l'input da un bordo in n-grammi delle dimensioni specificate. Questo tokenizer viene implementato tramite Apache Lucene.

ElisionTokenFilter

Rimuove le elisioni. Ad esempio, "l'avion" (il piano) verrà convertito in "avion" (piano). Questo filtro di token viene implementato usando Apache Lucene.

EntityLinkingSkill

Usando l'API Analisi del testo, estrae le entità collegate dal testo.

EntityRecognitionSkill

Riconoscimento delle entità di Analisi del testo.

EntityRecognitionSkillV3

Usando l'API Analisi del testo, estrae entità di tipi diversi dal testo.

ExhaustiveKnnParameters

Contiene i parametri specifici dell'algoritmo KNN completo.

ExtractiveQueryAnswer

Estrae i candidati di risposta dal contenuto dei documenti restituiti in risposta a una query espressa come domanda in linguaggio naturale.

ExtractiveQueryCaption

Estrae le didascalie dai documenti corrispondenti che contengono passaggi rilevanti per la query di ricerca.

FacetResult

Un singolo bucket di un risultato della query facet. Segnala il numero di documenti con un valore di campo compreso in un determinato intervallo o con un determinato valore o intervallo.

FieldMapping

Definisce un mapping tra un campo in un'origine dati e un campo di destinazione in un indice.

FieldMappingFunction

Rappresenta una funzione che trasforma un valore da un'origine dati prima dell'indicizzazione.

FreshnessScoringFunction

Definisce una funzione che aumenta i punteggi in base al valore di un campo di data e ora.

FreshnessScoringParameters

Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di aggiornamento.

GetDocumentOptions

Opzioni per il recupero di un singolo documento.

HighWaterMarkChangeDetectionPolicy

Definisce un criterio di rilevamento delle modifiche dei dati che acquisisce le modifiche in base al valore di una colonna di contrassegno di acqua elevata.

HnswParameters

Contiene i parametri specifici dell'algoritmo hnsw.

ImageAnalysisSkill

Competenza che analizza i file di immagine. Estrae un set completo di funzionalità visive in base al contenuto dell'immagine.

IndexDocumentsClient

Client di documenti dell'indice

IndexDocumentsOptions

Opzioni per l'operazione di modifica batch dell'indice.

IndexDocumentsResult

Risposta contenente lo stato delle operazioni per tutti i documenti nella richiesta di indicizzazione.

IndexerExecutionResult

Rappresenta il risultato di una singola esecuzione dell'indicizzatore.

IndexingParameters

Rappresenta i parametri per l'esecuzione dell'indicizzatore.

IndexingParametersConfiguration

Dizionario di proprietà di configurazione specifiche dell'indicizzatore. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo.

IndexingResult

Stato di un'operazione di indicizzazione per un singolo documento.

IndexingSchedule

Rappresenta una pianificazione per l'esecuzione dell'indicizzatore.

InputFieldMappingEntry

Mapping dei campi di input per una competenza.

KeepTokenFilter

Filtro di token che mantiene solo i token con testo contenuto in un elenco specificato di parole. Questo filtro di token viene implementato usando Apache Lucene.

KeyPhraseExtractionSkill

Competenza che usa l'analisi del testo per l'estrazione di frasi chiave.

KeywordMarkerTokenFilter

Contrassegna i termini come parole chiave. Questo filtro di token viene implementato usando Apache Lucene.

KeywordTokenizer

Genera l'intero input come singolo token. Questo tokenizer viene implementato tramite Apache Lucene.

LanguageDetectionSkill

Competenza che rileva la lingua del testo di input e segnala un singolo codice linguistico per ogni documento inviato nella richiesta. Il codice della lingua è associato a un punteggio che indica l'attendibilità dell'analisi.

LengthTokenFilter

Rimuove parole troppo lunghe o troppo brevi. Questo filtro di token viene implementato usando Apache Lucene.

LimitTokenFilter

Limita il numero di token durante l'indicizzazione. Questo filtro di token viene implementato usando Apache Lucene.

ListSearchResultsPageSettings

Argomenti per il recupero della pagina successiva dei risultati della ricerca.

LuceneStandardAnalyzer

Analizzatore Apache Lucene standard; Composto dal tokenizer standard, dal filtro minuscolo e dal filtro di arresto.

LuceneStandardTokenizer

Interrompe il testo seguendo le regole di segmentazione del testo Unicode. Questo tokenizer viene implementato tramite Apache Lucene.

MagnitudeScoringFunction

Definisce una funzione che aumenta i punteggi in base alla grandezza di un campo numerico.

MagnitudeScoringParameters

Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di grandezza.

MappingCharFilter

Filtro di caratteri che applica i mapping definiti con l'opzione mapping. La corrispondenza è greedy (criteri di ricerca più lunghi in un determinato punto vince). La sostituzione può essere la stringa vuota. Questo filtro di caratteri viene implementato tramite Apache Lucene.

MergeSkill

Competenza per unire due o più stringhe in una singola stringa unificata, con un delimitatore facoltativo definito dall'utente che separa ogni parte del componente.

MicrosoftLanguageStemmingTokenizer

Divide il testo usando regole specifiche della lingua e riduce le parole alle relative forme di base.

MicrosoftLanguageTokenizer

Divide il testo usando regole specifiche della lingua.

NGramTokenFilter

Genera n-grammi delle dimensioni specificate. Questo filtro di token viene implementato usando Apache Lucene.

NGramTokenizer

Tokenzza l'input in n-grammi delle dimensioni specificate. Questo tokenizer viene implementato tramite Apache Lucene.

OcrSkill

Competenza che estrae testo dai file di immagine.

OutputFieldMappingEntry

Mapping dei campi di output per una competenza.

PIIDetectionSkill

Usando l'API Analisi del testo, estrae informazioni personali da un testo di input e offre la possibilità di mascherarla.

PathHierarchyTokenizer

Tokenizer per gerarchie simili al percorso. Questo tokenizer viene implementato tramite Apache Lucene.

PatternAnalyzer

Separa in modo flessibile il testo in termini tramite un criterio di espressione regolare. Questo analizzatore viene implementato usando Apache Lucene.

PatternCaptureTokenFilter

Usa espressioni regolari Java per generare più token, uno per ogni gruppo di acquisizione in uno o più modelli. Questo filtro di token viene implementato usando Apache Lucene.

PatternReplaceCharFilter

Filtro di caratteri che sostituisce i caratteri nella stringa di input. Usa un'espressione regolare per identificare le sequenze di caratteri da mantenere e un criterio di sostituzione per identificare i caratteri da sostituire. Ad esempio, dato il testo di input "aa bb aa bb", pattern "(aa)\s+(bb)" e sostituzione "$1#$2", il risultato sarà "aa#bb aa#bb". Questo filtro di caratteri viene implementato tramite Apache Lucene.

PatternReplaceTokenFilter

Filtro di caratteri che sostituisce i caratteri nella stringa di input. Usa un'espressione regolare per identificare le sequenze di caratteri da mantenere e un criterio di sostituzione per identificare i caratteri da sostituire. Ad esempio, dato il testo di input "aa bb aa bb", pattern "(aa)\s+(bb)" e sostituzione "$1#$2", il risultato sarà "aa#bb aa#bb". Questo filtro di token viene implementato usando Apache Lucene.

PatternTokenizer

Tokenizer che usa criteri regex corrispondenti per costruire token distinti. Questo tokenizer viene implementato tramite Apache Lucene.

PhoneticTokenFilter

Creare token per corrispondenze fonetiche. Questo filtro di token viene implementato usando Apache Lucene.

QueryAnswerResult

Una risposta è un passaggio di testo estratto dal contenuto dei documenti più rilevanti che corrispondono alla query. Le risposte vengono estratte dai primi risultati della ricerca. I candidati alle risposte vengono assegnati punteggi e vengono selezionate le risposte principali.

QueryCaptionResult

Le didascalie sono i passaggi più rappresentativi del documento relativamente alla query di ricerca. Vengono spesso usati come riepilogo dei documenti. Le didascalie vengono restituite solo per le query di tipo semantic.

ResourceCounter

Rappresenta l'utilizzo e la quota di una risorsa.

ScalarQuantizationCompression

Contiene opzioni di configurazione specifiche per il metodo di compressione della quantizzazione scalare usato durante l'indicizzazione e l'esecuzione di query.

ScalarQuantizationParameters

Contiene i parametri specifici della quantizzazione scalare.

ScoringProfile

Definisce i parametri per un indice di ricerca che influisce sul punteggio nelle query di ricerca.

SearchClientOptions

Opzioni client usate per configurare le richieste dell'API Ricerca cognitiva.

SearchDocumentsPageResult

Risposta contenente i risultati della pagina di ricerca da un indice.

SearchDocumentsResult

Risposta contenente i risultati della ricerca da un indice.

SearchDocumentsResultBase

Risposta contenente i risultati della ricerca da un indice.

SearchIndex

Rappresenta una definizione di indice di ricerca, che descrive i campi e il comportamento di ricerca di un indice.

SearchIndexClientOptions

Opzioni client usate per configurare le richieste dell'API Ricerca cognitiva.

SearchIndexStatistics

Statistiche per un determinato indice. Le statistiche vengono raccolte periodicamente e non sono sempre up-to-date.

SearchIndexer

Rappresenta un indicizzatore.

SearchIndexerClientOptions

Opzioni client usate per configurare le richieste dell'API Ricerca cognitiva.

SearchIndexerDataContainer

Rappresenta informazioni sull'entità, ad esempio la tabella SQL di Azure o la raccolta CosmosDB, che verranno indicizzate.

SearchIndexerDataNoneIdentity

Cancella la proprietà Identity di un'origine dati.

SearchIndexerDataSourceConnection

Rappresenta una definizione di origine dati, che può essere utilizzata per configurare un indicizzatore.

SearchIndexerDataUserAssignedIdentity

Specifica l'identità di un'origine dati da usare.

SearchIndexerError

Rappresenta un errore di indicizzazione a livello di elemento o documento.

SearchIndexerIndexProjection

Definizione di proiezioni aggiuntive agli indici di ricerca secondari.

SearchIndexerIndexProjectionParameters

Dizionario delle proprietà di configurazione specifiche della proiezione dell'indice. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo.

SearchIndexerIndexProjectionSelector

Descrizione dei dati da archiviare nell'indice di ricerca designato.

SearchIndexerKnowledgeStore

Definizione di proiezioni aggiuntive per BLOB, tabelle o file di azure di dati arricchiti.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Classe astratta per condividere le proprietà tra selettori concreti.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definizione di proiezione per i dati da archiviare in File di Azure.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definizione di proiezione per i dati da archiviare nel BLOB di Azure.

SearchIndexerKnowledgeStoreParameters

Dizionario delle proprietà di configurazione specifiche dell'archivio conoscenze. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo.

SearchIndexerKnowledgeStoreProjection

Oggetto contenitore per vari selettori di proiezione.

SearchIndexerKnowledgeStoreProjectionSelector

Classe astratta per condividere le proprietà tra selettori concreti.

SearchIndexerKnowledgeStoreTableProjectionSelector

Descrizione dei dati da archiviare nelle tabelle di Azure.

SearchIndexerLimits
SearchIndexerSkillset

Elenco di competenze.

SearchIndexerStatus

Rappresenta lo stato corrente e la cronologia di esecuzione di un indicizzatore.

SearchIndexerWarning

Rappresenta un avviso a livello di elemento.

SearchIndexingBufferedSenderOptions

Opzioni per SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Una chiave di crittografia gestita dal cliente in Azure Key Vault. Le chiavi create e gestite possono essere usate per crittografare o decrittografare i dati inattivi in Ricerca cognitiva di Azure, ad esempio indici e mappe sinonimi.

SearchServiceStatistics

Risposta da una richiesta di recupero delle statistiche del servizio. In caso di esito positivo, include contatori e limiti a livello di servizio.

SearchSuggester

Definisce il modo in cui l'API Suggerisci deve essere applicata a un gruppo di campi nell'indice.

SemanticConfiguration

Definisce una configurazione specifica da usare nel contesto delle funzionalità semantiche.

SemanticField

Campo utilizzato come parte della configurazione semantica.

SemanticPrioritizedFields

Descrive i campi titolo, contenuto e parole chiave da usare per la classificazione semantica, le didascalie, le evidenziazioni e le risposte.

SemanticSearch

Definisce i parametri per un indice di ricerca che influisce sulle funzionalità semantiche.

SemanticSearchOptions

Definisce le opzioni per le query di ricerca semantica

SentimentSkill

Analisi del testo analisi del sentiment positivo negativo, con un punteggio come valore a virgola mobile in un intervallo compreso tra zero e 1.

SentimentSkillV3

Usando l'API Analisi del testo, valuta il testo non strutturato e per ogni record, fornisce etichette del sentiment (ad esempio "negative", "neutral" e "positive") in base al punteggio di attendibilità più alto trovato dal servizio a livello di frase e documento.

ServiceCounters

Rappresenta i contatori e le quote delle risorse a livello di servizio.

ServiceLimits

Rappresenta vari limiti a livello di servizio.

ShaperSkill

Competenza per la ridevisione degli output. Crea un tipo complesso per supportare i campi compositi (noti anche come campi multipart).

ShingleTokenFilter

Crea combinazioni di token come singolo token. Questo filtro di token viene implementato usando Apache Lucene.

Similarity

Tipo di base per algoritmi di somiglianza. Gli algoritmi di somiglianza vengono usati per calcolare i punteggi che collegano le query ai documenti. Maggiore è il punteggio, più rilevante è il documento relativo a tale query specifica. Questi punteggi vengono usati per classificare i risultati della ricerca.

SimpleField

Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo.

SnowballTokenFilter

Filtro che deriva le parole usando uno stemmer generato da Snowball. Questo filtro di token viene implementato usando Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Definisce un criterio di rilevamento dell'eliminazione dei dati che implementa una strategia di eliminazione temporanea. Determina se un elemento deve essere eliminato in base al valore di una colonna "eliminazione temporanea" designata.

SplitSkill

Competenza per suddividere una stringa in blocchi di testo.

SqlIntegratedChangeTrackingPolicy

Definisce un criterio di rilevamento delle modifiche dei dati che acquisisce le modifiche usando la funzionalità Rilevamento modifiche integrato del database SQL di Azure.

StemmerOverrideTokenFilter

Consente di eseguire l'override di altri filtri di stemming con stemming basato su dizionario personalizzato. Tutti i termini con stemmy-stemming verranno contrassegnati come parole chiave in modo che non vengano stemmati lungo la catena. Deve essere posizionato prima di qualsiasi filtro di stemming. Questo filtro di token viene implementato usando Apache Lucene.

StemmerTokenFilter

Filtro di stemming specifico della lingua. Questo filtro di token viene implementato usando Apache Lucene.

StopAnalyzer

Divide il testo in corrispondenza di lettere non; Applica i filtri di token minuscoli e non significative. Questo analizzatore viene implementato usando Apache Lucene.

StopwordsTokenFilter

Rimuove le parole non significative da un flusso di token. Questo filtro di token viene implementato usando Apache Lucene.

SuggestDocumentsResult

Risposta contenente i risultati della query di suggerimento da un indice.

SuggestRequest

Parametri per il filtro, l'ordinamento, la corrispondenza fuzzy e altri comportamenti di query di suggerimenti.

SynonymMap

Rappresenta una definizione di mappa sinonimo.

SynonymTokenFilter

Trova la corrispondenza con sinonimi singoli o con più parole in un flusso di token. Questo filtro di token viene implementato usando Apache Lucene.

TagScoringFunction

Definisce una funzione che aumenta i punteggi dei documenti con valori stringa corrispondenti a un determinato elenco di tag.

TagScoringParameters

Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di tag.

TextTranslationSkill

Competenza per tradurre testo da una lingua a un'altra.

TextWeights

Definisce i pesi nei campi di indice per i quali le corrispondenze devono aumentare il punteggio nelle query di ricerca.

TruncateTokenFilter

Tronca i termini a una lunghezza specifica. Questo filtro di token viene implementato usando Apache Lucene.

UaxUrlEmailTokenizer

Tokenzza url e messaggi di posta elettronica come un token. Questo tokenizer viene implementato tramite Apache Lucene.

UniqueTokenFilter

Filtra i token con lo stesso testo del token precedente. Questo filtro di token viene implementato usando Apache Lucene.

VectorSearch

Contiene le opzioni di configurazione correlate alla ricerca vettoriale.

VectorSearchOptions

Definisce le opzioni per le query di ricerca vettoriale

VectorSearchProfile

Definisce una combinazione di configurazioni da usare con la ricerca vettoriale.

VectorizableTextQuery

Parametri di query da usare per la ricerca vettoriale quando viene fornito un valore di testo che deve essere vettorializzato.

VectorizedQuery

Parametri di query da usare per la ricerca vettoriale quando viene specificato un valore di vettore non elaborato.

WebApiParameters

Specifica le proprietà per la connessione a un vettore definito dall'utente.

WebApiSkill

Una competenza che può chiamare un endpoint API Web, consentendo di estendere un set di competenze tramite la chiamata al codice personalizzato.

WebApiVectorizer

Specifica un vettore definito dall'utente per generare l'incorporamento del vettore di una stringa di query. L'integrazione di un vettore esterno viene ottenuta usando l'interfaccia API Web personalizzata di un set di competenze.

WordDelimiterTokenFilter

Suddivide le parole in parole secondarie ed esegue trasformazioni facoltative nei gruppi di sottoword. Questo filtro di token viene implementato usando Apache Lucene.

Alias tipo

AnalyzeTextOptions

Opzioni per l'operazione di analisi del testo.

AutocompleteMode

Definisce i valori per AutocompleteMode.

AutocompleteOptions

Opzioni per il recupero del testo di completamento per un oggetto searchText parziale.

AzureOpenAIModelName

Definisce i valori per AzureOpenAIModelName.
KnownAzureOpenAIModelName può essere usato in modo intercambiabile con AzureOpenAIModelName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

text-embedding-ada-002
text-embedding-3 di grandi dimensioni
con incorporamento di testo-3

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Contiene i casi possibili per CharFilter.

CharFilterName

Definisce i valori per CharFilterName.
<xref:KnownCharFilterName> può essere usato in modo intercambiabile con CharFilterName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

html_strip: filtro di caratteri che tenta di rimuovere i costrutti HTML. Vedere https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Definisce i valori per CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Contiene i casi possibili per CognitiveServicesAccount.

ComplexDataType

Definisce i valori per ComplexDataType. I valori possibili includono: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Opzioni per l'esecuzione dell'operazione di conteggio sull'indice.

CreateDataSourceConnectionOptions

Opzioni per l'operazione di creazione dell'origine dati.

CreateIndexOptions

Opzioni per l'operazione di creazione dell'indice.

CreateIndexerOptions

Opzioni per l'operazione di creazione dell'indicizzatore.

CreateSkillsetOptions

Opzioni per creare un'operazione del set di competenze.

CreateSynonymMapOptions

Opzioni per creare l'operazione synonymmap.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Contiene i casi possibili per DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contiene i casi possibili per DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opzioni per l'operazione di eliminazione dei documenti.

EdgeNGramTokenFilterSide

Definisce i valori per EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contiene opzioni di configurazione specifiche dell'algoritmo KNN completo usato durante l'esecuzione di query, che eseguirà la ricerca di forza bruta nell'intero indice vettoriale.

ExtractDocumentKey
GetDataSourceConnectionOptions

Opzioni per l'operazione get datasource.

GetIndexOptions

Opzioni per l'operazione get index.

GetIndexStatisticsOptions

Opzioni per l'operazione get index statistics.

GetIndexerOptions

Opzioni per l'operazione get indexer.

GetIndexerStatusOptions

Opzioni per l'operazione di recupero dello stato dell'indicizzatore.

GetServiceStatisticsOptions

Opzioni per l'operazione di recupero delle statistiche del servizio.

GetSkillSetOptions

Opzioni per l'operazione get skillset.

GetSynonymMapsOptions

Opzioni per l'operazione get synonymmaps.

HnswAlgorithmConfiguration

Contiene opzioni di configurazione specifiche dell'algoritmo hnsw approssimato vicino usato durante l'indicizzazione.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Definisce i valori per IndexActionType.

IndexDocumentsAction

Rappresenta un'azione di indice che opera su un documento.

IndexIterator

Iteratore per elencare gli indici esistenti nel servizio di ricerca. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione.

IndexNameIterator

Iteratore per elencare gli indici esistenti nel servizio di ricerca. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione.

IndexProjectionMode

Definisce i valori per IndexProjectionMode.
KnownIndexProjectionMode può essere usato in modo intercambiabile con IndexProjectionMode, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

skipIndexingParentDocuments: il documento di origine verrà ignorato dalla scrittura nell'indice di destinazione dell'indicizzatore.
includeIndexingParentDocuments: il documento di origine verrà scritto nell'indice di destinazione dell'indicizzatore. Questo è il modello predefinito.

IndexerExecutionEnvironment
IndexerExecutionStatus

Definisce i valori per IndexerExecutionStatus.

IndexerStatus

Definisce i valori per IndexerStatus.

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

Contiene i possibili casi per Analyzer.

LexicalAnalyzerName

Definisce i valori per LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> può essere usato in modo intercambiabile con LexicalAnalyzerName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

ar.microsoft: Analizzatore Microsoft per l'arabo.
ar.lucene: analizzatore Lucene per l'arabo.
hy.lucene: analizzatore Lucene per armeno.
bn.microsoft: Analizzatore Microsoft per Bangla.
eu.lucene: analizzatore Lucene per basco.
bg.microsoft: Analizzatore Microsoft per bulgaro.
bg.lucene: analizzatore Lucene per bulgaro.
ca.microsoft: Analizzatore Microsoft per catalano.
ca.lucene: analizzatore Lucene per catalano.
zh-Hans.microsoft: Analizzatore Microsoft per il cinese (semplificato).
zh-Hans.lucene: analizzatore Lucene per il cinese (semplificato).
zh-Hant.microsoft: Analizzatore Microsoft per il cinese (tradizionale).
zh-Hant.lucene: analizzatore Lucene per il cinese (tradizionale).
hr.microsoft: Analizzatore Microsoft per croato.
cs.microsoft: Analizzatore Microsoft per ceco.
cs.lucene: analizzatore Lucene per ceco.
da.microsoft: Analizzatore Microsoft per danese.
da.lucene: analizzatore Lucene per danese.
nl.microsoft: Analizzatore Microsoft per olandese.
nl.lucene: analizzatore Lucene per olandese.
en.microsoft: Analizzatore Microsoft per l'inglese.
en.lucene: analizzatore Lucene per l'inglese.
et.microsoft: Analizzatore Microsoft per estone.
fi.microsoft: Analizzatore Microsoft per il finlandese.
fi.lucene: analizzatore Lucene per il finlandese.
fr.microsoft: Analizzatore Microsoft per il francese.
fr.lucene: analizzatore Lucene per francese.
gl.lucene: analizzatore Lucene per la Galizia.
de.microsoft: Analizzatore Microsoft per il tedesco.
de.lucene: analizzatore Lucene per tedesco.
el.microsoft: Analizzatore Microsoft per greco.
el.lucene: analizzatore Lucene per greco.
gu.microsoft: Analizzatore Microsoft per Gujarati.
he.microsoft: Analizzatore Microsoft per l'ebraico.
hi.microsoft: Analizzatore Microsoft per Hindi.
hi.lucene: analizzatore Lucene per hindi.
hu.microsoft: Analizzatore Microsoft per ungherese.
hu.lucene: analizzatore Lucene per ungherese.
is.microsoft: Analizzatore Microsoft per islandese.
id.microsoft: Analizzatore Microsoft per Indonesiano (Bahasa).
id.lucene: analizzatore Lucene per indonesiano.
ga.lucene: analizzatore Lucene per irlandese.
it.microsoft: Analizzatore Microsoft per italiano.
it.lucene: analizzatore Lucene per l'italiano.
ja.microsoft: Analizzatore Microsoft per il giapponese.
ja.lucene: analizzatore Lucene per il giapponese.
kn.microsoft: Analizzatore Microsoft per Kannada.
ko.microsoft: Analizzatore Microsoft per coreano.
ko.lucene: analizzatore Lucene per il coreano.
lv.microsoft: Analizzatore Microsoft per lettone.
lv.lucene: analizzatore Lucene per lettone.
lt.microsoft: Analizzatore Microsoft per lituano.
ml.microsoft: Analizzatore Microsoft per Malayalam.
ms.microsoft: Analizzatore Microsoft per la malaia (alfabeto latino).
mr.microsoft: Analizzatore Microsoft per Marathi.
nb.microsoft: Analizzatore Microsoft per Norvegese (Bokmål).
no.lucene: analizzatore Lucene per norvegese.
fa.lucene: analizzatore Lucene per persiano.
pl.microsoft: Analizzatore Microsoft per polacco.
pl.lucene: analizzatore Lucene per polacco.
pt-BR.microsoft: Analizzatore Microsoft per portoghese (Brasile).
pt-BR.lucene: analizzatore Lucene per portoghese (Brasile).
pt-PT.microsoft: Analizzatore Microsoft per portoghese (Portogallo).
pt-PT.lucene: analizzatore Lucene per portoghese (Portogallo).
pa.microsoft: Analizzatore Microsoft per Punjabi.
ro.microsoft: Analizzatore Microsoft per romeno.
ro.lucene: analizzatore Lucene per romeno.
ru.microsoft: analizzatore Microsoft per russo.
ru.lucene: analizzatore Lucene per russo.
sr-cyrillic.microsoft: Analizzatore Microsoft per serbo (cirillico).
sr-latin.microsoft: Analizzatore Microsoft per serbo (alfabeto latino).
sk.microsoft: Analizzatore Microsoft per slovacco.
sl.microsoft: Analizzatore Microsoft per sloveno.
es.microsoft: Analizzatore Microsoft per spagnolo.
es.lucene: analizzatore Lucene per spagnolo.
sv.microsoft: Analizzatore Microsoft per svedese.
sv.lucene: analizzatore Lucene per svedese.
ta.microsoft: Analizzatore Microsoft per Il Tamil.
te.microsoft: Analizzatore Microsoft per Telugu.
th.microsoft: Analizzatore Microsoft per thai.
th.lucene: analizzatore Lucene per thai.
tr.microsoft: Analizzatore Microsoft per turco.
tr.lucene: analizzatore Lucene per turco.
uk.microsoft: Analizzatore Microsoft per ucraino.
your.microsoft: Analizzatore Microsoft per Urdu.
vi.microsoft: Analizzatore Microsoft per vietnamita.
standard.lucene: analizzatore Lucene standard.
standardasciifolding.lucene: analizzatore Lucene con riduzione standard ASCII. Vedere https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
parola chiave: considera l'intero contenuto di un campo come un singolo token. Ciò è utile per i dati, ad esempio i codici postali, gli ID e alcuni nomi di prodotto. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
modello: separa in modo flessibile il testo in termini tramite un criterio di espressione regolare. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
semplice: divide il testo in lettere non e li converte in lettere minuscole. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop: divide il testo in corrispondenza di non lettere; Applica i filtri di token minuscoli e non significative. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
spazi vuoti: analizzatore che usa il tokenizzatore di spazi vuoti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Contiene i casi possibili per Tokenizer.

LexicalTokenizerName

Definisce i valori per LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> può essere usato in modo intercambiabile con LexicalTokenizerName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

classico: tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: tokenzza l'input da un bordo in n grammi delle dimensioni specificate. Vedere https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: genera l'intero input come singolo token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
lettera: divide il testo in corrispondenza di lettere non. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
minuscolo: divide il testo in lettere non maiuscole e le converte in lettere minuscole. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: divide il testo usando regole specifiche della lingua.
microsoft_language_stemming_tokenizer: divide il testo usando regole specifiche della lingua e riduce le parole nelle relative forme di base.
nGram: tokenzza l'input in n-grammi delle dimensioni specificate. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: tokenizzatore per gerarchie simili al percorso. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
modello: tokenizer che usa criteri regex corrispondenti per costruire token distinti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: analizzatore Lucene standard; Composto dal tokenizer standard, dal filtro minuscolo e dal filtro di arresto. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: tokenzza url e messaggi di posta elettronica come un token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
spazi vuoti: divide il testo in corrispondenza degli spazi vuoti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Opzioni per un'operazione di elenco delle origini dati.

ListIndexersOptions

Opzioni per un'operazione degli indicizzatori di elenco.

ListIndexesOptions

Opzioni per un'operazione sugli indici di elenco.

ListSkillsetsOptions

Opzioni per un'operazione di set di competenze di elenco.

ListSynonymMapsOptions

Opzioni per un'operazione list synonymMaps.

MergeDocumentsOptions

Opzioni per l'operazione di unione dei documenti.

MergeOrUploadDocumentsOptions

Opzioni per l'operazione di unione o caricamento di documenti.

MicrosoftStemmingTokenizerLanguage

Definisce i valori per MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Definisce i valori per MicrosoftTokenizerLanguage.

NarrowedModel

Restringe il tipo di modello in modo da includere solo i campi selezionati

OcrLineEnding

Definisce i valori per OcrLineEnding.
KnownOcrLineEnding può essere usato in modo intercambiabile con OcrLineEnding, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

spazio: le righe sono separate da un singolo carattere di spazio.
capoReturn: le righe sono separate da un ritorno a capo ('\r').
rigaFeed: le righe sono separate da un singolo avanzamento riga ('\n').
capoReturnLineFeed: le righe sono separate da un ritorno a capo e da un avanzamento riga ('\r\n').

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Definisce i valori per PhoneticEncoder.

QueryAnswer

Valore che specifica se le risposte devono essere restituite come parte della risposta di ricerca. Questo parametro è valido solo se il tipo di query è 'semantic'. Se impostato su extractive, la query restituisce le risposte estratte dai passaggi chiave nei documenti classificati più alti.

QueryCaption

Valore che specifica se le didascalie devono essere restituite come parte della risposta di ricerca. Questo parametro è valido solo se il tipo di query è 'semantic'. Se impostata, la query restituisce le didascalie estratte dai passaggi chiave nei documenti classificati più alti. Quando captions è "estratto", l'evidenziazione è abilitata per impostazione predefinita. Il valore predefinito è 'none'.

QueryType

Definisce i valori per QueryType.

RegexFlags
ResetIndexerOptions

Opzioni per reimpostare l'operazione dell'indicizzatore.

RunIndexerOptions

Opzioni per l'esecuzione dell'operazione dell'indicizzatore.

ScoringFunction

Contiene i possibili casi per ScoringFunction.

ScoringFunctionAggregation

Definisce i valori per ScoringFunctionAggregation.

ScoringFunctionInterpolation

Definisce i valori per ScoringFunctionInterpolation.

ScoringStatistics

Definisce i valori per ScoringStatistics.

SearchField

Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo.

SearchFieldArray

Se TModel è un oggetto non tipizzato, una matrice di stringhe non tipizzata In caso contrario, i campi delimitati da barre di TModel.

SearchFieldDataType

Definisce i valori per SearchFieldDataType.

Valori noti supportati dal servizio:

Edm.String: indica che un campo contiene una stringa.

Edm.Int32: indica che un campo contiene un intero con segno a 32 bit.

Edm.Int64: indica che un campo contiene un intero con segno a 64 bit.

Edm.Double: indica che un campo contiene un numero a virgola mobile a precisione doppia IEEE.

Edm.Boolean: indica che un campo contiene un valore booleano (true o false).

Edm.DateTimeOffset: indica che un campo contiene un valore di data/ora, incluse le informazioni sul fuso orario.

Edm.GeographyPoint: indica che un campo contiene una posizione geografica in termini di longitudine e latitudine.

Edm.ComplexType: indica che un campo contiene uno o più oggetti complessi che a loro volta hanno sottocampi di altri tipi.

Edm.Single: indica che un campo contiene un numero a virgola mobile a precisione singola. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Single).

Edm.Half: indica che un campo contiene un numero a virgola mobile a metà precisione. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Half).

Edm.Int16: indica che un campo contiene un intero con segno a 16 bit. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Int16).

Edm.SByte: indica che un campo contiene un intero con segno a 8 bit. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.SByte).

Edm.Byte: indica che un campo contiene un intero senza segno a 8 bit. Questa opzione è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Byte).

SearchIndexerDataIdentity

Contiene i possibili casi per SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Contiene i possibili casi per Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opzioni per SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opzioni per SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opzioni per SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opzioni per SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opzioni per SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Iteratore per i risultati della ricerca di una query paticolare. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione.

SearchMode

Definisce i valori per SearchMode.

SearchOptions

Opzioni per il commit di una richiesta di ricerca completa.

SearchPick

Selezionare in modo approfondito i campi di T usando percorsi OData di Ricerca cognitiva validi $select.

SearchRequestOptions

Parametri per il filtro, l'ordinamento, il facet, il paging e altri comportamenti delle query di ricerca.

SearchRequestQueryTypeOptions
SearchResult

Contiene un documento trovato da una query di ricerca, oltre ai metadati associati.

SelectArray

Se TFields non è mai, una matrice di stringhe non tipizzata In caso contrario, un tipo di Fields[] ristretto da utilizzare altrove nel tipo di utilizzo.

SelectFields

Produce un'unione di percorsi OData di Ricerca cognitiva validi $select per T usando un attraversamento post-ordine dell'albero dei campi radicato in T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

Contiene i possibili casi di somiglianza.

SnowballTokenFilterLanguage

Definisce i valori per SnowballTokenFilterLanguage.

SplitSkillLanguage
StemmerTokenFilterLanguage

Definisce i valori per StemmerTokenFilterLanguage.

StopwordsList

Definisce i valori per StopwordsList.

SuggestNarrowedModel
SuggestOptions

Opzioni per il recupero di suggerimenti in base a searchText.

SuggestResult

Risultato contenente un documento trovato da una query di suggerimento, oltre ai metadati associati.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Definisce i valori per TokenCharacterKind.

TokenFilter

Contiene i casi possibili per TokenFilter.

TokenFilterName

Definisce i valori per TokenFilterName.
<xref:KnownTokenFilterName> può essere usato in modo intercambiabile con TokenFilterName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

arabic_normalization: filtro token che applica il normalizzatore arabo per normalizzare l'ortografia. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrofo: rimuove tutti i caratteri dopo un apostrofo (incluso l'apostrofo stesso). Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: converte caratteri Unicode alfabetici, numerici e simbolici che non sono nei primi 127 caratteri ASCII (blocco Unicode "Latino di base") nei rispettivi equivalenti ASCII, se tali equivalenti esistono. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: forma bigram dei termini CJK generati dal tokenizer standard. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: normalizza le differenze di larghezza CJK. Piega le varianti fullwidth ASCII nell'equivalente alfabeto latino di base e le varianti Katakana a metà larghezza nell'equivalente Kana. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
classico: rimuove i possessivi inglesi e i punti dagli acronimi. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: costruisci bigram per i termini che si verificano di frequente durante l'indicizzazione. Anche i termini singoli sono indicizzati, con bigrams sovrapposti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: genera n-grammi delle dimensioni specificate a partire dalla parte anteriore o posteriore di un token di input. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
l'elisione: rimuove le elisioni. Ad esempio, "l'avion" (il piano) verrà convertito in "avion" (piano). Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: normalizza i caratteri tedeschi in base all'euristica dell'algoritmo german2 snowball. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: normalizza il testo in hindi per rimuovere alcune differenze nelle varianti ortografiche. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normalizza la rappresentazione Unicode del testo nelle lingue indiane. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: genera ogni token in ingresso due volte, una volta come parola chiave e una volta come parola chiave non. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: filtro kstem ad alte prestazioni per l'inglese. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
lunghezza: rimuove le parole troppo lunghe o troppo brevi. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limite: limita il numero di token durante l'indicizzazione. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
minuscolo: normalizza il testo del token in lettere minuscole. Vedere https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: genera n-grammi delle dimensioni specificate. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: applica la normalizzazione per il persiano. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetico: creare token per corrispondenze fonetiche. Vedere https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: usa l'algoritmo stemming Porter per trasformare il flusso del token. Vedere http://tartarus.org/~martin/PorterStemmer
inverso: inverte la stringa del token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: normalizza l'uso dei caratteri scandinavi intercambiabili. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: piega i caratteri scandinavi åÅäæÄÆ->a e öÖøØ->o. Inoltre discrimina l'uso di vocali doppie aa, ae, ao, oe e oo, lasciando solo il primo. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
: crea combinazioni di token come token singolo. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
palla di neve: filtro che deriva le parole usando uno stemmer generato da Snowball. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: normalizza la rappresentazione Unicode del testo Sorani. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: filtro stemming specifico del linguaggio. Vedere https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
parole non significative: rimuove le parole non significative da un flusso di token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
tagliare: taglia gli spazi vuoti iniziali e finali dai token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
tronca: tronca i termini a una lunghezza specifica. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
univoci: filtra i token con lo stesso testo del token precedente. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
maiuscole: normalizza il testo del token in lettere maiuscole. Vedere https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: suddivide le parole in parole secondarie ed esegue trasformazioni facoltative nei gruppi di sottoword.

UnionToIntersection
UploadDocumentsOptions

Opzioni per l'operazione di caricamento dei documenti.

VectorEncodingFormat

Definisce i valori per VectorEncodingFormat.
KnownVectorEncodingFormat può essere usato in modo intercambiabile con VectorEncodingFormat, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

packedBit: formato di codifica che rappresenta i bit compressi in un tipo di dati più ampio.

VectorFilterMode
VectorQuery

Parametri di query per le query di ricerca ibrida e vettoriali.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contiene opzioni di configurazione specifiche dell'algoritmo utilizzato durante l'indicizzazione e/o l'esecuzione di query.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Contiene opzioni di configurazione specifiche del metodo di compressione utilizzato durante l'indicizzazione o l'esecuzione di query.

VectorSearchCompressionKind

Definisce i valori per VectorSearchCompressionKind.
KnownVectorSearchCompressionKind può essere usato in modo intercambiabile con VectorSearchCompressionKind, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

scalarQuantization: Quantizzazione scalare, un tipo di metodo di compressione. Nella quantizzazione scalare, i valori dei vettori originali vengono compressi in un tipo più stretto discretizzando e rappresentando ogni componente di un vettore usando un set ridotto di valori quantizzati, riducendo così le dimensioni complessive dei dati.
binaryQuantization: Quantizzazione binaria, un tipo di metodo di compressione. Nella quantizzazione binaria, i valori dei vettori originali vengono compressi nel tipo binario più ristretto discretizzando e rappresentando ogni componente di un vettore usando valori binari, riducendo così le dimensioni complessive dei dati.

VectorSearchCompressionTarget

Definisce i valori per VectorSearchCompressionTarget.
KnownVectorSearchCompressionTarget può essere usato in modo intercambiabile con VectorSearchCompressionTarget, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

int8

VectorSearchVectorizer

Contiene opzioni di configurazione su come vettorizzare le query vettoriali di testo.

VectorSearchVectorizerKind

Definisce i valori per VectorSearchVectorizerKind.
KnownVectorSearchVectorizerKind può essere usato in modo intercambiabile con VectorSearchVectorizerKind, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

azureOpenAI: generare incorporamenti usando una risorsa OpenAI di Azure in fase di query.
customWebApi: generare incorporamenti usando un endpoint Web personalizzato in fase di query.

VisualFeature

Enumerazioni

KnownAnalyzerNames

Definisce i valori per AnalyzerName. Vedere https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Valori noti di AzureOpenAIModelName accettati dal servizio.

KnownBlobIndexerDataToExtract

Valori noti di BlobIndexerDataToExtract accettati dal servizio.

KnownBlobIndexerImageAction

Valori noti di BlobIndexerImageAction accettati dal servizio.

KnownBlobIndexerPDFTextRotationAlgorithm

Valori noti di BlobIndexerPDFTextRotationAlgorithm accettati dal servizio.

KnownBlobIndexerParsingMode

Valori noti di BlobIndexerParsingMode accettati dal servizio.

KnownCharFilterNames

Valori noti di CharFilterName accettati dal servizio.

KnownCustomEntityLookupSkillLanguage

Valori noti di CustomEntityLookupSkillLanguage accettati dal servizio.

KnownEntityCategory

Valori noti di EntityCategory accettati dal servizio.

KnownEntityRecognitionSkillLanguage

Valori noti di EntityRecognitionSkillLanguage accettati dal servizio.

KnownImageAnalysisSkillLanguage

Valori noti di ImageAnalysisSkillLanguage accettati dal servizio.

KnownImageDetail

Valori noti di ImageDetail accettati dal servizio.

KnownIndexProjectionMode

Valori noti di IndexProjectionMode accettati dal servizio.

KnownIndexerExecutionEnvironment

Valori noti di IndexerExecutionEnvironment accettati dal servizio.

KnownKeyPhraseExtractionSkillLanguage

Valori noti di KeyPhraseExtractionSkillLanguage accettati dal servizio.

KnownOcrLineEnding

Valori noti di OcrLineEnding accettati dal servizio.

KnownOcrSkillLanguage

Valori noti di OcrSkillLanguage accettati dal servizio.

KnownPIIDetectionSkillMaskingMode

Valori noti di PIIDetectionSkillMaskingMode accettati dal servizio.

KnownRegexFlags

Valori noti di RegexFlags accettati dal servizio.

KnownSearchAudience

Valori noti per il gruppo di destinatari di ricerca

KnownSearchFieldDataType

Valori noti di SearchFieldDataType accettati dal servizio.

KnownSearchIndexerDataSourceType

Valori noti di SearchIndexerDataSourceType accettati dal servizio.

KnownSemanticErrorMode

Valori noti di SemanticErrorMode accettati dal servizio.

KnownSemanticErrorReason

Valori noti di SemanticErrorReason accettati dal servizio.

KnownSemanticSearchResultsType

Valori noti di SemanticSearchResultsType accettati dal servizio.

KnownSentimentSkillLanguage

Valori noti di SentimentSkillLanguage accettati dal servizio.

KnownSplitSkillLanguage

Valori noti di SplitSkillLanguage accettati dal servizio.

KnownTextSplitMode

Valori noti di TextSplitMode accettati dal servizio.

KnownTextTranslationSkillLanguage

Valori noti di TextTranslationSkillLanguage accettati dal servizio.

KnownTokenFilterNames

Valori noti di TokenFilterName accettati dal servizio.

KnownTokenizerNames

Valori noti di LexicalTokenizerName accettati dal servizio.

KnownVectorEncodingFormat

Valori noti di VectorEncodingFormat accettati dal servizio.

KnownVectorFilterMode

Valori noti di VectorFilterMode accettati dal servizio.

KnownVectorQueryKind

Valori noti di VectorQueryKind accettati dal servizio.

KnownVectorSearchAlgorithmKind

Valori noti di VectorSearchAlgorithmKind accettati dal servizio.

KnownVectorSearchAlgorithmMetric

Valori noti di VectorSearchAlgorithmMetric accettati dal servizio.

KnownVectorSearchCompressionKind

Valori noti di VectorSearchCompressionKind accettati dal servizio.

KnownVectorSearchCompressionTarget

Valori noti di VectorSearchCompressionTarget accettati dal servizio.

KnownVectorSearchVectorizerKind

Valori noti di VectorSearchVectorizerKind accettati dal servizio.

KnownVisualFeature

Valori noti di VisualFeature accettati dal servizio.

Funzioni

createSynonymMapFromFile(string, string)

Metodo helper per creare un oggetto SynonymMap. Si tratta di un metodo solo NodeJS.

odata(TemplateStringsArray, unknown[])

Esegue l'escape di un'espressione di filtro odata per evitare errori con valori letterali stringa tra virgolette. Esempio di utilizzo:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Per altre informazioni sulla sintassi supportata, vedere: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Dettagli funzione

createSynonymMapFromFile(string, string)

Metodo helper per creare un oggetto SynonymMap. Si tratta di un metodo solo NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parametri

name

string

Nome dell'oggetto SynonymMap.

filePath

string

Percorso del file che contiene i sinonimi (separati da nuove righe)

Restituisce

Promise<SynonymMap>

Oggetto SynonymMap

odata(TemplateStringsArray, unknown[])

Esegue l'escape di un'espressione di filtro odata per evitare errori con valori letterali stringa tra virgolette. Esempio di utilizzo:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Per altre informazioni sulla sintassi supportata, vedere: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parametri

strings

TemplateStringsArray

Matrice di stringhe per l'espressione

values

unknown[]

Matrice di valori per l'espressione

Restituisce

string