@azure/search-documents package
Classi
AzureKeyCredential |
Credenziali basate su chiavi statiche che supportano l'aggiornamento del valore della chiave sottostante. |
GeographyPoint |
Rappresenta un punto geografico nelle coordinate globali. |
IndexDocumentsBatch |
Classe usata per eseguire operazioni batch con più documenti nell'indice. |
SearchClient |
Classe usata per eseguire operazioni su un indice di ricerca, inclusa l'esecuzione di query sui documenti nell'indice, nonché l'aggiunta, l'aggiornamento e la rimozione di tali documenti. |
SearchIndexClient |
Classe per eseguire operazioni per gestire (creare, aggiornare, elencare/eliminare) indici, & mapping sinonimi. |
SearchIndexerClient |
Classe per eseguire operazioni per gestire (creare, aggiornare, elencare/eliminare) indicizzatori, origini dati & set di competenze. |
SearchIndexingBufferedSender |
Classe usata per eseguire operazioni memorizzate nel buffer su un indice di ricerca, tra cui l'aggiunta, l'aggiornamento e la rimozione. |
Interfacce
AnalyzeRequest |
Specifica alcuni componenti di testo e analisi usati per suddividere il testo in token. |
AnalyzeResult |
Risultato del test di un analizzatore sul testo. |
AnalyzedTokenInfo |
Informazioni su un token restituito da un analizzatore. |
AsciiFoldingTokenFilter |
Converte caratteri Unicode alfabetici, numerici e simbolici che non si trovano nei primi 127 caratteri ASCII (blocco Unicode "Latino di base") nei rispettivi equivalenti ASCII, se tali equivalenti esistono. Questo filtro di token viene implementato usando Apache Lucene. |
AutocompleteItem |
Risultato delle richieste di completamento automatico. |
AutocompleteRequest |
Parametri per la corrispondenza fuzzy e altri comportamenti di query di completamento automatico. |
AutocompleteResult |
Risultato della query di completamento automatico. |
AzureActiveDirectoryApplicationCredentials |
Credenziali di un'applicazione registrata creata per il servizio di ricerca, usata per l'accesso autenticato alle chiavi di crittografia archiviate in Azure Key Vault. |
AzureOpenAIEmbeddingSkill |
Consente di generare un'incorporamento vettoriale per un input di testo specificato usando la risorsa OpenAI di Azure. |
AzureOpenAIParameters |
Contiene i parametri specifici dell'uso di un servizio Azure Open AI per la vettorizzazione in fase di query. |
AzureOpenAIVectorizer |
Contiene i parametri specifici dell'uso di un servizio Azure Open AI per la vettorizzazione in fase di query. |
BM25Similarity |
Funzione di classificazione basata sull'algoritmo di somiglianza okapi BM25. BM25 è un algoritmo simile a TF-IDF che include la normalizzazione della lunghezza (controllata dal parametro 'b'), nonché la saturazione della frequenza dei termini (controllata dal parametro 'k1'). |
BaseCharFilter |
Tipo di base per i filtri di caratteri. |
BaseCognitiveServicesAccount |
Tipo di base per descrivere qualsiasi risorsa del servizio di intelligenza artificiale di Azure collegata a un set di competenze. |
BaseDataChangeDetectionPolicy |
Tipo di base per i criteri di rilevamento delle modifiche dei dati. |
BaseDataDeletionDetectionPolicy |
Tipo di base per i criteri di rilevamento dell'eliminazione dei dati. |
BaseLexicalAnalyzer |
Tipo di base per gli analizzatori. |
BaseLexicalTokenizer |
Tipo di base per i tokenizer. |
BaseScoringFunction |
Tipo di base per le funzioni che possono modificare i punteggi del documento durante la classificazione. |
BaseSearchIndexerDataIdentity |
Tipo di base astratto per le identità dei dati. |
BaseSearchIndexerSkill |
Tipo di base per le competenze. |
BaseSearchRequestOptions |
Parametri per il filtro, l'ordinamento, il facet, il paging e altri comportamenti delle query di ricerca. |
BaseTokenFilter |
Tipo di base per i filtri di token. |
BaseVectorQuery |
Parametri di query per le query di ricerca ibrida e vettoriali. |
BaseVectorSearchAlgorithmConfiguration |
Contiene opzioni di configurazione specifiche dell'algoritmo utilizzato durante l'indicizzazione e/o l'esecuzione di query. |
BaseVectorSearchCompression |
Contiene opzioni di configurazione specifiche del metodo di compressione utilizzato durante l'indicizzazione o l'esecuzione di query. |
BaseVectorSearchVectorizer |
Contiene dettagli specifici per un metodo di vettorizzazione da usare durante il tempo di query. |
BinaryQuantizationCompression |
Contiene opzioni di configurazione specifiche per il metodo di compressione della quantizzazione binaria usato durante l'indicizzazione e l'esecuzione di query. |
CjkBigramTokenFilter |
Forma bigrams dei termini CJK generati dal tokenizer standard. Questo filtro di token viene implementato usando Apache Lucene. |
ClassicSimilarity |
Algoritmo di somiglianza legacy che usa l'implementazione lucene TFIDFSimilarity di TF-IDF. Questa variazione di TF-IDF introduce la normalizzazione statica della lunghezza del documento, nonché fattori di coordinamento che penalizzano i documenti che corrispondono solo parzialmente alle query sottoposte a ricerca. |
ClassicTokenizer |
Tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Questo tokenizer viene implementato tramite Apache Lucene. |
CognitiveServicesAccountKey |
Chiave dell'account in più aree di una risorsa del servizio azure per intelligenza artificiale collegata a un set di competenze. |
CommonGramTokenFilter |
Costruisci bigram per i termini che si verificano di frequente durante l'indicizzazione. Anche i termini singoli sono indicizzati, con bigrams sovrapposti. Questo filtro di token viene implementato usando Apache Lucene. |
ComplexField |
Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo. |
ConditionalSkill |
Competenza che consente scenari che richiedono un'operazione booleana per determinare i dati da assegnare a un output. |
CorsOptions |
Definisce le opzioni per controllare la condivisione di risorse tra le origini (CORS) per un indice. |
CreateOrUpdateIndexOptions |
Opzioni per l'operazione di creazione/aggiornamento dell'indice. |
CreateOrUpdateSkillsetOptions |
Opzioni per l'operazione di creazione/aggiornamento del set di competenze. |
CreateOrUpdateSynonymMapOptions |
Opzioni per l'operazione create/update synonymmap. |
CreateorUpdateDataSourceConnectionOptions |
Opzioni per l'operazione di creazione/aggiornamento dell'origine dati. |
CreateorUpdateIndexerOptions |
Opzioni per l'operazione di creazione/aggiornamento dell'indicizzatore. |
CustomAnalyzer |
Consente di assumere il controllo del processo di conversione del testo in token indicizzabili/ricercabili. Si tratta di una configurazione definita dall'utente costituita da un singolo tokenizzatore predefinito e uno o più filtri. Il tokenizer è responsabile dell'interruzione del testo nei token e dei filtri per la modifica dei token generati dal tokenizer. |
CustomEntity |
Oggetto che contiene informazioni sulle corrispondenze trovate e sui metadati correlati. |
CustomEntityAlias |
Oggetto complesso che può essere usato per specificare ortografia o sinonimi alternativi per il nome dell'entità radice. |
CustomEntityLookupSkill |
Una competenza cerca testo da un elenco personalizzato definito dall'utente di parole e frasi. |
DefaultCognitiveServicesAccount |
Oggetto vuoto che rappresenta la risorsa predefinita del servizio di intelligenza artificiale di Azure per un set di competenze. |
DeleteDataSourceConnectionOptions |
Opzioni per l'operazione di eliminazione dell'origine dati. |
DeleteIndexOptions |
Opzioni per l'operazione di eliminazione dell'indice. |
DeleteIndexerOptions |
Opzioni per l'operazione di eliminazione dell'indicizzatore. |
DeleteSkillsetOptions |
Opzioni per eliminare l'operazione del set di competenze. |
DeleteSynonymMapOptions |
Opzioni per l'operazione delete synonymmap. |
DictionaryDecompounderTokenFilter |
Scompone parole composte presenti in molte lingue germaniche. Questo filtro di token viene implementato usando Apache Lucene. |
DistanceScoringFunction |
Definisce una funzione che aumenta i punteggi in base alla distanza da una posizione geografica. |
DistanceScoringParameters |
Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi della distanza. |
DocumentExtractionSkill |
Competenza che estrae il contenuto da un file all'interno della pipeline di arricchimento. |
EdgeNGramTokenFilter |
Genera n-grammi delle dimensioni specificate a partire dalla parte anteriore o posteriore di un token di input. Questo filtro di token viene implementato usando Apache Lucene. |
EdgeNGramTokenizer |
Tokenzza l'input da un bordo in n-grammi delle dimensioni specificate. Questo tokenizer viene implementato tramite Apache Lucene. |
ElisionTokenFilter |
Rimuove le elisioni. Ad esempio, "l'avion" (il piano) verrà convertito in "avion" (piano). Questo filtro di token viene implementato usando Apache Lucene. |
EntityLinkingSkill |
Usando l'API Analisi del testo, estrae le entità collegate dal testo. |
EntityRecognitionSkill |
Riconoscimento delle entità di Analisi del testo. |
EntityRecognitionSkillV3 |
Usando l'API Analisi del testo, estrae entità di tipi diversi dal testo. |
ExhaustiveKnnParameters |
Contiene i parametri specifici dell'algoritmo KNN completo. |
ExtractiveQueryAnswer |
Estrae i candidati di risposta dal contenuto dei documenti restituiti in risposta a una query espressa come domanda in linguaggio naturale. |
ExtractiveQueryCaption |
Estrae le didascalie dai documenti corrispondenti che contengono passaggi rilevanti per la query di ricerca. |
FacetResult |
Un singolo bucket di un risultato della query facet. Segnala il numero di documenti con un valore di campo compreso in un determinato intervallo o con un determinato valore o intervallo. |
FieldMapping |
Definisce un mapping tra un campo in un'origine dati e un campo di destinazione in un indice. |
FieldMappingFunction |
Rappresenta una funzione che trasforma un valore da un'origine dati prima dell'indicizzazione. |
FreshnessScoringFunction |
Definisce una funzione che aumenta i punteggi in base al valore di un campo di data e ora. |
FreshnessScoringParameters |
Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di aggiornamento. |
GetDocumentOptions |
Opzioni per il recupero di un singolo documento. |
HighWaterMarkChangeDetectionPolicy |
Definisce un criterio di rilevamento delle modifiche dei dati che acquisisce le modifiche in base al valore di una colonna di contrassegno di acqua elevata. |
HnswParameters |
Contiene i parametri specifici dell'algoritmo hnsw. |
ImageAnalysisSkill |
Competenza che analizza i file di immagine. Estrae un set completo di funzionalità visive in base al contenuto dell'immagine. |
IndexDocumentsClient |
Client di documenti dell'indice |
IndexDocumentsOptions |
Opzioni per l'operazione di modifica batch dell'indice. |
IndexDocumentsResult |
Risposta contenente lo stato delle operazioni per tutti i documenti nella richiesta di indicizzazione. |
IndexerExecutionResult |
Rappresenta il risultato di una singola esecuzione dell'indicizzatore. |
IndexingParameters |
Rappresenta i parametri per l'esecuzione dell'indicizzatore. |
IndexingParametersConfiguration |
Dizionario di proprietà di configurazione specifiche dell'indicizzatore. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo. |
IndexingResult |
Stato di un'operazione di indicizzazione per un singolo documento. |
IndexingSchedule |
Rappresenta una pianificazione per l'esecuzione dell'indicizzatore. |
InputFieldMappingEntry |
Mapping dei campi di input per una competenza. |
KeepTokenFilter |
Filtro di token che mantiene solo i token con testo contenuto in un elenco specificato di parole. Questo filtro di token viene implementato usando Apache Lucene. |
KeyPhraseExtractionSkill |
Competenza che usa l'analisi del testo per l'estrazione di frasi chiave. |
KeywordMarkerTokenFilter |
Contrassegna i termini come parole chiave. Questo filtro di token viene implementato usando Apache Lucene. |
KeywordTokenizer |
Genera l'intero input come singolo token. Questo tokenizer viene implementato tramite Apache Lucene. |
LanguageDetectionSkill |
Competenza che rileva la lingua del testo di input e segnala un singolo codice linguistico per ogni documento inviato nella richiesta. Il codice della lingua è associato a un punteggio che indica l'attendibilità dell'analisi. |
LengthTokenFilter |
Rimuove parole troppo lunghe o troppo brevi. Questo filtro di token viene implementato usando Apache Lucene. |
LimitTokenFilter |
Limita il numero di token durante l'indicizzazione. Questo filtro di token viene implementato usando Apache Lucene. |
ListSearchResultsPageSettings |
Argomenti per il recupero della pagina successiva dei risultati della ricerca. |
LuceneStandardAnalyzer |
Analizzatore Apache Lucene standard; Composto dal tokenizer standard, dal filtro minuscolo e dal filtro di arresto. |
LuceneStandardTokenizer |
Interrompe il testo seguendo le regole di segmentazione del testo Unicode. Questo tokenizer viene implementato tramite Apache Lucene. |
MagnitudeScoringFunction |
Definisce una funzione che aumenta i punteggi in base alla grandezza di un campo numerico. |
MagnitudeScoringParameters |
Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di grandezza. |
MappingCharFilter |
Filtro di caratteri che applica i mapping definiti con l'opzione mapping. La corrispondenza è greedy (criteri di ricerca più lunghi in un determinato punto vince). La sostituzione può essere la stringa vuota. Questo filtro di caratteri viene implementato tramite Apache Lucene. |
MergeSkill |
Competenza per unire due o più stringhe in una singola stringa unificata, con un delimitatore facoltativo definito dall'utente che separa ogni parte del componente. |
MicrosoftLanguageStemmingTokenizer |
Divide il testo usando regole specifiche della lingua e riduce le parole alle relative forme di base. |
MicrosoftLanguageTokenizer |
Divide il testo usando regole specifiche della lingua. |
NGramTokenFilter |
Genera n-grammi delle dimensioni specificate. Questo filtro di token viene implementato usando Apache Lucene. |
NGramTokenizer |
Tokenzza l'input in n-grammi delle dimensioni specificate. Questo tokenizer viene implementato tramite Apache Lucene. |
OcrSkill |
Competenza che estrae testo dai file di immagine. |
OutputFieldMappingEntry |
Mapping dei campi di output per una competenza. |
PIIDetectionSkill |
Usando l'API Analisi del testo, estrae informazioni personali da un testo di input e offre la possibilità di mascherarla. |
PathHierarchyTokenizer |
Tokenizer per gerarchie simili al percorso. Questo tokenizer viene implementato tramite Apache Lucene. |
PatternAnalyzer |
Separa in modo flessibile il testo in termini tramite un criterio di espressione regolare. Questo analizzatore viene implementato usando Apache Lucene. |
PatternCaptureTokenFilter |
Usa espressioni regolari Java per generare più token, uno per ogni gruppo di acquisizione in uno o più modelli. Questo filtro di token viene implementato usando Apache Lucene. |
PatternReplaceCharFilter |
Filtro di caratteri che sostituisce i caratteri nella stringa di input. Usa un'espressione regolare per identificare le sequenze di caratteri da mantenere e un criterio di sostituzione per identificare i caratteri da sostituire. Ad esempio, dato il testo di input "aa bb aa bb", pattern "(aa)\s+(bb)" e sostituzione "$1#$2", il risultato sarà "aa#bb aa#bb". Questo filtro di caratteri viene implementato tramite Apache Lucene. |
PatternReplaceTokenFilter |
Filtro di caratteri che sostituisce i caratteri nella stringa di input. Usa un'espressione regolare per identificare le sequenze di caratteri da mantenere e un criterio di sostituzione per identificare i caratteri da sostituire. Ad esempio, dato il testo di input "aa bb aa bb", pattern "(aa)\s+(bb)" e sostituzione "$1#$2", il risultato sarà "aa#bb aa#bb". Questo filtro di token viene implementato usando Apache Lucene. |
PatternTokenizer |
Tokenizer che usa criteri regex corrispondenti per costruire token distinti. Questo tokenizer viene implementato tramite Apache Lucene. |
PhoneticTokenFilter |
Creare token per corrispondenze fonetiche. Questo filtro di token viene implementato usando Apache Lucene. |
QueryAnswerResult |
Una risposta è un passaggio di testo estratto dal contenuto dei documenti più rilevanti che corrispondono alla query. Le risposte vengono estratte dai primi risultati della ricerca. I candidati alle risposte vengono assegnati punteggi e vengono selezionate le risposte principali. |
QueryCaptionResult |
Le didascalie sono i passaggi più rappresentativi del documento relativamente alla query di ricerca. Vengono spesso usati come riepilogo dei documenti. Le didascalie vengono restituite solo per le query di tipo |
ResourceCounter |
Rappresenta l'utilizzo e la quota di una risorsa. |
ScalarQuantizationCompression |
Contiene opzioni di configurazione specifiche per il metodo di compressione della quantizzazione scalare usato durante l'indicizzazione e l'esecuzione di query. |
ScalarQuantizationParameters |
Contiene i parametri specifici della quantizzazione scalare. |
ScoringProfile |
Definisce i parametri per un indice di ricerca che influisce sul punteggio nelle query di ricerca. |
SearchClientOptions |
Opzioni client usate per configurare le richieste dell'API Ricerca cognitiva. |
SearchDocumentsPageResult |
Risposta contenente i risultati della pagina di ricerca da un indice. |
SearchDocumentsResult |
Risposta contenente i risultati della ricerca da un indice. |
SearchDocumentsResultBase |
Risposta contenente i risultati della ricerca da un indice. |
SearchIndex |
Rappresenta una definizione di indice di ricerca, che descrive i campi e il comportamento di ricerca di un indice. |
SearchIndexClientOptions |
Opzioni client usate per configurare le richieste dell'API Ricerca cognitiva. |
SearchIndexStatistics |
Statistiche per un determinato indice. Le statistiche vengono raccolte periodicamente e non sono sempre up-to-date. |
SearchIndexer |
Rappresenta un indicizzatore. |
SearchIndexerClientOptions |
Opzioni client usate per configurare le richieste dell'API Ricerca cognitiva. |
SearchIndexerDataContainer |
Rappresenta informazioni sull'entità, ad esempio la tabella SQL di Azure o la raccolta CosmosDB, che verranno indicizzate. |
SearchIndexerDataNoneIdentity |
Cancella la proprietà Identity di un'origine dati. |
SearchIndexerDataSourceConnection |
Rappresenta una definizione di origine dati, che può essere utilizzata per configurare un indicizzatore. |
SearchIndexerDataUserAssignedIdentity |
Specifica l'identità di un'origine dati da usare. |
SearchIndexerError |
Rappresenta un errore di indicizzazione a livello di elemento o documento. |
SearchIndexerIndexProjection |
Definizione di proiezioni aggiuntive agli indici di ricerca secondari. |
SearchIndexerIndexProjectionParameters |
Dizionario delle proprietà di configurazione specifiche della proiezione dell'indice. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo. |
SearchIndexerIndexProjectionSelector |
Descrizione dei dati da archiviare nell'indice di ricerca designato. |
SearchIndexerKnowledgeStore |
Definizione di proiezioni aggiuntive per BLOB, tabelle o file di azure di dati arricchiti. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Classe astratta per condividere le proprietà tra selettori concreti. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definizione di proiezione per i dati da archiviare in File di Azure. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definizione di proiezione per i dati da archiviare nel BLOB di Azure. |
SearchIndexerKnowledgeStoreParameters |
Dizionario delle proprietà di configurazione specifiche dell'archivio conoscenze. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo. |
SearchIndexerKnowledgeStoreProjection |
Oggetto contenitore per vari selettori di proiezione. |
SearchIndexerKnowledgeStoreProjectionSelector |
Classe astratta per condividere le proprietà tra selettori concreti. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Descrizione dei dati da archiviare nelle tabelle di Azure. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Elenco di competenze. |
SearchIndexerStatus |
Rappresenta lo stato corrente e la cronologia di esecuzione di un indicizzatore. |
SearchIndexerWarning |
Rappresenta un avviso a livello di elemento. |
SearchIndexingBufferedSenderOptions |
Opzioni per SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Una chiave di crittografia gestita dal cliente in Azure Key Vault. Le chiavi create e gestite possono essere usate per crittografare o decrittografare i dati inattivi in Ricerca cognitiva di Azure, ad esempio indici e mappe sinonimi. |
SearchServiceStatistics |
Risposta da una richiesta di recupero delle statistiche del servizio. In caso di esito positivo, include contatori e limiti a livello di servizio. |
SearchSuggester |
Definisce il modo in cui l'API Suggerisci deve essere applicata a un gruppo di campi nell'indice. |
SemanticConfiguration |
Definisce una configurazione specifica da usare nel contesto delle funzionalità semantiche. |
SemanticField |
Campo utilizzato come parte della configurazione semantica. |
SemanticPrioritizedFields |
Descrive i campi titolo, contenuto e parole chiave da usare per la classificazione semantica, le didascalie, le evidenziazioni e le risposte. |
SemanticSearch |
Definisce i parametri per un indice di ricerca che influisce sulle funzionalità semantiche. |
SemanticSearchOptions |
Definisce le opzioni per le query di ricerca semantica |
SentimentSkill |
Analisi del testo analisi del sentiment positivo negativo, con un punteggio come valore a virgola mobile in un intervallo compreso tra zero e 1. |
SentimentSkillV3 |
Usando l'API Analisi del testo, valuta il testo non strutturato e per ogni record, fornisce etichette del sentiment (ad esempio "negative", "neutral" e "positive") in base al punteggio di attendibilità più alto trovato dal servizio a livello di frase e documento. |
ServiceCounters |
Rappresenta i contatori e le quote delle risorse a livello di servizio. |
ServiceLimits |
Rappresenta vari limiti a livello di servizio. |
ShaperSkill |
Competenza per la ridevisione degli output. Crea un tipo complesso per supportare i campi compositi (noti anche come campi multipart). |
ShingleTokenFilter |
Crea combinazioni di token come singolo token. Questo filtro di token viene implementato usando Apache Lucene. |
Similarity |
Tipo di base per algoritmi di somiglianza. Gli algoritmi di somiglianza vengono usati per calcolare i punteggi che collegano le query ai documenti. Maggiore è il punteggio, più rilevante è il documento relativo a tale query specifica. Questi punteggi vengono usati per classificare i risultati della ricerca. |
SimpleField |
Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo. |
SnowballTokenFilter |
Filtro che deriva le parole usando uno stemmer generato da Snowball. Questo filtro di token viene implementato usando Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Definisce un criterio di rilevamento dell'eliminazione dei dati che implementa una strategia di eliminazione temporanea. Determina se un elemento deve essere eliminato in base al valore di una colonna "eliminazione temporanea" designata. |
SplitSkill |
Competenza per suddividere una stringa in blocchi di testo. |
SqlIntegratedChangeTrackingPolicy |
Definisce un criterio di rilevamento delle modifiche dei dati che acquisisce le modifiche usando la funzionalità Rilevamento modifiche integrato del database SQL di Azure. |
StemmerOverrideTokenFilter |
Consente di eseguire l'override di altri filtri di stemming con stemming basato su dizionario personalizzato. Tutti i termini con stemmy-stemming verranno contrassegnati come parole chiave in modo che non vengano stemmati lungo la catena. Deve essere posizionato prima di qualsiasi filtro di stemming. Questo filtro di token viene implementato usando Apache Lucene. |
StemmerTokenFilter |
Filtro di stemming specifico della lingua. Questo filtro di token viene implementato usando Apache Lucene. |
StopAnalyzer |
Divide il testo in corrispondenza di lettere non; Applica i filtri di token minuscoli e non significative. Questo analizzatore viene implementato usando Apache Lucene. |
StopwordsTokenFilter |
Rimuove le parole non significative da un flusso di token. Questo filtro di token viene implementato usando Apache Lucene. |
SuggestDocumentsResult |
Risposta contenente i risultati della query di suggerimento da un indice. |
SuggestRequest |
Parametri per il filtro, l'ordinamento, la corrispondenza fuzzy e altri comportamenti di query di suggerimenti. |
SynonymMap |
Rappresenta una definizione di mappa sinonimo. |
SynonymTokenFilter |
Trova la corrispondenza con sinonimi singoli o con più parole in un flusso di token. Questo filtro di token viene implementato usando Apache Lucene. |
TagScoringFunction |
Definisce una funzione che aumenta i punteggi dei documenti con valori stringa corrispondenti a un determinato elenco di tag. |
TagScoringParameters |
Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di tag. |
TextTranslationSkill |
Competenza per tradurre testo da una lingua a un'altra. |
TextWeights |
Definisce i pesi nei campi di indice per i quali le corrispondenze devono aumentare il punteggio nelle query di ricerca. |
TruncateTokenFilter |
Tronca i termini a una lunghezza specifica. Questo filtro di token viene implementato usando Apache Lucene. |
UaxUrlEmailTokenizer |
Tokenzza url e messaggi di posta elettronica come un token. Questo tokenizer viene implementato tramite Apache Lucene. |
UniqueTokenFilter |
Filtra i token con lo stesso testo del token precedente. Questo filtro di token viene implementato usando Apache Lucene. |
VectorSearch |
Contiene le opzioni di configurazione correlate alla ricerca vettoriale. |
VectorSearchOptions |
Definisce le opzioni per le query di ricerca vettoriale |
VectorSearchProfile |
Definisce una combinazione di configurazioni da usare con la ricerca vettoriale. |
VectorizableTextQuery |
Parametri di query da usare per la ricerca vettoriale quando viene fornito un valore di testo che deve essere vettorializzato. |
VectorizedQuery |
Parametri di query da usare per la ricerca vettoriale quando viene specificato un valore di vettore non elaborato. |
WebApiParameters |
Specifica le proprietà per la connessione a un vettore definito dall'utente. |
WebApiSkill |
Una competenza che può chiamare un endpoint API Web, consentendo di estendere un set di competenze tramite la chiamata al codice personalizzato. |
WebApiVectorizer |
Specifica un vettore definito dall'utente per generare l'incorporamento del vettore di una stringa di query. L'integrazione di un vettore esterno viene ottenuta usando l'interfaccia API Web personalizzata di un set di competenze. |
WordDelimiterTokenFilter |
Suddivide le parole in parole secondarie ed esegue trasformazioni facoltative nei gruppi di sottoword. Questo filtro di token viene implementato usando Apache Lucene. |
Alias tipo
AnalyzeTextOptions |
Opzioni per l'operazione di analisi del testo. |
AutocompleteMode |
Definisce i valori per AutocompleteMode. |
AutocompleteOptions |
Opzioni per il recupero del testo di completamento per un oggetto searchText parziale. |
AzureOpenAIModelName |
Definisce i valori per AzureOpenAIModelName. Valori noti supportati dal servizio
text-embedding-ada-002 |
BlobIndexerDataToExtract | |
BlobIndexerImageAction | |
BlobIndexerPDFTextRotationAlgorithm | |
BlobIndexerParsingMode | |
CharFilter |
Contiene i casi possibili per CharFilter. |
CharFilterName |
Definisce i valori per CharFilterName. Valori noti supportati dal serviziohtml_strip: filtro di caratteri che tenta di rimuovere i costrutti HTML. Vedere https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Definisce i valori per CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Contiene i casi possibili per CognitiveServicesAccount. |
ComplexDataType |
Definisce i valori per ComplexDataType. I valori possibili includono: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Opzioni per l'esecuzione dell'operazione di conteggio sull'indice. |
CreateDataSourceConnectionOptions |
Opzioni per l'operazione di creazione dell'origine dati. |
CreateIndexOptions |
Opzioni per l'operazione di creazione dell'indice. |
CreateIndexerOptions |
Opzioni per l'operazione di creazione dell'indicizzatore. |
CreateSkillsetOptions |
Opzioni per creare un'operazione del set di competenze. |
CreateSynonymMapOptions |
Opzioni per creare l'operazione synonymmap. |
CustomEntityLookupSkillLanguage | |
DataChangeDetectionPolicy |
Contiene i casi possibili per DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Contiene i casi possibili per DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Opzioni per l'operazione di eliminazione dei documenti. |
EdgeNGramTokenFilterSide |
Definisce i valori per EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage | |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Contiene opzioni di configurazione specifiche dell'algoritmo KNN completo usato durante l'esecuzione di query, che eseguirà la ricerca di forza bruta nell'intero indice vettoriale. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Opzioni per l'operazione get datasource. |
GetIndexOptions |
Opzioni per l'operazione get index. |
GetIndexStatisticsOptions |
Opzioni per l'operazione get index statistics. |
GetIndexerOptions |
Opzioni per l'operazione get indexer. |
GetIndexerStatusOptions |
Opzioni per l'operazione di recupero dello stato dell'indicizzatore. |
GetServiceStatisticsOptions |
Opzioni per l'operazione di recupero delle statistiche del servizio. |
GetSkillSetOptions |
Opzioni per l'operazione get skillset. |
GetSynonymMapsOptions |
Opzioni per l'operazione get synonymmaps. |
HnswAlgorithmConfiguration |
Contiene opzioni di configurazione specifiche dell'algoritmo hnsw approssimato vicino usato durante l'indicizzazione. |
ImageAnalysisSkillLanguage | |
ImageDetail | |
IndexActionType |
Definisce i valori per IndexActionType. |
IndexDocumentsAction |
Rappresenta un'azione di indice che opera su un documento. |
IndexIterator |
Iteratore per elencare gli indici esistenti nel servizio di ricerca. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione. |
IndexNameIterator |
Iteratore per elencare gli indici esistenti nel servizio di ricerca. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione. |
IndexProjectionMode |
Definisce i valori per IndexProjectionMode. Valori noti supportati dal servizio
skipIndexingParentDocuments: il documento di origine verrà ignorato dalla scrittura nell'indice di destinazione dell'indicizzatore. |
IndexerExecutionEnvironment | |
IndexerExecutionStatus |
Definisce i valori per IndexerExecutionStatus. |
IndexerStatus |
Definisce i valori per IndexerStatus. |
KeyPhraseExtractionSkillLanguage | |
LexicalAnalyzer |
Contiene i possibili casi per Analyzer. |
LexicalAnalyzerName |
Definisce i valori per LexicalAnalyzerName. Valori noti supportati dal servizio
ar.microsoft: Analizzatore Microsoft per l'arabo. |
LexicalTokenizer |
Contiene i casi possibili per Tokenizer. |
LexicalTokenizerName |
Definisce i valori per LexicalTokenizerName. Valori noti supportati dal servizio
classico: tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Opzioni per un'operazione di elenco delle origini dati. |
ListIndexersOptions |
Opzioni per un'operazione degli indicizzatori di elenco. |
ListIndexesOptions |
Opzioni per un'operazione sugli indici di elenco. |
ListSkillsetsOptions |
Opzioni per un'operazione di set di competenze di elenco. |
ListSynonymMapsOptions |
Opzioni per un'operazione list synonymMaps. |
MergeDocumentsOptions |
Opzioni per l'operazione di unione dei documenti. |
MergeOrUploadDocumentsOptions |
Opzioni per l'operazione di unione o caricamento di documenti. |
MicrosoftStemmingTokenizerLanguage |
Definisce i valori per MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Definisce i valori per MicrosoftTokenizerLanguage. |
NarrowedModel |
Restringe il tipo di modello in modo da includere solo i campi selezionati |
OcrLineEnding |
Definisce i valori per OcrLineEnding. Valori noti supportati dal servizio
spazio: le righe sono separate da un singolo carattere di spazio. |
OcrSkillLanguage | |
PIIDetectionSkillMaskingMode | |
PhoneticEncoder |
Definisce i valori per PhoneticEncoder. |
QueryAnswer |
Valore che specifica se le risposte devono essere restituite come parte della risposta di ricerca.
Questo parametro è valido solo se il tipo di query è 'semantic'. Se impostato su |
QueryCaption |
Valore che specifica se le didascalie devono essere restituite come parte della risposta di ricerca. Questo parametro è valido solo se il tipo di query è 'semantic'. Se impostata, la query restituisce le didascalie estratte dai passaggi chiave nei documenti classificati più alti. Quando captions è "estratto", l'evidenziazione è abilitata per impostazione predefinita. Il valore predefinito è 'none'. |
QueryType |
Definisce i valori per QueryType. |
RegexFlags | |
ResetIndexerOptions |
Opzioni per reimpostare l'operazione dell'indicizzatore. |
RunIndexerOptions |
Opzioni per l'esecuzione dell'operazione dell'indicizzatore. |
ScoringFunction |
Contiene i possibili casi per ScoringFunction. |
ScoringFunctionAggregation |
Definisce i valori per ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Definisce i valori per ScoringFunctionInterpolation. |
ScoringStatistics |
Definisce i valori per ScoringStatistics. |
SearchField |
Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo. |
SearchFieldArray |
Se |
SearchFieldDataType |
Definisce i valori per SearchFieldDataType. Valori noti supportati dal servizio:Edm.String: indica che un campo contiene una stringa. Edm.Int32: indica che un campo contiene un intero con segno a 32 bit. Edm.Int64: indica che un campo contiene un intero con segno a 64 bit. Edm.Double: indica che un campo contiene un numero a virgola mobile a precisione doppia IEEE. Edm.Boolean: indica che un campo contiene un valore booleano (true o false). Edm.DateTimeOffset: indica che un campo contiene un valore di data/ora, incluse le informazioni sul fuso orario. Edm.GeographyPoint: indica che un campo contiene una posizione geografica in termini di longitudine e latitudine. Edm.ComplexType: indica che un campo contiene uno o più oggetti complessi che a loro volta hanno sottocampi di altri tipi. Edm.Single: indica che un campo contiene un numero a virgola mobile a precisione singola. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Single). Edm.Half: indica che un campo contiene un numero a virgola mobile a metà precisione. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Half). Edm.Int16: indica che un campo contiene un intero con segno a 16 bit. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Int16). Edm.SByte: indica che un campo contiene un intero con segno a 8 bit. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.SByte). Edm.Byte: indica che un campo contiene un intero senza segno a 8 bit. Questa opzione è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Byte). |
SearchIndexerDataIdentity |
Contiene i possibili casi per SearchIndexerDataIdentity. |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Contiene i possibili casi per Skill. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Iteratore per i risultati della ricerca di una query paticolare. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione. |
SearchMode |
Definisce i valori per SearchMode. |
SearchOptions |
Opzioni per il commit di una richiesta di ricerca completa. |
SearchPick |
Selezionare in modo approfondito i campi di T usando percorsi OData di Ricerca cognitiva validi $select. |
SearchRequestOptions |
Parametri per il filtro, l'ordinamento, il facet, il paging e altri comportamenti delle query di ricerca. |
SearchRequestQueryTypeOptions | |
SearchResult |
Contiene un documento trovato da una query di ricerca, oltre ai metadati associati. |
SelectArray |
Se |
SelectFields |
Produce un'unione di percorsi OData di Ricerca cognitiva validi $select per T usando un attraversamento post-ordine dell'albero dei campi radicato in T. |
SemanticErrorMode | |
SemanticErrorReason | |
SemanticSearchResultsType | |
SentimentSkillLanguage | |
SimilarityAlgorithm |
Contiene i possibili casi di somiglianza. |
SnowballTokenFilterLanguage |
Definisce i valori per SnowballTokenFilterLanguage. |
SplitSkillLanguage | |
StemmerTokenFilterLanguage |
Definisce i valori per StemmerTokenFilterLanguage. |
StopwordsList |
Definisce i valori per StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Opzioni per il recupero di suggerimenti in base a searchText. |
SuggestResult |
Risultato contenente un documento trovato da una query di suggerimento, oltre ai metadati associati. |
TextSplitMode | |
TextTranslationSkillLanguage | |
TokenCharacterKind |
Definisce i valori per TokenCharacterKind. |
TokenFilter |
Contiene i casi possibili per TokenFilter. |
TokenFilterName |
Definisce i valori per TokenFilterName. Valori noti supportati dal servizio
arabic_normalization: filtro token che applica il normalizzatore arabo per normalizzare l'ortografia. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Opzioni per l'operazione di caricamento dei documenti. |
VectorEncodingFormat |
Definisce i valori per VectorEncodingFormat. Valori noti supportati dal serviziopackedBit: formato di codifica che rappresenta i bit compressi in un tipo di dati più ampio. |
VectorFilterMode | |
VectorQuery |
Parametri di query per le query di ricerca ibrida e vettoriali. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Contiene opzioni di configurazione specifiche dell'algoritmo utilizzato durante l'indicizzazione e/o l'esecuzione di query. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric | |
VectorSearchCompression |
Contiene opzioni di configurazione specifiche del metodo di compressione utilizzato durante l'indicizzazione o l'esecuzione di query. |
VectorSearchCompressionKind |
Definisce i valori per VectorSearchCompressionKind. Valori noti supportati dal servizio
scalarQuantization: Quantizzazione scalare, un tipo di metodo di compressione. Nella quantizzazione scalare, i valori dei vettori originali vengono compressi in un tipo più stretto discretizzando e rappresentando ogni componente di un vettore usando un set ridotto di valori quantizzati, riducendo così le dimensioni complessive dei dati. |
VectorSearchCompressionTarget |
Definisce i valori per VectorSearchCompressionTarget. Valori noti supportati dal servizioint8 |
VectorSearchVectorizer |
Contiene opzioni di configurazione su come vettorizzare le query vettoriali di testo. |
VectorSearchVectorizerKind |
Definisce i valori per VectorSearchVectorizerKind. Valori noti supportati dal servizio
azureOpenAI: generare incorporamenti usando una risorsa OpenAI di Azure in fase di query. |
VisualFeature |
Enumerazioni
Funzioni
create |
Metodo helper per creare un oggetto SynonymMap. Si tratta di un metodo solo NodeJS. |
odata(Template |
Esegue l'escape di un'espressione di filtro odata per evitare errori con valori letterali stringa tra virgolette. Esempio di utilizzo:
Per altre informazioni sulla sintassi supportata, vedere: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Dettagli funzione
createSynonymMapFromFile(string, string)
Metodo helper per creare un oggetto SynonymMap. Si tratta di un metodo solo NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametri
- name
-
string
Nome dell'oggetto SynonymMap.
- filePath
-
string
Percorso del file che contiene i sinonimi (separati da nuove righe)
Restituisce
Promise<SynonymMap>
Oggetto SynonymMap
odata(TemplateStringsArray, unknown[])
Esegue l'escape di un'espressione di filtro odata per evitare errori con valori letterali stringa tra virgolette. Esempio di utilizzo:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Per altre informazioni sulla sintassi supportata, vedere: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametri
- strings
-
TemplateStringsArray
Matrice di stringhe per l'espressione
- values
-
unknown[]
Matrice di valori per l'espressione
Restituisce
string