@azure/search-documents package

Classi

AzureKeyCredential

Credenziali basate su chiavi statiche che supportano l'aggiornamento del valore della chiave sottostante.

GeographyPoint

Rappresenta un punto geografico nelle coordinate globali.

IndexDocumentsBatch

Classe usata per eseguire operazioni batch con più documenti nell'indice.

KnowledgeRetrievalClient

Classe utilizzata per eseguire operazioni su una base di conoscenza.

SearchClient

Classe usata per eseguire operazioni su un indice di ricerca, inclusa l'esecuzione di query sui documenti nell'indice, nonché l'aggiunta, l'aggiornamento e la rimozione di tali documenti.

SearchIndexClient

Classe per eseguire operazioni per gestire (creare, aggiornare, elencare/eliminare) indici, & mapping sinonimi.

SearchIndexerClient

Classe per eseguire operazioni per gestire (creare, aggiornare, elencare/eliminare) indicizzatori, origini dati & set di competenze.

SearchIndexingBufferedSender

Classe usata per eseguire operazioni memorizzate nel buffer su un indice di ricerca, tra cui l'aggiunta, l'aggiornamento e la rimozione.

Interfacce

AIServices

Parametri per i servizi di IA.

AIServicesAccountIdentity

L'account multi-regione di una risorsa di servizio AI Azure collegata a un set di competenze.

AIServicesAccountKey

La chiave account di una risorsa di servizio AI di Azure che è collegata a un set di competenze, da usare con il sottodominio della risorsa.

AnalyzeRequest

Specifica alcuni componenti di testo e analisi usati per suddividere il testo in token.

AnalyzeResult

Risultato del test di un analizzatore sul testo.

AnalyzedTokenInfo

Informazioni su un token restituito da un analizzatore.

AsciiFoldingTokenFilter

Converte caratteri Unicode alfabetici, numerici e simbolici che non si trovano nei primi 127 caratteri ASCII (blocco Unicode "Latino di base") nei rispettivi equivalenti ASCII, se tali equivalenti esistono. Questo filtro di token viene implementato usando Apache Lucene.

AutocompleteItem

Risultato delle richieste di completamento automatico.

AutocompleteRequest

Parametri per la corrispondenza fuzzy e altri comportamenti di query di completamento automatico.

AutocompleteResult

Risultato della query di completamento automatico.

AzureActiveDirectoryApplicationCredentials

Credenziali di un'applicazione registrata creata per il servizio di ricerca, usata per l'accesso autenticato alle chiavi di crittografia archiviate in Azure Key Vault.

AzureBlobKnowledgeSource

Configurazione per l'origine della conoscenza di Archiviazione BLOB di Azure.

AzureBlobKnowledgeSourceParameters

Parametri per l'origine della conoscenza di Archiviazione BLOB di Azure.

AzureBlobKnowledgeSourceParams

Specifica i parametri di runtime per un'origine della conoscenza BLOB di Azure

AzureMachineLearningVectorizer

Specifica un endpoint Azure Machine Learning distribuito tramite Azure AI Foundry Model Catalog per generare l'embedding vettoriale di una query string.

AzureOpenAIEmbeddingSkill

Consente di generare un'incorporamento vettoriale per un input di testo specificato usando la risorsa OpenAI di Azure.

AzureOpenAIParameters

Specifica i parametri per la connessione alla risorsa OpenAI di Azure.

AzureOpenAIVectorizer

Contiene i parametri specifici dell'uso di un servizio Azure Open AI per la vettorizzazione in fase di query.

BM25Similarity

Funzione di classificazione basata sull'algoritmo di somiglianza okapi BM25. BM25 è un algoritmo simile a TF-IDF che include la normalizzazione della lunghezza (controllata dal parametro 'b'), nonché la saturazione della frequenza dei termini (controllata dal parametro 'k1').

BaseAzureMachineLearningVectorizerParameters

Specifica le proprietà comuni tra tutti i tipi di autenticazione del vettore AML.

BaseCharFilter

Tipo di base per i filtri di caratteri.

BaseCognitiveServicesAccount

Tipo di base per descrivere qualsiasi risorsa del servizio di intelligenza artificiale di Azure collegata a un set di competenze.

BaseDataChangeDetectionPolicy

Tipo di base per i criteri di rilevamento delle modifiche dei dati.

BaseDataDeletionDetectionPolicy

Tipo di base per i criteri di rilevamento dell'eliminazione dei dati.

BaseKnowledgeBaseActivityRecord

Tipo di base per i record di attività. Traccia dettagli di esecuzione, tempi ed errori per le operazioni della base di conoscenza.

BaseKnowledgeBaseMessageContent

Specifica il tipo di contenuto del messaggio.

BaseKnowledgeBaseModel

Specifica i parametri di connessione che il modello deve utilizzare per la pianificazione delle query.

BaseKnowledgeBaseReference

Tipo di base per i riferimenti.

BaseKnowledgeRetrievalReasoningEffort

Tipo base per lo sforzo di ragionamento.

BaseKnowledgeSource

Rappresenta la definizione di un'origine della conoscenza.

BaseKnowledgeSourceParams

Tipo base per i parametri di runtime della sorgente della conoscenza.

BaseKnowledgeSourceVectorizer

Specifica il metodo di vettorizzazione da utilizzare per il modello di incorporamento della sorgente di conoscenza.

BaseLexicalAnalyzer

Tipo di base per gli analizzatori.

BaseLexicalNormalizer

Tipo di base per i normalizzatori.

BaseLexicalTokenizer

Tipo di base per i tokenizer.

BaseScoringFunction

Tipo di base per le funzioni che possono modificare i punteggi del documento durante la classificazione.

BaseSearchIndexerDataIdentity

Tipo di base astratto per le identità dei dati.

BaseSearchIndexerSkill

Tipo di base per le competenze.

BaseSearchRequestOptions

Parametri per il filtro, l'ordinamento, il facet, il paging e altri comportamenti delle query di ricerca.

BaseSimilarityAlgorithm

Tipo di base per algoritmi di somiglianza. Gli algoritmi di somiglianza vengono usati per calcolare i punteggi che collegano le query ai documenti. Maggiore è il punteggio, più rilevante è il documento relativo a tale query specifica. Questi punteggi vengono usati per classificare i risultati della ricerca.

BaseTokenFilter

Tipo di base per i filtri di token.

BaseVectorQuery

Parametri di query per le query di ricerca ibrida e vettoriali.

BaseVectorSearchAlgorithmConfiguration

Contiene opzioni di configurazione specifiche dell'algoritmo utilizzato durante l'indicizzazione e/o l'esecuzione di query.

BaseVectorSearchCompression

Contiene opzioni di configurazione specifiche del metodo di compressione utilizzato durante l'indicizzazione o l'esecuzione di query.

BaseVectorSearchVectorizer

Contiene dettagli specifici per un metodo di vettorizzazione da usare durante il tempo di query.

BinaryQuantizationCompression

Contiene opzioni di configurazione specifiche per il metodo di compressione della quantizzazione binaria usato durante l'indicizzazione e l'esecuzione di query.

ChatCompletionResponseFormat

Determina la modalità di serializzazione della risposta del modello di linguaggio. Il valore predefinito è 'text'.

ChatCompletionResponseFormatJsonSchemaProperties

Proprietà per il formato di risposta dello schema JSON.

ChatCompletionSchema

Oggetto che definisce lo schema personalizzato che il modello utilizzerà per strutturare l'output.

ChatCompletionSkill

Una competenza che chiama un modello linguistico tramite l'endpoint Chat Completions di Azure AI Foundry.

CjkBigramTokenFilter

Forma bigrams dei termini CJK generati dal tokenizer standard. Questo filtro di token viene implementato usando Apache Lucene.

ClassicSimilarity

Algoritmo di somiglianza legacy che usa l'implementazione lucene TFIDFSimilarity di TF-IDF. Questa variazione di TF-IDF introduce la normalizzazione statica della lunghezza del documento, nonché fattori di coordinamento che penalizzano i documenti che corrispondono solo parzialmente alle query sottoposte a ricerca.

ClassicTokenizer

Tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Questo tokenizer viene implementato tramite Apache Lucene.

CognitiveServicesAccountKey

Chiave dell'account in più aree di una risorsa del servizio azure per intelligenza artificiale collegata a un set di competenze.

CommonGramTokenFilter

Costruisci bigram per i termini che si verificano di frequente durante l'indicizzazione. Anche i termini singoli sono indicizzati, con bigrams sovrapposti. Questo filtro di token viene implementato usando Apache Lucene.

CommonModelParameters

Parametri del modello linguistico comune per i completamenti della chat. Se omesso, vengono utilizzati i valori predefiniti.

CompletedSynchronizationState

Rappresenta lo stato completato dell'ultima sincronizzazione.

ComplexField

Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo.

ConditionalSkill

Competenza che consente scenari che richiedono un'operazione booleana per determinare i dati da assegnare a un output.

ContentUnderstandingSkill

Una competenza che sfrutta Azure AI Content Understanding per elaborare ed estrarre insight strutturati dai documenti, consentendo contenuti arricchiti e ricercabili per un'indicizzazione e un recupero migliorati dei documenti.

ContentUnderstandingSkillChunkingProperties

Controlla la cardinalità per la suddivisione in blocchi del contenuto.

CorsOptions

Definisce le opzioni per controllare la condivisione di risorse tra le origini (CORS) per un indice.

CreateKnowledgeBaseOptions
CreateKnowledgeSourceOptions
CreateOrUpdateAliasOptions

Opzioni per l'operazione di creazione o aggiornamento dell'alias.

CreateOrUpdateIndexOptions

Opzioni per l'operazione di creazione/aggiornamento dell'indice.

CreateOrUpdateKnowledgeBaseOptions
CreateOrUpdateKnowledgeSourceOptions
CreateOrUpdateSkillsetOptions

Opzioni per l'operazione di creazione/aggiornamento del set di competenze.

CreateOrUpdateSynonymMapOptions

Opzioni per l'operazione create/update synonymmap.

CreateorUpdateDataSourceConnectionOptions

Opzioni per l'operazione di creazione/aggiornamento dell'origine dati.

CreateorUpdateIndexerOptions

Opzioni per l'operazione di creazione/aggiornamento dell'indicizzatore.

CustomAnalyzer

Consente di assumere il controllo del processo di conversione del testo in token indicizzabili/ricercabili. Si tratta di una configurazione definita dall'utente costituita da un singolo tokenizzatore predefinito e uno o più filtri. Il tokenizer è responsabile dell'interruzione del testo nei token e dei filtri per la modifica dei token generati dal tokenizer.

CustomEntity

Oggetto che contiene informazioni sulle corrispondenze trovate e sui metadati correlati.

CustomEntityAlias

Oggetto complesso che può essere usato per specificare ortografia o sinonimi alternativi per il nome dell'entità radice.

CustomEntityLookupSkill

Una competenza cerca testo da un elenco personalizzato definito dall'utente di parole e frasi.

CustomLexicalNormalizer

Consente di configurare la normalizzazione per i campi filtrabili, ordinabili e facetable, che per impostazione predefinita operano con corrispondenza rigorosa. Si tratta di una configurazione definita dall'utente costituita da almeno uno o più filtri, che modificano il token archiviato.

DefaultCognitiveServicesAccount

Oggetto vuoto che rappresenta la risorsa predefinita del servizio di intelligenza artificiale di Azure per un set di competenze.

DeleteAliasOptions

Opzioni per l'operazione di eliminazione dell'alias.

DeleteDataSourceConnectionOptions

Opzioni per l'operazione di eliminazione dell'origine dati.

DeleteIndexOptions

Opzioni per l'operazione di eliminazione dell'indice.

DeleteIndexerOptions

Opzioni per l'operazione di eliminazione dell'indicizzatore.

DeleteKnowledgeBaseOptions
DeleteKnowledgeSourceOptions
DeleteSkillsetOptions

Opzioni per eliminare l'operazione del set di competenze.

DeleteSynonymMapOptions

Opzioni per l'operazione delete synonymmap.

DictionaryDecompounderTokenFilter

Scompone parole composte presenti in molte lingue germaniche. Questo filtro di token viene implementato usando Apache Lucene.

DistanceScoringFunction

Definisce una funzione che aumenta i punteggi in base alla distanza da una posizione geografica.

DistanceScoringParameters

Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi della distanza.

DocumentDebugInfo

Contiene informazioni di debug che possono essere usate per esplorare ulteriormente i risultati della ricerca.

DocumentExtractionSkill

Competenza che estrae il contenuto da un file all'interno della pipeline di arricchimento.

DocumentIntelligenceLayoutSkill

Competenza che estrae informazioni sul contenuto e sul layout (come markdown), tramite Servizi di intelligenza artificiale di Azure, dai file all'interno della pipeline di arricchimento.

DocumentIntelligenceLayoutSkillChunkingProperties

Controlla la cardinalità per la suddivisione in blocchi del contenuto.

EdgeNGramTokenFilter

Genera n-grammi delle dimensioni specificate a partire dalla parte anteriore o posteriore di un token di input. Questo filtro di token viene implementato usando Apache Lucene.

EdgeNGramTokenizer

Tokenzza l'input da un bordo in n-grammi delle dimensioni specificate. Questo tokenizer viene implementato tramite Apache Lucene.

ElisionTokenFilter

Rimuove le elisioni. Ad esempio, "l'avion" (il piano) verrà convertito in "avion" (piano). Questo filtro di token viene implementato usando Apache Lucene.

EntityLinkingSkill

Usando l'API Analisi del testo, estrae le entità collegate dal testo.

EntityRecognitionSkill

Riconoscimento delle entità di Analisi del testo.

EntityRecognitionSkillV3

Usando l'API Analisi del testo, estrae entità di tipi diversi dal testo.

ExhaustiveKnnParameters

Contiene i parametri specifici dell'algoritmo KNN completo.

ExtractiveQueryAnswer

Estrae i candidati di risposta dal contenuto dei documenti restituiti in risposta a una query espressa come domanda in linguaggio naturale.

ExtractiveQueryCaption

Estrae le didascalie dai documenti corrispondenti che contengono passaggi rilevanti per la query di ricerca.

FacetResult

Un singolo bucket di un risultato della query facet. Segnala il numero di documenti con un valore di campo compreso in un determinato intervallo o con un determinato valore o intervallo.

FieldMapping

Definisce un mapping tra un campo in un'origine dati e un campo di destinazione in un indice.

FieldMappingFunction

Rappresenta una funzione che trasforma un valore da un'origine dati prima dell'indicizzazione.

FreshnessScoringFunction

Definisce una funzione che aumenta i punteggi in base al valore di un campo di data e ora.

FreshnessScoringParameters

Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di aggiornamento.

GenerativeQueryRewrites

Generare termini di query alternativi per aumentare il richiamo di una richiesta di ricerca.

GetDocumentOptions

Opzioni per il recupero di un singolo documento.

GetKnowledgeBaseOptions
GetKnowledgeSourceOptions
GetKnowledgeSourceStatusOptions
HighWaterMarkChangeDetectionPolicy

Definisce un criterio di rilevamento delle modifiche dei dati che acquisisce le modifiche in base al valore di una colonna di contrassegno di acqua elevata.

HnswParameters

Contiene i parametri specifici dell'algoritmo hnsw.

ImageAnalysisSkill

Competenza che analizza i file di immagine. Estrae un set completo di funzionalità visive in base al contenuto dell'immagine.

IndexDocumentsClient

Client di documenti dell'indice

IndexDocumentsOptions

Opzioni per l'operazione di modifica batch dell'indice.

IndexDocumentsResult

Risposta contenente lo stato delle operazioni per tutti i documenti nella richiesta di indicizzazione.

IndexedOneLakeKnowledgeSource

Configurazione per l'origine della conoscenza OneLake.

IndexedOneLakeKnowledgeSourceParameters

Parametri per l'origine della conoscenza OneLake.

IndexedOneLakeKnowledgeSourceParams

Specifica i parametri di runtime per un'origine della conoscenza OneLake indicizzata

IndexerExecutionResult

Rappresenta il risultato di una singola esecuzione dell'indicizzatore.

IndexingParameters

Rappresenta i parametri per l'esecuzione dell'indicizzatore.

IndexingParametersConfiguration

Dizionario di proprietà di configurazione specifiche dell'indicizzatore. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo.

IndexingResult

Stato di un'operazione di indicizzazione per un singolo documento.

IndexingSchedule

Rappresenta una pianificazione per l'esecuzione dell'indicizzatore.

InputFieldMappingEntry

Mapping dei campi di input per una competenza.

KeepTokenFilter

Filtro di token che mantiene solo i token con testo contenuto in un elenco specificato di parole. Questo filtro di token viene implementato usando Apache Lucene.

KeyAuthAzureMachineLearningVectorizerParameters

Specifica le proprietà per la connessione a un vettore AML con una chiave di autenticazione.

KeyPhraseExtractionSkill

Competenza che usa l'analisi del testo per l'estrazione di frasi chiave.

KeywordMarkerTokenFilter

Contrassegna i termini come parole chiave. Questo filtro di token viene implementato usando Apache Lucene.

KeywordTokenizer

Genera l'intero input come singolo token. Questo tokenizer viene implementato tramite Apache Lucene.

KnowledgeBase
KnowledgeBaseAgenticReasoningActivityRecord

Rappresenta un record di attività di ragionamento agentico.

KnowledgeBaseAzureBlobReference

Rappresenta un riferimento al documento di Archiviazione BLOB di Azure.

KnowledgeBaseAzureOpenAIModel

Specifica la risorsa Azure OpenAI usata per eseguire la pianificazione delle query.

KnowledgeBaseErrorAdditionalInfo

Informazioni aggiuntive sull'errore di gestione delle risorse.

KnowledgeBaseErrorDetail

Dettagli dell'errore.

KnowledgeBaseIndexedOneLakeReference

Rappresenta un riferimento indicizzato a un documento OneLake.

KnowledgeBaseMessage

L'oggetto stile del messaggio in linguaggio naturale.

KnowledgeBaseMessageImageContent

Tipo di messaggio immagine.

KnowledgeBaseMessageImageContentImage

Contenuto delle immagini.

KnowledgeBaseMessageTextContent

Tipo di messaggio di testo.

KnowledgeBaseModelWebSummarizationActivityRecord

Rappresenta un record di attività di riassunto web LLM.

KnowledgeBaseRetrievalRequest

Contratto di input per la richiesta di recupero.

KnowledgeBaseRetrievalResponse

Contratto di output per la risposta di recupero.

KnowledgeBaseSearchIndexReference

Rappresenta un riferimento al documento di Ricerca di Azure.

KnowledgeBaseWebReference

Rappresenta un riferimento a un documento Web.

KnowledgeRetrievalClientOptions

Opzioni client usate per configurare le richieste dell'API Ricerca cognitiva.

KnowledgeRetrievalIntent

Una query pensata per essere eseguita senza pianificazione delle query del modello.

KnowledgeRetrievalMinimalReasoningEffort

Esegui il recupero delle conoscenze con il minimo sforzo di ragionamento.

KnowledgeRetrievalSemanticIntent

Un'intenzione di interrogazione semantica.

KnowledgeSourceAzureOpenAIVectorizer

Specifica la risorsa Azure OpenAI usata per vettorializzare una stringa di query.

KnowledgeSourceIngestionParameters

Consolida tutte le impostazioni generali di acquisizione per le fonti di conoscenza.

KnowledgeSourceReference

Riferimento a una fonte di conoscenza.

KnowledgeSourceStatistics

Informazioni statistiche sulla cronologia di sincronizzazione dell'origine della conoscenza.

KnowledgeSourceStatus

Rappresenta lo stato e la cronologia di sincronizzazione di un'origine della conoscenza.

KnowledgeSourceSynchronizationError

Rappresenta un errore di indicizzazione a livello di documento riscontrato durante un'esecuzione di sincronizzazione della sorgente di conoscenza.

LanguageDetectionSkill

Competenza che rileva la lingua del testo di input e segnala un singolo codice linguistico per ogni documento inviato nella richiesta. Il codice della lingua è associato a un punteggio che indica l'attendibilità dell'analisi.

LengthTokenFilter

Rimuove parole troppo lunghe o troppo brevi. Questo filtro di token viene implementato usando Apache Lucene.

LimitTokenFilter

Limita il numero di token durante l'indicizzazione. Questo filtro di token viene implementato usando Apache Lucene.

ListKnowledgeBasesOptions
ListKnowledgeSourcesOptions
ListSearchResultsPageSettings

Argomenti per il recupero della pagina successiva dei risultati della ricerca.

LuceneStandardAnalyzer

Analizzatore Apache Lucene standard; Composto dal tokenizer standard, dal filtro minuscolo e dal filtro di arresto.

LuceneStandardTokenizer

Interrompe il testo seguendo le regole di segmentazione del testo Unicode. Questo tokenizer viene implementato tramite Apache Lucene.

MagnitudeScoringFunction

Definisce una funzione che aumenta i punteggi in base alla grandezza di un campo numerico.

MagnitudeScoringParameters

Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di grandezza.

MappingCharFilter

Filtro di caratteri che applica i mapping definiti con l'opzione mapping. La corrispondenza è greedy (criteri di ricerca più lunghi in un determinato punto vince). La sostituzione può essere la stringa vuota. Questo filtro di caratteri viene implementato tramite Apache Lucene.

MergeSkill

Competenza per unire due o più stringhe in una singola stringa unificata, con un delimitatore facoltativo definito dall'utente che separa ogni parte del componente.

MicrosoftLanguageStemmingTokenizer

Divide il testo usando regole specifiche della lingua e riduce le parole alle relative forme di base.

MicrosoftLanguageTokenizer

Divide il testo usando regole specifiche della lingua.

NGramTokenFilter

Genera n-grammi delle dimensioni specificate. Questo filtro di token viene implementato usando Apache Lucene.

NGramTokenizer

Tokenzza l'input in n-grammi delle dimensioni specificate. Questo tokenizer viene implementato tramite Apache Lucene.

NativeBlobSoftDeleteDeletionDetectionPolicy

Definisce un criterio di rilevamento dell'eliminazione dei dati che usa la funzionalità di eliminazione temporanea nativa di Archiviazione BLOB di Azure per il rilevamento dell'eliminazione.

NoAuthAzureMachineLearningVectorizerParameters

Specifica le proprietà per la connessione a un vettore AML senza autenticazione.

OcrSkill

Competenza che estrae testo dai file di immagine.

OutputFieldMappingEntry

Mapping dei campi di output per una competenza.

PIIDetectionSkill

Usando l'API Analisi del testo, estrae informazioni personali da un testo di input e offre la possibilità di mascherarla.

PageSettings

Opzioni per il metodo byPage

PagedAsyncIterableIterator

Interfaccia che consente l'iterazione iterabile asincrona sia al completamento che alla pagina.

PathHierarchyTokenizer

Tokenizer per gerarchie simili al percorso. Questo tokenizer viene implementato tramite Apache Lucene.

PatternAnalyzer

Separa in modo flessibile il testo in termini tramite un criterio di espressione regolare. Questo analizzatore viene implementato usando Apache Lucene.

PatternCaptureTokenFilter

Usa espressioni regolari Java per generare più token, uno per ogni gruppo di acquisizione in uno o più modelli. Questo filtro di token viene implementato usando Apache Lucene.

PatternReplaceCharFilter

Filtro di caratteri che sostituisce i caratteri nella stringa di input. Usa un'espressione regolare per identificare le sequenze di caratteri da mantenere e un criterio di sostituzione per identificare i caratteri da sostituire. Ad esempio, dato il testo di input "aa bb aa bb", pattern "(aa)\s+(bb)" e sostituzione "$1#$2", il risultato sarà "aa#bb aa#bb". Questo filtro di caratteri viene implementato tramite Apache Lucene.

PatternReplaceTokenFilter

Filtro di caratteri che sostituisce i caratteri nella stringa di input. Usa un'espressione regolare per identificare le sequenze di caratteri da mantenere e un criterio di sostituzione per identificare i caratteri da sostituire. Ad esempio, dato il testo di input "aa bb aa bb", pattern "(aa)\s+(bb)" e sostituzione "$1#$2", il risultato sarà "aa#bb aa#bb". Questo filtro di token viene implementato usando Apache Lucene.

PatternTokenizer

Tokenizer che usa criteri regex corrispondenti per costruire token distinti. Questo tokenizer viene implementato tramite Apache Lucene.

PhoneticTokenFilter

Creare token per corrispondenze fonetiche. Questo filtro di token viene implementato usando Apache Lucene.

QueryAnswerResult

Una risposta è un passaggio di testo estratto dal contenuto dei documenti più rilevanti che corrispondono alla query. Le risposte vengono estratte dai primi risultati della ricerca. I candidati alle risposte vengono assegnati punteggi e vengono selezionate le risposte principali.

QueryCaptionResult

Le didascalie sono i passaggi più rappresentativi del documento relativamente alla query di ricerca. Vengono spesso usati come riepilogo dei documenti. Le didascalie vengono restituite solo per le query di tipo semantic.

QueryResultDocumentSemanticField

Descrizione dei campi inviati al processo di arricchimento semantico, nonché del modo in cui sono stati usati

QueryResultDocumentSubscores

Suddivisione dei caratteri di sottolineatura tra i componenti di query di testo e vettore della query di ricerca per questo documento. Ogni query vettoriale viene visualizzata come oggetto separato nello stesso ordine in cui sono stati ricevuti.

RescoringOptions

Contiene le opzioni per la registrazione.

ResourceCounter

Rappresenta l'utilizzo e la quota di una risorsa.

RetrieveOptions
ScalarQuantizationCompression

Contiene opzioni di configurazione specifiche per il metodo di compressione della quantizzazione scalare usato durante l'indicizzazione e l'esecuzione di query.

ScalarQuantizationParameters

Contiene i parametri specifici della quantizzazione scalare.

ScoringProfile

Definisce i parametri per un indice di ricerca che influisce sul punteggio nelle query di ricerca.

SearchAlias

Rappresenta un alias di indice, che descrive un mapping dal nome alias a un indice. Il nome alias può essere usato al posto del nome dell'indice per le operazioni supportate.

SearchClientOptions

Opzioni client utilizzate per configurare le richieste dell'API di ricerca AI.

SearchDocumentsPageResult

Risposta contenente i risultati della pagina di ricerca da un indice.

SearchDocumentsResult

Risposta contenente i risultati della ricerca da un indice.

SearchDocumentsResultBase

Risposta contenente i risultati della ricerca da un indice.

SearchIndex

Rappresenta una definizione di indice di ricerca, che descrive i campi e il comportamento di ricerca di un indice.

SearchIndexClientOptions

Opzioni client utilizzate per configurare le richieste dell'API di ricerca AI.

SearchIndexFieldReference

Riferimento di campo per un indice di ricerca.

SearchIndexKnowledgeSource

Origine conoscenza destinata a un indice di ricerca.

SearchIndexKnowledgeSourceParameters

Parametri per l'origine della conoscenza dell'indice di ricerca.

SearchIndexKnowledgeSourceParams

Specifica i parametri di runtime per un'origine conoscenza dell'indice di ricerca

SearchIndexStatistics

Statistiche per un determinato indice. Le statistiche vengono raccolte periodicamente e non sono sempre up-to-date.

SearchIndexer

Rappresenta un indicizzatore.

SearchIndexerClientOptions

Opzioni client utilizzate per configurare le richieste dell'API di ricerca AI.

SearchIndexerDataContainer

Rappresenta informazioni sull'entità, ad esempio la tabella SQL di Azure o la raccolta CosmosDB, che verranno indicizzate.

SearchIndexerDataNoneIdentity

Cancella la proprietà Identity di un'origine dati.

SearchIndexerDataSourceConnection

Rappresenta una definizione di origine dati, che può essere utilizzata per configurare un indicizzatore.

SearchIndexerDataUserAssignedIdentity

Specifica l'identità di un'origine dati da usare.

SearchIndexerError

Rappresenta un errore di indicizzazione a livello di elemento o documento.

SearchIndexerIndexProjection

Definizione di proiezioni aggiuntive agli indici di ricerca secondari.

SearchIndexerIndexProjectionParameters

Dizionario delle proprietà di configurazione specifiche della proiezione dell'indice. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo.

SearchIndexerIndexProjectionSelector

Descrizione dei dati da archiviare nell'indice di ricerca designato.

SearchIndexerKnowledgeStore

Definizione di proiezioni aggiuntive per BLOB, tabelle o file di azure di dati arricchiti.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Classe astratta per condividere le proprietà tra selettori concreti.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definizione di proiezione per i dati da archiviare in File di Azure.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definizione di proiezione per i dati da archiviare nel BLOB di Azure.

SearchIndexerKnowledgeStoreParameters

Dizionario delle proprietà di configurazione specifiche dell'archivio conoscenze. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo.

SearchIndexerKnowledgeStoreProjection

Oggetto contenitore per vari selettori di proiezione.

SearchIndexerKnowledgeStoreProjectionSelector

Classe astratta per condividere le proprietà tra selettori concreti.

SearchIndexerKnowledgeStoreTableProjectionSelector

Descrizione dei dati da archiviare nelle tabelle di Azure.

SearchIndexerLimits

Rappresenta i limiti che possono essere applicati a un indicizzatore.

SearchIndexerSkillset

Elenco di competenze.

SearchIndexerStatus

Rappresenta lo stato corrente e la cronologia di esecuzione di un indicizzatore.

SearchIndexerWarning

Rappresenta un avviso a livello di elemento.

SearchIndexingBufferedSenderOptions

Opzioni per SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Una chiave di crittografia gestita dal cliente in Azure Key Vault. Le chiavi create e gestite dall'utente possono essere usate per crittografare o decrittografare i dati inattivi in Ricerca per intelligenza artificiale di Azure, ad esempio indici e mappe di sinonimi.

SearchServiceStatistics

Risposta da una richiesta di recupero delle statistiche del servizio. In caso di esito positivo, include contatori e limiti a livello di servizio.

SemanticConfiguration

Definisce una configurazione specifica da usare nel contesto delle funzionalità semantiche.

SemanticDebugInfo

Opzioni di debug per le query di ricerca semantica.

SemanticField

Campo utilizzato come parte della configurazione semantica.

SemanticPrioritizedFields

Descrive i campi titolo, contenuto e parole chiave da usare per la classificazione semantica, le didascalie, le evidenziazioni e le risposte.

SemanticSearch

Definisce i parametri per un indice di ricerca che influisce sulle funzionalità semantiche.

SemanticSearchOptions

Definisce le opzioni per le query di ricerca semantica

SentimentSkill

Analisi del testo analisi del sentiment positivo negativo, con un punteggio come valore a virgola mobile in un intervallo compreso tra zero e 1.

SentimentSkillV3

Usando l'API Analisi del testo, valuta il testo non strutturato e per ogni record, fornisce etichette del sentiment (ad esempio "negative", "neutral" e "positive") in base al punteggio di attendibilità più alto trovato dal servizio a livello di frase e documento.

ServiceCounters

Rappresenta i contatori e le quote delle risorse a livello di servizio.

ServiceLimits

Rappresenta vari limiti a livello di servizio.

ShaperSkill

Competenza per la ridevisione degli output. Crea un tipo complesso per supportare i campi compositi (noti anche come campi multipart).

ShingleTokenFilter

Crea combinazioni di token come singolo token. Questo filtro di token viene implementato usando Apache Lucene.

SimpleField

Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo.

SingleVectorFieldResult

Risultato di un singolo campo vettoriale. Entrambi

SnowballTokenFilter

Filtro che deriva le parole usando uno stemmer generato da Snowball. Questo filtro di token viene implementato usando Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Definisce un criterio di rilevamento dell'eliminazione dei dati che implementa una strategia di eliminazione temporanea. Determina se un elemento deve essere eliminato in base al valore di una colonna "eliminazione temporanea" designata.

SplitSkill

Competenza per suddividere una stringa in blocchi di testo.

SqlIntegratedChangeTrackingPolicy

Definisce un criterio di rilevamento delle modifiche dei dati che acquisisce le modifiche usando la funzionalità Rilevamento modifiche integrato del database SQL di Azure.

StemmerOverrideTokenFilter

Consente di eseguire l'override di altri filtri di stemming con stemming basato su dizionario personalizzato. Tutti i termini con stemmy-stemming verranno contrassegnati come parole chiave in modo che non vengano stemmati lungo la catena. Deve essere posizionato prima di qualsiasi filtro di stemming. Questo filtro di token viene implementato usando Apache Lucene. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

Filtro di stemming specifico della lingua. Questo filtro di token viene implementato usando Apache Lucene. Fare riferimento a https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StopAnalyzer

Divide il testo in corrispondenza di lettere non; Applica i filtri di token minuscoli e non significative. Questo analizzatore viene implementato usando Apache Lucene.

StopwordsTokenFilter

Rimuove le parole non significative da un flusso di token. Questo filtro di token viene implementato usando Apache Lucene. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

SuggestDocumentsResult

Risposta contenente i risultati della query di suggerimento da un indice.

SuggestRequest

Parametri per il filtro, l'ordinamento, la corrispondenza fuzzy e altri comportamenti di query di suggerimenti.

Suggester

Definisce il modo in cui l'API Suggerisci deve essere applicata a un gruppo di campi nell'indice.

SynchronizationState

Rappresenta lo stato corrente di una sincronizzazione in corso che si estende su più esecuzioni dell'indicizzatore.

SynonymMap

Rappresenta una definizione di mappa sinonimo.

SynonymTokenFilter

Trova la corrispondenza con sinonimi singoli o con più parole in un flusso di token. Questo filtro di token viene implementato usando Apache Lucene.

TagScoringFunction

Definisce una funzione che aumenta i punteggi dei documenti con valori stringa corrispondenti a un determinato elenco di tag.

TagScoringParameters

Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di tag.

TextResult

Punteggio BM25 o Classico per la parte di testo della query.

TextTranslationSkill

Competenza per tradurre testo da una lingua a un'altra.

TextWeights

Definisce i pesi nei campi di indice per i quali le corrispondenze devono aumentare il punteggio nelle query di ricerca.

TokenAuthAzureMachineLearningVectorizerParameters

Specifica le proprietà per la connessione a un vettore AML con un'identità gestita.

TruncateTokenFilter

Tronca i termini a una lunghezza specifica. Questo filtro di token viene implementato usando Apache Lucene.

UaxUrlEmailTokenizer

Tokenzza url e messaggi di posta elettronica come un token. Questo tokenizer viene implementato tramite Apache Lucene.

UniqueTokenFilter

Filtra i token con lo stesso testo del token precedente. Questo filtro di token viene implementato usando Apache Lucene.

VectorSearch

Contiene le opzioni di configurazione correlate alla ricerca vettoriale.

VectorSearchOptions

Definisce le opzioni per le query di ricerca vettoriale

VectorSearchProfile

Definisce una combinazione di configurazioni da usare con la ricerca vettoriale.

VectorizableImageBinaryQuery

Parametri di query da usare per la ricerca vettoriale quando viene fornito un file binario con codifica base 64 di un'immagine che deve essere vettorializzata.

VectorizableImageUrlQuery

Parametri di query da usare per la ricerca vettoriale quando viene fornito un URL che rappresenta un valore di immagine che deve essere vettorializzato.

VectorizableTextQuery

Parametri di query da usare per la ricerca vettoriale quando viene fornito un valore di testo che deve essere vettorializzato.

VectorizedQuery

Parametri di query da usare per la ricerca vettoriale quando viene specificato un valore di vettore non elaborato.

VectorsDebugInfo

"Contiene informazioni di debug specifiche per la ricerca vettoriale e ibrida.")

WebApiParameters

Specifica le proprietà per la connessione a un vettore definito dall'utente.

WebApiSkill

Una competenza che può chiamare un endpoint API Web, consentendo di estendere un set di competenze tramite la chiamata al codice personalizzato.

WebApiVectorizer

Specifica un vettore definito dall'utente per generare l'incorporamento del vettore di una stringa di query. L'integrazione di un vettore esterno viene ottenuta usando l'interfaccia API Web personalizzata di un set di competenze.

WebKnowledgeSource

Risultati Web di targeting della Knowledge Source.

WebKnowledgeSourceDomain

Configurazione per il dominio di origine della conoscenza Web.

WebKnowledgeSourceDomains

Configurazione del dominio che consente/blocca per l'origine della conoscenza Web.

WebKnowledgeSourceParameters

Parametri per la fonte di conoscenza web.

WebKnowledgeSourceParams

Specifica i parametri di runtime per un'origine della conoscenza Web

WordDelimiterTokenFilter

Suddivide le parole in parole secondarie ed esegue trasformazioni facoltative nei gruppi di sottoword. Questo filtro di token viene implementato usando Apache Lucene.

Alias tipo

AIFoundryModelCatalogName

Il nome del modello di embedding dal Azure AI Foundry Catalog sarà chiamato.
KnownAIFoundryModelCatalogName può essere utilizzato in modo intercambiabile con AIFoundryModelCatalogName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32: OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32
OpenAI-CLIP-Immagine-Inserzioni-Testo-ViT-Grande-Patch14-336: OpenAI-CLIP-Immagine-Inserzioni-Testo-ViT-Grande-Patch14-336
Facebook-DinoV2-Image-Embeddings-ViT-Base: Facebook-DinoV2-Image-Embeddings-ViT-Base
Facebook-DinoV2-Immagini-Embeddings-ViT-Giant: Facebook-DinoV2-Immagini-Embeddings-ViT-Giant
Cohere-embed-v3-english: Cohere-embed-v3-english
Cohere-embed-v3-multilingue: Cohere-embed-v3-multilingue
Cohere-embed-v4: modello Cohere embed v4 per la generazione di incorporamenti da testo e immagini.

AliasIterator

Iteratore per elencare gli alias esistenti nel servizio di ricerca. In questo modo le richieste verranno eseguite in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione.

AnalyzeTextOptions

Opzioni per l'operazione di analisi del testo.

AutocompleteMode

Specifica la modalità per il completamento automatico. Il valore predefinito è 'oneTerm'. Utilizzare 'twoTerms' per ottenere le tegole e 'oneTermWithContext' per utilizzare il contesto corrente nella produzione di termini di completamento automatico.

AutocompleteOptions

Opzioni per il recupero del testo di completamento per un oggetto searchText parziale.

AzureMachineLearningVectorizerParameters

Specifica le proprietà per la connessione a un vettore AML.

AzureOpenAIModelName

Nome del modello Azure Open AI che verrà chiamato.
KnownAzureOpenAIModelName può essere usato in modo intercambiabile con AzureOpenAIModelName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

text-embedding-ada-002: modello TextEmbeddingAda002.
text-embedding-3-large: TextEmbedding3Large modello.
text-embedding-3-small: TextEmbedding3Small modello.
gpt-5-mini: modello Gpt5Mini.
gpt-5-nano: modello Gpt5Nano.
gpt-5.4-mini: modello Gpt54Mini.
gpt-5.4-nano: modello Gpt54Nano.

BaseKnowledgeRetrievalIntent

Alias per KnowledgeRetrievalIntentUnion

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Contiene i casi possibili per CharFilter.

CharFilterName

Definisce i nomi di tutti i filtri carattere supportati dal motore di ricerca.
<xref:KnownCharFilterName> può essere usato in modo intercambiabile con CharFilterName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

html_strip: filtro di caratteri che tenta di rimuovere i costrutti HTML. Fare riferimento a https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

ChatCompletionExtraParametersBehavior

Specifica come gli 'extraParameters' dovrebbero essere gestiti da Azure AI Foundry. Il valore predefinito è 'error'.
KnownChatCompletionExtraParametersBehavior può essere utilizzato in modo intercambiabile con ChatCompletionExtraParametersBehavior, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

passThrough: passa eventuali parametri aggiuntivi direttamente al modello.
drop: Elimina tutti i parametri extra.
error: genera un errore se è presente un parametro aggiuntivo.

ChatCompletionResponseFormatType

Specifica il modo in cui l'LLM deve formattare la risposta.
KnownChatCompletionResponseFormatType può essere usato in modo intercambiabile con ChatCompletionResponseFormatType, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

testo: formato di risposta in testo semplice.
jsonObject: Formato arbitrario di risposta JSON a oggetti.
jsonSchema: Formato di risposta JSON che aderisce allo schema.

CjkBigramTokenFilterScripts

Script che possono essere ignorati da CjkBigramTokenFilter.

CognitiveServicesAccount

Contiene i casi possibili per CognitiveServicesAccount.

ComplexDataType

Definisce i valori per ComplexDataType. I valori possibili includono: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

ContentUnderstandingSkillChunkingUnit

Controlla la cardinalità dell'unità chunk. Il predefinito è 'characters'
KnownContentUnderstandingSkillChunkingUnit può essere usato in modo intercambiabile con ContentSkillChunkingUnit, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

characters: specifica il blocco per caratteri.

ContentUnderstandingSkillExtractionOptions

Controlla la cardinalità del contenuto estratto dal documento dalla competenza.
KnownContentUnderstandingSkillExtractionOptions può essere usato in modo intercambiabile con ContentUnderstandingSkillExtractionOptions, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

images: Specifica che il contenuto dell'immagine deve essere estratto dal documento.
locationMetadata: specificare che i metadati della posizione devono essere estratti dal documento.

ContinuablePage

Interfaccia che descrive una pagina di risultati.

CountDocumentsOptions

Opzioni per l'esecuzione dell'operazione di conteggio sull'indice.

CreateAliasOptions

Opzioni per l'operazione di creazione alias.

CreateDataSourceConnectionOptions

Opzioni per l'operazione di creazione dell'origine dati.

CreateIndexOptions

Opzioni per l'operazione di creazione dell'indice.

CreateIndexerOptions

Opzioni per l'operazione di creazione dell'indicizzatore.

CreateSkillsetOptions

Opzioni per creare un'operazione del set di competenze.

CreateSynonymMapOptions

Opzioni per creare l'operazione synonymmap.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Contiene i casi possibili per DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contiene i casi possibili per DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opzioni per l'operazione di eliminazione dei documenti.

DocumentIntelligenceLayoutSkillChunkingUnit

Controlla la cardinalità dell'unità chunk. Il predefinito è 'characters'
KnownDocumentIntelligenceLayoutSkillChunkingUnit può essere usato in modo intercambiabile con DocumentIntelligenceLayoutSkillChunkingUnit, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

characters: specifica il blocco per caratteri.

DocumentIntelligenceLayoutSkillExtractionOptions

Controlla la cardinalità del contenuto estratto dal documento dalla competenza.
KnownDocumentIntelligenceLayoutSkillExtractionOptions può essere usato in modo intercambiabile con DocumentIntelligenceLayoutSkillExtractionOptions, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

images: Specifica che il contenuto dell'immagine deve essere estratto dal documento.
locationMetadata: specificare che i metadati della posizione devono essere estratti dal documento.

DocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Profondità delle intestazioni nell'output markdown. Il valore predefinito è h6.
KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth può essere usato in modo intercambiabile con DocumentIntelligenceLayoutSkillMarkdownHeaderDepth, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

h1: Livello di intestazione 1.
h2: Livello di intestazione 2.
h3: Livello di intestazione 3.
h4: Livello di intestazione 4.
h5: Livello di intestazione 5.
h6: Livello di intestazione 6.

DocumentIntelligenceLayoutSkillOutputFormat

Controlla la cardinalità del formato di output. Il valore predefinito è 'markdown'.
KnownDocumentIntelligenceLayoutSkillOutputFormat può essere utilizzato in modo intercambiabile con DocumentIntelligenceLayoutSkillOutputFormat, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

text: Specifica il formato dell'output come testo.
markdown: specificare il formato dell'output come markdown.

DocumentIntelligenceLayoutSkillOutputMode

Controlla la cardinalità dell'output prodotto dalla competenza. Il valore predefinito è "oneToMany".
KnownDocumentIntelligenceLayoutSkillOutputMode può essere usato in modo intercambiabile con DocumentIntelligenceLayoutSkillOutputMode, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

oneToMany: specificare che l'output deve essere analizzato come 'oneToMany'.

EdgeNGramTokenFilterSide

Specifica da quale lato dell'input deve essere generato un n-gram.

EntityCategory

Stringa che indica le categorie di entità da restituire.
KnownEntityCategory può essere usato in modo intercambiabile con EntityCategory, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

Posizione: Entità che descrivono una posizione fisica.
organizzazione: Entità che descrivono un'organizzazione.
persona: Entità che descrivono una persona.
quantità: Entità che descrivono una quantità.
datatime: Entità che descrivono una data e un'ora.
url: Entità che descrivono un URL.
email: Entità che descrivono un indirizzo email.

EntityRecognitionSkillLanguage

I codici della lingua supportati per il testo di input da EntityRecognitionSkill.
KnownEntityRecognitionSkillLanguage può essere usato in modo intercambiabile con EntityRecognitionSkillLanguage, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

ar: arabo
cs: ceco
zh-Hans: Chinese-Simplified
zh-Hant: Chinese-Traditional
da: Danese
nl: olandese
en: inglese
fi: finlandese
fr: francese
de: tedesco
el: greco
hu: ungherese
it: italiano
ja: giapponese
ko: Coreano
No: Norvegese (Bokmaal)
pl: Polacco
pt-PT: Portoghese (Portogallo)
pt-BR: Portoghese (Brasile)
ru: russo
es: spagnolo
sv: Svedese
tr: turco

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contiene opzioni di configurazione specifiche dell'algoritmo KNN completo usato durante l'esecuzione di query, che eseguirà la ricerca di forza bruta nell'intero indice vettoriale.

ExtractDocumentKey
GetAliasOptions

Opzioni per l'operazione get alias.

GetDataSourceConnectionOptions

Opzioni per l'operazione get datasource.

GetIndexOptions

Opzioni per l'operazione get index.

GetIndexStatisticsOptions

Opzioni per l'operazione get index statistics.

GetIndexerOptions

Opzioni per l'operazione get indexer.

GetIndexerStatusOptions

Opzioni per l'operazione di recupero dello stato dell'indicizzatore.

GetServiceStatisticsOptions

Opzioni per l'operazione di recupero delle statistiche del servizio.

GetSkillSetOptions

Opzioni per l'operazione get skillset.

GetSynonymMapsOptions

Opzioni per l'operazione get synonymmaps.

HnswAlgorithmConfiguration

Contiene opzioni di configurazione specifiche dell'algoritmo hnsw approssimato vicino usato durante l'indicizzazione.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Operazione da eseguire su un documento in un batch di indicizzazione.

IndexDocumentsAction

Rappresenta un'azione di indice che opera su un documento.

IndexIterator

Iteratore per elencare gli indici esistenti nel servizio di ricerca. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione.

IndexNameIterator

Iteratore per elencare gli indici esistenti nel servizio di ricerca. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione.

IndexProjectionMode

Definisce il comportamento delle proiezioni dell'indice in relazione al resto dell'indicizzatore.
KnownIndexProjectionMode può essere usato in modo intercambiabile con IndexProjectionMode, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

skipIndexingParentDocuments: il documento di origine verrà ignorato dalla scrittura nell'indice di destinazione dell'indicizzatore.
includeIndexingParentDocuments: il documento di origine verrà scritto nell'indice di destinazione dell'indicizzatore. Questo è il modello predefinito.

IndexerExecutionEnvironment
IndexerExecutionStatus

Rappresenta lo stato di una singola esecuzione dell'indicizzatore.

IndexerResyncOption

Opzioni con vari tipi di dati di autorizzazione per l'indicizzazione.
KnownIndexerResyncOption può essere usato in modo intercambiabile con IndexerResyncOption, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

autorizzazioni: indicizzatore per inserire nuovamente i dati delle autorizzazioni preselezionate dall'origine dati all'indice.

IndexerStatus

Rappresenta lo stato generale dell'indicizzatore.

KeyPhraseExtractionSkillLanguage
KnowledgeBaseActivityRecord

Alias per KnowledgeBaseActivityRecordUnion

KnowledgeBaseActivityRecordType

Il tipo di record di attività.
<xref:KnownKnowledgeBaseActivityRecordType> può essere usato in modo intercambiabile con KnowledgeBaseActivityRecordType, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

searchIndex: attività di recupero dell'indice di ricerca.
azureBlob: attività di recupero Azure blob.
indexedOneLake: Attività di recupero di OneLake indicizzata.
web: attività di recupero web.
modelWebSummarization: attività di riassunto web LLM.
Ragionamento agentico: Attività di ragionamento agentico.

KnowledgeBaseIterator

Un iteratore per elencare le knowledge base esistenti nel servizio di ricerca. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione.

KnowledgeBaseMessageContent

Alias per KnowledgeBaseMessageContentUnion

KnowledgeBaseMessageContentType

Tipo di contenuto del messaggio.
<xref:KnownKnowledgeBaseMessageContentType> può essere usato in modo intercambiabile con KnowledgeBaseMessageContentType, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

testo: Contenuto per messaggi di testo.
immagine: Immagine messaggio contenuto tipo.

KnowledgeBaseModel
KnowledgeBaseModelKind

Modello di intelligenza artificiale da utilizzare per la pianificazione delle query.
KnownKnowledgeBaseModelKind può essere usato in modo intercambiabile con KnowledgeBaseModelKind, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

azureOpenAI: Utilizzare Azure modelli Open AI per la pianificazione delle query.

KnowledgeBaseReference

Alias per KnowledgeBaseReferenceUnion

KnowledgeBaseReferenceType

Tipo di riferimento.
<xref:KnownKnowledgeBaseReferenceType> può essere usato in modo intercambiabile con KnowledgeBaseReferenceType, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

searchIndex: Ricerca indice riferimento al documento.
azureBlob: Azure riferimento al documento Blob.
indexedOneLake: Riferimento al documento OneLake indicizzato.
web: Riferimento a documenti web.

KnowledgeRetrievalIntentType

Tipo di configurazione della Knowledge Base da utilizzare.
<xref:KnownKnowledgeRetrievalIntentType> può essere usato in modo intercambiabile con KnowledgeRetrievalIntentType, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

Semantica: Un'intento di interrogazione semantica in linguaggio naturale.

KnowledgeRetrievalReasoningEffortKind

Quantità di sforzo da utilizzare durante il recupero.
<xref:KnownKnowledgeRetrievalReasoningEffortKind> può essere usato in modo intercambiabile con KnowledgeRetrievalReasoningEffortKind, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

minimal: Non esegue alcuna selezione di sorgente, pianificazione delle query o ricerca iterativa.

KnowledgeRetrievalReasoningEffortUnion

Alias per RecuperoConoscenzaRagionamentoSforzoUnione

KnowledgeSource
KnowledgeSourceContentExtractionMode

Modalità di estrazione dei contenuti opzionale. Il valore predefinito è 'minimal'.
<xref:KnownKnowledgeSourceContentExtractionMode> può essere usato in modo intercambiabile con KnowledgeSourceContentExtractionMode, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

minimal: estrae solo i metadati essenziali e rimanda la maggior parte dell'elaborazione dei contenuti.
standard: Esegue l'intera pipeline predefinita di estrazione dei contenuti.

KnowledgeSourceIterator

Un iteratore per elencare le fonti di conoscenza esistenti nel servizio di ricerca. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione.

KnowledgeSourceKind

Il tipo di fonte di conoscenza.
KnownKnowledgeSourceKind può essere utilizzato in modo intercambiabile con KnowledgeSourceKind, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

searchIndex: un'origine della conoscenza che legge i dati da un indice di ricerca.
azureBlob: un'origine della conoscenza che legge e inserisce dati da Archiviazione BLOB di Azure in un indice di ricerca.
indexedOneLake: Una fonte di conoscenza che legge dati da OneLake indicizzato.
web: Una fonte di conoscenza che legge dati dal web.

KnowledgeSourceParams

Alias per KnowledgeSourceParamsUnion

KnowledgeSourceSynchronizationStatus

Stato di sincronizzazione corrente dell'origine della conoscenza.
<xref:KnownKnowledgeSourceSynchronizationStatus> può essere usato in modo intercambiabile con KnowledgeSourceSynchronizationStatus, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

creazione: La fonte di conoscenza viene fornita.
attivo: La sorgente di conoscenza è attiva e sono in corso esecuzioni di sincronizzazione.
cancellazione: La fonte della conoscenza viene eliminata e la sincronizzazione viene messa in pausa.

KnowledgeSourceVectorizer
LexicalAnalyzer

Contiene i possibili casi per Analyzer.

LexicalAnalyzerName

Definisce i nomi di tutti gli analizzatori di testo supportati dal motore di ricerca.
KnownLexicalAnalyzerName può essere utilizzato in modo intercambiabile con LexicalAnalyzerName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

ar.microsoft: Analizzatore Microsoft per l'arabo.
ar.lucene: analizzatore Lucene per l'arabo.
hy.lucene: analizzatore Lucene per armeno.
bn.microsoft: Analizzatore Microsoft per Bangla.
eu.lucene: analizzatore Lucene per basco.
bg.microsoft: Analizzatore Microsoft per bulgaro.
bg.lucene: analizzatore Lucene per bulgaro.
ca.microsoft: Analizzatore Microsoft per catalano.
ca.lucene: analizzatore Lucene per catalano.
zh-Hans.microsoft: Analizzatore Microsoft per il cinese (semplificato).
zh-Hans.lucene: analizzatore Lucene per il cinese (semplificato).
zh-Hant.microsoft: Analizzatore Microsoft per il cinese (tradizionale).
zh-Hant.lucene: analizzatore Lucene per il cinese (tradizionale).
hr.microsoft: Analizzatore Microsoft per croato.
cs.microsoft: Analizzatore Microsoft per ceco.
cs.lucene: analizzatore Lucene per ceco.
da.microsoft: Analizzatore Microsoft per danese.
da.lucene: analizzatore Lucene per danese.
nl.microsoft: Analizzatore Microsoft per olandese.
nl.lucene: analizzatore Lucene per olandese.
en.microsoft: Analizzatore Microsoft per l'inglese.
en.lucene: analizzatore Lucene per l'inglese.
et.microsoft: Analizzatore Microsoft per estone.
fi.microsoft: Analizzatore Microsoft per il finlandese.
fi.lucene: analizzatore Lucene per il finlandese.
fr.microsoft: Analizzatore Microsoft per il francese.
fr.lucene: analizzatore Lucene per francese.
gl.lucene: analizzatore Lucene per la Galizia.
de.microsoft: Analizzatore Microsoft per il tedesco.
de.lucene: analizzatore Lucene per tedesco.
el.microsoft: Analizzatore Microsoft per greco.
el.lucene: analizzatore Lucene per greco.
gu.microsoft: Analizzatore Microsoft per Gujarati.
he.microsoft: Analizzatore Microsoft per l'ebraico.
hi.microsoft: Analizzatore Microsoft per Hindi.
hi.lucene: analizzatore Lucene per hindi.
hu.microsoft: Analizzatore Microsoft per ungherese.
hu.lucene: analizzatore Lucene per ungherese.
is.microsoft: Analizzatore Microsoft per islandese.
id.microsoft: Analizzatore Microsoft per Indonesiano (Bahasa).
id.lucene: analizzatore Lucene per indonesiano.
ga.lucene: analizzatore Lucene per irlandese.
it.microsoft: Analizzatore Microsoft per italiano.
it.lucene: analizzatore Lucene per l'italiano.
ja.microsoft: Analizzatore Microsoft per il giapponese.
ja.lucene: analizzatore Lucene per il giapponese.
kn.microsoft: Analizzatore Microsoft per Kannada.
ko.microsoft: Analizzatore Microsoft per coreano.
ko.lucene: analizzatore Lucene per il coreano.
lv.microsoft: Analizzatore Microsoft per lettone.
lv.lucene: analizzatore Lucene per lettone.
lt.microsoft: Analizzatore Microsoft per lituano.
ml.microsoft: Analizzatore Microsoft per Malayalam.
ms.microsoft: Analizzatore Microsoft per la malaia (alfabeto latino).
mr.microsoft: Analizzatore Microsoft per Marathi.
nb. microsoft: Analizzatore Microsoft per il norvegese (Bokmål).
no.lucene: analizzatore Lucene per norvegese.
fa.lucene: analizzatore Lucene per persiano.
pl.microsoft: Analizzatore Microsoft per polacco.
pl.lucene: analizzatore Lucene per polacco.
pt-BR.microsoft: Analizzatore Microsoft per portoghese (Brasile).
pt-BR.lucene: analizzatore Lucene per portoghese (Brasile).
pt-PT.microsoft: Analizzatore Microsoft per portoghese (Portogallo).
pt-PT.lucene: analizzatore Lucene per portoghese (Portogallo).
pa.microsoft: Analizzatore Microsoft per Punjabi.
ro.microsoft: Analizzatore Microsoft per romeno.
ro.lucene: analizzatore Lucene per romeno.
ru.microsoft: analizzatore Microsoft per russo.
ru.lucene: analizzatore Lucene per russo.
sr-cyrillic.microsoft: Analizzatore Microsoft per serbo (cirillico).
sr-latin.microsoft: Analizzatore Microsoft per serbo (alfabeto latino).
sk.microsoft: Analizzatore Microsoft per slovacco.
sl.microsoft: Analizzatore Microsoft per sloveno.
es.microsoft: Analizzatore Microsoft per spagnolo.
es.lucene: analizzatore Lucene per spagnolo.
sv.microsoft: Analizzatore Microsoft per svedese.
sv.lucene: analizzatore Lucene per svedese.
ta.microsoft: Analizzatore Microsoft per Il Tamil.
te.microsoft: Analizzatore Microsoft per Telugu.
th.microsoft: Analizzatore Microsoft per thai.
th.lucene: analizzatore Lucene per thai.
tr.microsoft: Analizzatore Microsoft per turco.
tr.lucene: analizzatore Lucene per turco.
uk.microsoft: Analizzatore Microsoft per ucraino.
your.microsoft: Analizzatore Microsoft per Urdu.
vi.microsoft: Analizzatore Microsoft per vietnamita.
standard.lucene: analizzatore Lucene standard.
standardasciifolding.lucene: analizzatore Lucene con riduzione standard ASCII. Fare riferimento a https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
parola chiave: considera l'intero contenuto di un campo come un singolo token. Ciò è utile per i dati, ad esempio i codici postali, gli ID e alcuni nomi di prodotto. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
modello: separa in modo flessibile il testo in termini tramite un criterio di espressione regolare. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
semplice: divide il testo in lettere non e li converte in lettere minuscole. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop: divide il testo in corrispondenza di non lettere; Applica i filtri di token minuscoli e non significative. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
spazi vuoti: analizzatore che usa il tokenizzatore di spazi vuoti. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizer

Contiene i possibili case per LexicalNormalizer.

LexicalNormalizerName

Definisce i nomi di tutti i normalizzatori di testo supportati dal motore di ricerca.
KnownLexicalNormalizerName può essere utilizzato in modo intercambiabile con LexicalNormalizerName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

asciifolding: converte caratteri Unicode alfabetici, numerici e simbolici che non sono nei primi 127 caratteri ASCII (blocco Unicode "Latino di base") nei rispettivi equivalenti ASCII, se tali equivalenti esistono. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
l'elisione: rimuove le elisioni. Ad esempio, "l'avion" (il piano) verrà convertito in "avion" (piano). Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
minuscolo: normalizza il testo del token in minuscolo. Fare riferimento a https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
standard: normalizzatore standard, costituito da lettere minuscole e asciifolding. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
maiuscolo: normalizza il testo del token in maiuscolo. Fare riferimento a https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizer

Contiene i casi possibili per Tokenizer.

LexicalTokenizerName

Definisce i nomi di tutti i tokenizzatori supportati dal motore di ricerca.
<xref:KnownLexicalTokenizerName> può essere usato in modo intercambiabile con LexicalTokenizerName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

classico: tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: tokenzza l'input da un bordo in n grammi delle dimensioni specificate. Fare riferimento a https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: genera l'intero input come singolo token. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
lettera: divide il testo in corrispondenza di lettere non. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
minuscolo: divide il testo in lettere non maiuscole e le converte in lettere minuscole. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: divide il testo usando regole specifiche della lingua.
microsoft_language_stemming_tokenizer: divide il testo usando regole specifiche della lingua e riduce le parole nelle relative forme di base.
nGram: tokenzza l'input in n-grammi delle dimensioni specificate. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: tokenizzatore per gerarchie simili al percorso. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
modello: tokenizer che usa criteri regex corrispondenti per costruire token distinti. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: analizzatore Lucene standard; Composto dal tokenizer standard, dal filtro minuscolo e dal filtro di arresto. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: tokenzza url e messaggi di posta elettronica come un token. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
spazi vuoti: divide il testo in corrispondenza degli spazi vuoti. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListAliasesOptions

Opzioni per l'operazione degli alias di elenco.

ListDataSourceConnectionsOptions

Opzioni per un'operazione di elenco delle origini dati.

ListIndexersOptions

Opzioni per un'operazione degli indicizzatori di elenco.

ListIndexesOptions

Opzioni per un'operazione sugli indici di elenco.

ListSkillsetsOptions

Opzioni per un'operazione di set di competenze di elenco.

ListSynonymMapsOptions

Opzioni per un'operazione list synonymMaps.

MarkdownHeaderDepth

Specifica la profondità massima dell'intestazione che verrà considerata durante il raggruppamento del contenuto markdown. Il valore predefinito è h6.
KnownMarkdownHeaderDepth può essere usato in modo intercambiabile con MarkdownHeaderDepth, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

h1: indica che le intestazioni fino a un livello di h1 verranno prese in considerazione durante il raggruppamento del contenuto markdown.
h2: indica che le intestazioni fino a un livello di h2 verranno prese in considerazione durante il raggruppamento del contenuto markdown.
h3: indica che le intestazioni fino a un livello di h3 verranno prese in considerazione durante il raggruppamento del contenuto markdown.
h4: indica che le intestazioni fino a un livello di h4 verranno prese in considerazione durante il raggruppamento del contenuto markdown.
h5: indica che le intestazioni fino a un livello di h5 verranno prese in considerazione durante il raggruppamento del contenuto markdown.
h6: indica che le intestazioni fino a un livello di h6 verranno prese in considerazione durante il raggruppamento del contenuto markdown. Si tratta dell'impostazione predefinita.

MarkdownParsingSubmode

Specifica la modalità secondaria che determinerà se un file markdown verrà analizzato esattamente in uno o più documenti di ricerca. Il valore predefinito è oneToMany.
KnownMarkdownParsingSubmode può essere usato in modo intercambiabile con MarkdownParsingSubmode, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

oneToMany: indica che ogni sezione del file markdown (fino a una profondità specificata) verrà analizzata in singoli documenti di ricerca. Ciò può comportare un singolo file markdown che produce più documenti di ricerca. Questa è la modalità secondaria predefinita.
oneToOne: indica che ogni file markdown verrà analizzato in un singolo documento di ricerca.

MergeDocumentsOptions

Opzioni per l'operazione di unione dei documenti.

MergeOrUploadDocumentsOptions

Opzioni per l'operazione di unione o caricamento di documenti.

MicrosoftStemmingTokenizerLanguage

Elenca i linguaggi supportati dal tokenizzatore stemming del linguaggio Microsoft.

MicrosoftTokenizerLanguage

Elenca le lingue supportate dal tokenizzatore di linguaggio Microsoft.

NarrowedModel

Restringe il tipo di modello in modo da includere solo i campi selezionati

OcrLineEnding

Definisce la sequenza di caratteri da utilizzare tra le righe di testo riconosciute dalla competenza OCR. Il valore predefinito è "spazio".
KnownOcrLineEnding può essere usato in modo intercambiabile con OcrLineEnding, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

spazio: le righe sono separate da un singolo carattere di spazio.
capoReturn: le righe sono separate da un ritorno a capo ('\r').
rigaFeed: le righe sono separate da un singolo avanzamento riga ('\n').
capoReturnLineFeed: le righe sono separate da un ritorno a capo e da un avanzamento riga ('\r\n').

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Identifica il tipo di codificatore fonetico da utilizzare con un PhoneticTokenFilter.

QueryAnswer

Valore che specifica se le risposte devono essere restituite come parte della risposta di ricerca. Questo parametro è valido solo se il tipo di query è 'semantic'. Se impostato su extractive, la query restituisce le risposte estratte dai passaggi chiave nei documenti classificati più alti.

QueryCaption

Valore che specifica se le didascalie devono essere restituite come parte della risposta di ricerca. Questo parametro è valido solo se il tipo di query è 'semantic'. Se impostata, la query restituisce le didascalie estratte dai passaggi chiave nei documenti classificati più alti. Quando captions è "estratto", l'evidenziazione è abilitata per impostazione predefinita. Il valore predefinito è 'none'.

QueryDebugMode

Abilita uno strumento di debug che può essere utilizzato per esplorare ulteriormente i risultati della ricerca. È possibile abilitare più modalità di debug contemporaneamente separandole con un | carattere, ad esempio: semantic|queryRewrites.
KnownQueryDebugMode può essere utilizzato in modo intercambiabile con QueryDebugMode, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

disabilitato: non verranno restituite informazioni di debug della query.
semantica: consente all'utente di esplorare ulteriormente i risultati riclassificati.
vettore: consente all'utente di esplorare ulteriormente i risultati delle query ibride e vettoriali.
queryRewrites: consente all'utente di esplorare l'elenco delle riscritture delle query generate per la richiesta di ricerca.
innerHits: consente all'utente di recuperare le informazioni sul punteggio relative ai vettori corrispondenti all'interno di una raccolta di tipi complessi.
all: attiva tutte le opzioni di debug.

QueryRewrites

Definisce le opzioni per la riscrittura delle query.

QueryType

Specifica la sintassi della query di ricerca. Il valore predefinito è 'simple'. Utilizzare 'full' se la query utilizza la sintassi della query Lucene e 'semantic' se la sintassi della query non è necessaria.
<xref:KnownQueryType> può essere usato in modo intercambiabile con QueryType, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

semplice: Usa la sintassi semplice delle query per le ricerche. Il testo di ricerca viene interpretato utilizzando un semplice linguaggio di query che consente l'uso di simboli come +, * e "". Per impostazione predefinita, le query vengono valutate in tutti i campi in cui è possibile eseguire la ricerca, a meno che non venga specificato il parametro searchFields.
full: Utilizza la sintassi completa delle query Lucene per le ricerche. Il testo di ricerca viene interpretato utilizzando il linguaggio di query Lucene, che consente ricerche specifiche per campo e ponderate, oltre ad altre funzionalità avanzate.
Semantica: Più adatta per query espresse in linguaggio naturale piuttosto che per parole chiave. Migliora la precisione dei risultati di ricerca riclassificando i primi risultati di ricerca utilizzando un modello di classificazione addestrato sul corpus Web.

RankingOrder

Rappresenta il punteggio da utilizzare per l'ordinamento dei documenti.
KnownRankingOrder può essere utilizzato in modo intercambiabile con RankingOrder, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

BoostedRerankerScore: Imposta l'ordinamento come BoostedRerankerScore
RerankerScore: imposta l'ordinamento come ReRankerScore

RegexFlags
ResetIndexerOptions

Opzioni per reimpostare l'operazione dell'indicizzatore.

RunIndexerOptions

Opzioni per l'esecuzione dell'operazione dell'indicizzatore.

ScoringFunction

Contiene i possibili casi per ScoringFunction.

ScoringFunctionAggregation

Definisce la funzione di aggregazione utilizzata per combinare i risultati di tutte le funzioni di assegnazione dei punteggi in un profilo di punteggio.

ScoringFunctionInterpolation

Definisce la funzione utilizzata per interpolare l'aumento del punteggio in un intervallo di documenti.

ScoringStatistics

Un valore che specifica se si desidera calcolare le statistiche di punteggio (ad esempio la frequenza dei documenti) a livello globale per un punteggio più coerente o a livello locale, per una latenza inferiore. Il valore predefinito è 'locale'. Utilizza "globale" per aggregare le statistiche di punteggio a livello globale prima di segnare. L'uso delle statistiche di punteggio globali può aumentare la latenza delle query di ricerca.

SearchField

Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo.

SearchFieldArray

Se TModel è un oggetto non tipizzato, una matrice di stringhe non tipizzata In caso contrario, i campi delimitati da barre di TModel.

SearchFieldDataType

Definisce i valori per SearchFieldDataType.

Valori noti supportati dal servizio:

Edm.String: indica che un campo contiene una stringa.

Edm.Int32: indica che un campo contiene un intero con segno a 32 bit.

Edm.Int64: indica che un campo contiene un intero con segno a 64 bit.

Edm.Double: indica che un campo contiene un numero a virgola mobile a precisione doppia IEEE.

Edm.Boolean: indica che un campo contiene un valore booleano (true o false).

Edm.DateTimeOffset: indica che un campo contiene un valore di data/ora, incluse le informazioni sul fuso orario.

Edm.GeographyPoint: indica che un campo contiene una posizione geografica in termini di longitudine e latitudine.

Edm.ComplexType: indica che un campo contiene uno o più oggetti complessi che a loro volta hanno sottocampi di altri tipi.

Edm.Single: indica che un campo contiene un numero a virgola mobile a precisione singola. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Single).

Edm.Half: indica che un campo contiene un numero a virgola mobile a metà precisione. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Half).

Edm.Int16: indica che un campo contiene un intero con segno a 16 bit. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Int16).

Edm.SByte: indica che un campo contiene un intero con segno a 8 bit. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.SByte).

Edm.Byte: indica che un campo contiene un intero senza segno a 8 bit. Questa opzione è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Byte).

SearchIndexAlias

Oggetto Alias di ricerca.

SearchIndexerDataIdentity

Contiene i possibili casi per SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Contiene i possibili casi per Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opzioni per SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opzioni per SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opzioni per SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opzioni per SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opzioni per SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Iteratore per i risultati della ricerca di una query paticolare. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione.

SearchMode

Specifica se è necessario trovare una corrispondenza tra uno o tutti i termini di ricerca per poter conteggiare il documento come corrispondenza.

SearchOptions

Opzioni per il commit di una richiesta di ricerca completa.

SearchPick

Seleziona in profondità i campi di T utilizzando percorsi di $select OData di ricerca AI validi.

SearchRequestOptions

Parametri per il filtro, l'ordinamento, il facet, il paging e altri comportamenti delle query di ricerca.

SearchRequestQueryTypeOptions
SearchResult

Contiene un documento trovato da una query di ricerca, oltre ai metadati associati.

SelectFields

Produce un'unione di percorsi di $select OData di ricerca AI validi per T utilizzando un attraversamento post-ordine dell'albero del campo radicato in T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType

Tipo di risposta parziale restituita per una richiesta di classificazione semantica.
KnowSemanticSearchResultsType può essere usato in modo intercambiabile con SemanticSearchResultsType, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

baseResults: Risultati senza alcun arricchimento semantico o riclassificazione.
rerankedResults: I risultati sono stati riclassificati con il modello reranker e includeranno didascalie semantiche. Non includeranno alcuna risposta, evidenziazione delle risposte o evidenziazione delle didascalie.

SentimentSkillLanguage

I codici lingua supportati per il testo di input da SentimentSkill.
KnownSentimentSkillLanguage può essere usato in modo intercambiabile con SentimentSkillLanguage, questo enum contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

da: Danese
nl: olandese
en: inglese
fi: finlandese
fr: francese
de: tedesco
el: greco
it: italiano
No: Norvegese (Bokmaal)
pl: Polacco
pt-PT: Portoghese (Portogallo)
ru: russo
es: spagnolo
sv: Svedese
tr: turco

Similarity

Alias per SimilarityAlgorithmUnion

SimilarityAlgorithm

Contiene i possibili casi di somiglianza.

SnowballTokenFilterLanguage

Lingua da utilizzare per un filtro token Snowball.

SplitSkillLanguage
StemmerTokenFilterLanguage

Linguaggio da utilizzare per un filtro token stemmer.

StopwordsList

Identifica un elenco predefinito di parole non significative specifiche della lingua.

SuggestNarrowedModel
SuggestOptions

Opzioni per il recupero di suggerimenti in base a searchText.

SuggestResult

Risultato contenente un documento trovato da una query di suggerimento, oltre ai metadati associati.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Rappresenta le classi di caratteri su cui può operare un filtro token.

TokenFilter

Contiene i casi possibili per TokenFilter.

TokenFilterName

Definisce i nomi di tutti i filtri token supportati dal motore di ricerca.
<xref:KnownTokenFilterName> può essere usato in modo intercambiabile con TokenFilterName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

arabic_normalization: filtro token che applica il normalizzatore arabo per normalizzare l'ortografia. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrofo: rimuove tutti i caratteri dopo un apostrofo (incluso l'apostrofo stesso). Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: converte caratteri Unicode alfabetici, numerici e simbolici che non sono nei primi 127 caratteri ASCII (blocco Unicode "Latino di base") nei rispettivi equivalenti ASCII, se tali equivalenti esistono. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: forma bigram dei termini CJK generati dal tokenizer standard. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: normalizza le differenze di larghezza CJK. Piega varianti ASCII a piena larghezza nell'equivalente latino di base, e le varianti Katakana a mezza larghezza nell'equivalente Kana. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
classico: rimuove i possessivi inglesi e i punti dagli acronimi. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: costruisci bigram per i termini che si verificano di frequente durante l'indicizzazione. Anche i termini singoli sono indicizzati, con bigrams sovrapposti. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: genera n-grammi delle dimensioni specificate a partire dalla parte anteriore o posteriore di un token di input. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
l'elisione: rimuove le elisioni. Ad esempio, "l'avion" (il piano) verrà convertito in "avion" (piano). Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: normalizza i caratteri tedeschi in base all'euristica dell'algoritmo german2 snowball. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: normalizza il testo in hindi per rimuovere alcune differenze nelle varianti ortografiche. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normalizza la rappresentazione Unicode del testo nelle lingue indiane. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: genera ogni token in ingresso due volte, una volta come parola chiave e una volta come parola chiave non. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: filtro kstem ad alte prestazioni per l'inglese. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
lunghezza: rimuove le parole troppo lunghe o troppo brevi. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limite: limita il numero di token durante l'indicizzazione. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
minuscolo: normalizza il testo del token in lettere minuscole. Fare riferimento a https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: genera n-grammi delle dimensioni specificate. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: applica la normalizzazione per il persiano. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetico: creare token per corrispondenze fonetiche. Fare riferimento a https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: usa l'algoritmo stemming Porter per trasformare il flusso del token. Fare riferimento a http://tartarus.org/~martin/PorterStemmer
inverso: inverte la stringa del token. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: normalizza l'uso dei caratteri scandinavi intercambiabili. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Folds Scandinavi Characters Ã¥Ã... äæÃ"Æ->a e öÖà ̧à ̃-o>. Inoltre discrimina l'uso di vocali doppie aa, ae, ao, oe e oo, lasciando solo il primo. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
: crea combinazioni di token come token singolo. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
palla di neve: filtro che deriva le parole usando uno stemmer generato da Snowball. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: normalizza la rappresentazione Unicode del testo Sorani. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: filtro stemming specifico del linguaggio. Fare riferimento a https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
parole non significative: rimuove le parole non significative da un flusso di token. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
tagliare: taglia gli spazi vuoti iniziali e finali dai token. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
tronca: tronca i termini a una lunghezza specifica. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
univoci: filtra i token con lo stesso testo del token precedente. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
maiuscole: normalizza il testo del token in lettere maiuscole. Fare riferimento a https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: suddivide le parole in parole secondarie ed esegue trasformazioni facoltative nei gruppi di sottoword.

UnionToIntersection
UploadDocumentsOptions

Opzioni per l'operazione di caricamento dei documenti.

VectorEncodingFormat

Formato di codifica per l'interpretazione del contenuto del campo vettoriale.
KnownVectorEncodingFormat può essere usato in modo intercambiabile con VectorEncodingFormat, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

packedBit: formato di codifica che rappresenta i bit compressi in un tipo di dati più ampio.

VectorFilterMode
VectorQuery

Parametri di query per le query di ricerca ibrida e vettoriali.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contiene opzioni di configurazione specifiche dell'algoritmo utilizzato durante l'indicizzazione e/o l'esecuzione di query.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Contiene opzioni di configurazione specifiche del metodo di compressione utilizzato durante l'indicizzazione o l'esecuzione di query.

VectorSearchCompressionKind

Metodo di compressione utilizzato per l'indicizzazione e l'esecuzione di query.
KnownVectorSearchCompressionKind può essere usato in modo intercambiabile con VectorSearchCompressionKind, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

scalarQuantization: Quantizzazione scalare, un tipo di metodo di compressione. Nella quantizzazione scalare, i valori dei vettori originali vengono compressi in un tipo più stretto discretizzando e rappresentando ogni componente di un vettore usando un set ridotto di valori quantizzati, riducendo così le dimensioni complessive dei dati.
binaryQuantization: Quantizzazione binaria, un tipo di metodo di compressione. Nella quantizzazione binaria, i valori dei vettori originali vengono compressi nel tipo binario più ristretto discretizzando e rappresentando ogni componente di un vettore usando valori binari, riducendo così le dimensioni complessive dei dati.

VectorSearchCompressionRescoreStorageMethod

Metodo di archiviazione per i vettori originali a precisione completa utilizzati per il rescoring e le operazioni di indicizzazione interna.
KnownVectorSearchCompressionRescoreStorageMethod può essere utilizzato in modo intercambiabile con VectorSearchCompressionRescoreStorageMethod, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

preserveOriginals: questa opzione conserva i vettori originali a precisione completa. Scegliere questa opzione per la massima flessibilità e la massima qualità dei risultati della ricerca compressi. Questo usa più spazio di archiviazione, ma consente di eseguire la riscoring e l'overcampionamento.
discardOriginals: questa opzione elimina i vettori originali a precisione completa. Scegliere questa opzione per risparmiare al massimo spazio di archiviazione. Poiché questa opzione non consente la riesercitura e l'overcampionamento, spesso causerà una leggera riduzione moderata della qualità.

VectorSearchCompressionTarget

Tipo di dati quantizzati dei valori vettoriali compressi.
KnownVectorSearchCompressionTarget può essere usato in modo intercambiabile con VectorSearchCompressionTarget, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

int8: intero con segno a 8 bit.

VectorSearchVectorizer

Contiene opzioni di configurazione su come vettorizzare le query vettoriali di testo.

VectorSearchVectorizerKind

Metodo di vettorizzazione da utilizzare durante la fase di query.
KnownVectorSearchVectorizerKind può essere usato in modo intercambiabile con VectorSearchVectorizerKind, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

azureOpenAI: generare incorporamenti usando una risorsa OpenAI di Azure in fase di query.
customWebApi: generare incorporamenti usando un endpoint Web personalizzato in fase di query.
aiServicesVision: generare incorporamenti per un'immagine o un input di testo in fase di query usando l'API Vettorizzazione di Visione di Azure AI Services.
aml: generare incorporamenti usando un endpoint di Azure Machine Learning distribuito tramite il catalogo dei modelli di Azure AI Foundry in fase di query.

VisualFeature
WebApiSkills

Enumerazioni

KnownAIFoundryModelCatalogName

Il nome del modello di embedding dal Azure AI Foundry Catalog sarà chiamato.

KnownAnalyzerNames

Definisce i valori per AnalyzerName. Fare riferimento a https://learn.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Nome del modello Azure Open AI che verrà chiamato.

KnownBlobIndexerDataToExtract

Specifica i dati da estrarre dall'archivio BLOB di Azure e indica all'indicizzatore quali dati estrarre dal contenuto dell'immagine quando "imageAction" è impostato su un valore diverso da "none". Questo vale per il contenuto di immagini incorporate in un .PDF o in un'altra applicazione o per i file di immagine, ad esempio .jpg e .png, nei BLOB di Azure.

KnownBlobIndexerImageAction

Determina come elaborare le immagini incorporate e i file di immagine nell'archivio BLOB di Azure. L'impostazione della configurazione "imageAction" su qualsiasi valore diverso da "none" richiede che un set di competenze sia collegato anche a tale indicizzatore.

KnownBlobIndexerPDFTextRotationAlgorithm

Determina l'algoritmo per l'estrazione del testo dai file PDF nell'archivio BLOB di Azure.

KnownBlobIndexerParsingMode

Rappresenta la modalità di analisi per l'indicizzazione da un'origine dati BLOB di Azure.

KnownCharFilterNames

Definisce i valori per CharFilterName.

KnownChatCompletionExtraParametersBehavior

Specifica come gli 'extraParameters' dovrebbero essere gestiti da Azure AI Foundry. Il valore predefinito è 'error'.

KnownChatCompletionResponseFormatType

Specifica il modo in cui l'LLM deve formattare la risposta.

KnownContentUnderstandingSkillChunkingUnit

Controlla la cardinalità dell'unità chunk. Il valore predefinito è 'characters'

KnownContentUnderstandingSkillExtractionOptions

Controlla la cardinalità del contenuto estratto dal documento dalla competenza.

KnownCustomEntityLookupSkillLanguage

I codici lingua supportati per il testo di input da CustomEntityLookupSkill.

KnownDocumentIntelligenceLayoutSkillChunkingUnit

Controlla la cardinalità dell'unità chunk. Il valore predefinito è 'characters'

KnownDocumentIntelligenceLayoutSkillExtractionOptions

Controlla la cardinalità del contenuto estratto dal documento dalla competenza.

KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth

Profondità delle intestazioni nell'output markdown. Il valore predefinito è h6.

KnownDocumentIntelligenceLayoutSkillOutputFormat

Controlla la cardinalità del formato di output. Il valore predefinito è 'markdown'.

KnownDocumentIntelligenceLayoutSkillOutputMode

Controlla la cardinalità dell'output prodotto dalla competenza. Il valore predefinito è "oneToMany".

KnownEntityCategory

Stringa che indica le categorie di entità da restituire.

KnownEntityRecognitionSkillLanguage

I codici della lingua supportati per il testo di input da EntityRecognitionSkill.

KnownImageAnalysisSkillLanguage

Codici della lingua supportati per l'input da ImageAnalysisSkill.

KnownImageDetail

Stringa che indica i dettagli specifici del dominio da restituire.

KnownIndexProjectionMode

Definisce il comportamento delle proiezioni dell'indice in relazione al resto dell'indicizzatore.

KnownIndexerExecutionEnvironment

Specifica l'ambiente in cui deve essere eseguito l'indicizzatore.

KnownIndexerResyncOption

Opzioni con vari tipi di dati di autorizzazione per l'indicizzazione.

KnownKeyPhraseExtractionSkillLanguage

I codici della lingua supportati per il testo di input da KeyPhraseExtractionSkill.

KnownKnowledgeBaseModelKind

Modello di intelligenza artificiale da utilizzare per la pianificazione delle query.

KnownKnowledgeSourceKind

Il tipo di fonte di conoscenza.

KnownLexicalAnalyzerName

Definisce i nomi di tutti gli analizzatori di testo supportati dal motore di ricerca.

KnownLexicalNormalizerName

Definisce i nomi di tutti i normalizzatori di testo supportati dal motore di ricerca.

KnownMarkdownHeaderDepth

Specifica la profondità massima dell'intestazione che verrà considerata durante il raggruppamento del contenuto markdown. Il valore predefinito è h6.

KnownMarkdownParsingSubmode

Specifica la modalità secondaria che determinerà se un file markdown verrà analizzato esattamente in uno o più documenti di ricerca. Il valore predefinito è oneToMany.

KnownOcrLineEnding

Definisce la sequenza di caratteri da utilizzare tra le righe di testo riconosciute dalla competenza OCR. Il valore predefinito è "spazio".

KnownOcrSkillLanguage

I codici lingua supportati per l'input da OcrSkill.

KnownPIIDetectionSkillMaskingMode

Stringa che indica il metodo maskingMode da utilizzare per mascherare le informazioni personali rilevate nel testo di input.

KnownQueryDebugMode

Abilita uno strumento di debug che può essere utilizzato per esplorare ulteriormente i risultati della ricerca. È possibile abilitare più modalità di debug contemporaneamente separandole con un | carattere, ad esempio: semantic|queryRewrites.

KnownRankingOrder

Rappresenta il punteggio da utilizzare per l'ordinamento dei documenti.

KnownRegexFlags

Definisce un flag di espressione regolare che può essere utilizzato nell'analizzatore di pattern e nel tokenizzatore di pattern.

KnownSearchAudience

Valori noti per il gruppo di destinatari di ricerca

KnownSearchFieldDataType

Definisce il tipo di dati di un campo in un indice di ricerca.

KnownSearchIndexerDataSourceType

Definisce il tipo di un'origine dati.

KnownSemanticErrorMode

Permette all'utente di scegliere se una chiamata semantica fallisca completamente o di restituire risultati parziali.

KnownSemanticErrorReason

Motivo per cui è stata restituita una risposta parziale per una richiesta di classificazione semantica.

KnownSemanticSearchResultsType

Tipo di risposta parziale restituita per una richiesta di classificazione semantica.

KnownSentimentSkillLanguage

I codici lingua supportati per il testo di input da SentimentSkill.

KnownSplitSkillLanguage

I codici lingua supportati per il testo di input da SplitSkill.

KnownTextSplitMode

Valore che indica la modalità di divisione da eseguire.

KnownTextTranslationSkillLanguage

Codici lingua supportati per il testo di input da TextTranslationSkill.

KnownTokenFilterNames

Definisce i valori per TokenFilterName.

KnownTokenizerNames

Definisce i valori per TokenizerName.

KnownVectorEncodingFormat

Formato di codifica per l'interpretazione del contenuto del campo vettoriale.

KnownVectorFilterMode

Determina se i filtri vengono applicati prima o dopo l'esecuzione della ricerca vettoriale.

KnownVectorQueryKind

Tipo di query vettoriale eseguita.

KnownVectorSearchAlgorithmKind

Algoritmo utilizzato per l'indicizzazione e l'esecuzione di query.

KnownVectorSearchAlgorithmMetric

La metrica di somiglianza da utilizzare per i confronti vettoriali. Si consiglia di scegliere la stessa metrica di somiglianza su cui è stato addestrato il modello di incorporamento.

KnownVectorSearchCompressionKind

Metodo di compressione utilizzato per l'indicizzazione e l'esecuzione di query.

KnownVectorSearchCompressionRescoreStorageMethod

Metodo di archiviazione per i vettori originali a precisione completa utilizzati per il rescoring e le operazioni di indicizzazione interna.

KnownVectorSearchCompressionTarget

Tipo di dati quantizzati dei valori vettoriali compressi.

KnownVectorSearchVectorizerKind

Metodo di vettorizzazione da utilizzare durante la fase di query.

KnownVisualFeature

Stringhe che indicano i tipi di funzionalità visive da restituire.

Funzioni

createSynonymMapFromFile(string, string)

Metodo helper per creare un oggetto SynonymMap. Si tratta di un metodo solo NodeJS.

odata(TemplateStringsArray, unknown[])

Esegue l'escape di un'espressione di filtro odata per evitare errori con valori letterali stringa tra virgolette. Esempio di utilizzo:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Per altre informazioni sulla sintassi supportata, vedere: https://learn.microsoft.com/azure/search/search-query-odata-filter

Variabili

DEFAULT_BATCH_SIZE

Dimensione predefinita del lotto

DEFAULT_FLUSH_WINDOW

Intervallo predefinito di flush della finestra

DEFAULT_RETRY_COUNT

Numero predefinito di volte per riprovare.

Dettagli funzione

createSynonymMapFromFile(string, string)

Metodo helper per creare un oggetto SynonymMap. Si tratta di un metodo solo NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parametri

name

string

Nome dell'oggetto SynonymMap.

filePath

string

Percorso del file che contiene i sinonimi (separati da nuove righe)

Valori restituiti

Promise<SynonymMap>

Oggetto SynonymMap

odata(TemplateStringsArray, unknown[])

Esegue l'escape di un'espressione di filtro odata per evitare errori con valori letterali stringa tra virgolette. Esempio di utilizzo:

import { odata } from "@azure/search-documents";

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Per altre informazioni sulla sintassi supportata, vedere: https://learn.microsoft.com/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parametri

strings

TemplateStringsArray

Matrice di stringhe per l'espressione

values

unknown[]

Matrice di valori per l'espressione

Valori restituiti

string

Dettagli delle variabili

DEFAULT_BATCH_SIZE

Dimensione predefinita del lotto

DEFAULT_BATCH_SIZE: number

Tipo

number

DEFAULT_FLUSH_WINDOW

Intervallo predefinito di flush della finestra

DEFAULT_FLUSH_WINDOW: number

Tipo

number

DEFAULT_RETRY_COUNT

Numero predefinito di volte per riprovare.

DEFAULT_RETRY_COUNT: number

Tipo

number