@azure/search-documents package
Classi
| AzureKeyCredential |
Credenziali basate su chiavi statiche che supportano l'aggiornamento del valore della chiave sottostante. |
| GeographyPoint |
Rappresenta un punto geografico nelle coordinate globali. |
| IndexDocumentsBatch |
Classe usata per eseguire operazioni batch con più documenti nell'indice. |
| KnowledgeRetrievalClient |
Classe utilizzata per eseguire operazioni su una base di conoscenza. |
| SearchClient |
Classe usata per eseguire operazioni su un indice di ricerca, inclusa l'esecuzione di query sui documenti nell'indice, nonché l'aggiunta, l'aggiornamento e la rimozione di tali documenti. |
| SearchIndexClient |
Classe per eseguire operazioni per gestire (creare, aggiornare, elencare/eliminare) indici, & mapping sinonimi. |
| SearchIndexerClient |
Classe per eseguire operazioni per gestire (creare, aggiornare, elencare/eliminare) indicizzatori, origini dati & set di competenze. |
| SearchIndexingBufferedSender |
Classe usata per eseguire operazioni memorizzate nel buffer su un indice di ricerca, tra cui l'aggiunta, l'aggiornamento e la rimozione. |
Interfacce
| AIServices |
Parametri per i servizi di IA. |
| AIServicesAccountIdentity |
L'account multi-regione di una risorsa di servizio AI Azure collegata a un set di competenze. |
| AIServicesAccountKey |
La chiave account di una risorsa di servizio AI di Azure che è collegata a un set di competenze, da usare con il sottodominio della risorsa. |
| AnalyzeRequest |
Specifica alcuni componenti di testo e analisi usati per suddividere il testo in token. |
| AnalyzeResult |
Risultato del test di un analizzatore sul testo. |
| AnalyzedTokenInfo |
Informazioni su un token restituito da un analizzatore. |
| AsciiFoldingTokenFilter |
Converte caratteri Unicode alfabetici, numerici e simbolici che non si trovano nei primi 127 caratteri ASCII (blocco Unicode "Latino di base") nei rispettivi equivalenti ASCII, se tali equivalenti esistono. Questo filtro di token viene implementato usando Apache Lucene. |
| AutocompleteItem |
Risultato delle richieste di completamento automatico. |
| AutocompleteRequest |
Parametri per la corrispondenza fuzzy e altri comportamenti di query di completamento automatico. |
| AutocompleteResult |
Risultato della query di completamento automatico. |
| AzureActiveDirectoryApplicationCredentials |
Credenziali di un'applicazione registrata creata per il servizio di ricerca, usata per l'accesso autenticato alle chiavi di crittografia archiviate in Azure Key Vault. |
| AzureBlobKnowledgeSource |
Configurazione per l'origine della conoscenza di Archiviazione BLOB di Azure. |
| AzureBlobKnowledgeSourceParameters |
Parametri per l'origine della conoscenza di Archiviazione BLOB di Azure. |
| AzureBlobKnowledgeSourceParams |
Specifica i parametri di runtime per un'origine della conoscenza BLOB di Azure |
| AzureMachineLearningVectorizer |
Specifica un endpoint Azure Machine Learning distribuito tramite Azure AI Foundry Model Catalog per generare l'embedding vettoriale di una query string. |
| AzureOpenAIEmbeddingSkill |
Consente di generare un'incorporamento vettoriale per un input di testo specificato usando la risorsa OpenAI di Azure. |
| AzureOpenAIParameters |
Specifica i parametri per la connessione alla risorsa OpenAI di Azure. |
| AzureOpenAIVectorizer |
Contiene i parametri specifici dell'uso di un servizio Azure Open AI per la vettorizzazione in fase di query. |
| BM25Similarity |
Funzione di classificazione basata sull'algoritmo di somiglianza okapi BM25. BM25 è un algoritmo simile a TF-IDF che include la normalizzazione della lunghezza (controllata dal parametro 'b'), nonché la saturazione della frequenza dei termini (controllata dal parametro 'k1'). |
| BaseAzureMachineLearningVectorizerParameters |
Specifica le proprietà comuni tra tutti i tipi di autenticazione del vettore AML. |
| BaseCharFilter |
Tipo di base per i filtri di caratteri. |
| BaseCognitiveServicesAccount |
Tipo di base per descrivere qualsiasi risorsa del servizio di intelligenza artificiale di Azure collegata a un set di competenze. |
| BaseDataChangeDetectionPolicy |
Tipo di base per i criteri di rilevamento delle modifiche dei dati. |
| BaseDataDeletionDetectionPolicy |
Tipo di base per i criteri di rilevamento dell'eliminazione dei dati. |
| BaseKnowledgeBaseActivityRecord |
Tipo di base per i record di attività. Traccia dettagli di esecuzione, tempi ed errori per le operazioni della base di conoscenza. |
| BaseKnowledgeBaseMessageContent |
Specifica il tipo di contenuto del messaggio. |
| BaseKnowledgeBaseModel |
Specifica i parametri di connessione che il modello deve utilizzare per la pianificazione delle query. |
| BaseKnowledgeBaseReference |
Tipo di base per i riferimenti. |
| BaseKnowledgeRetrievalReasoningEffort |
Tipo base per lo sforzo di ragionamento. |
| BaseKnowledgeSource |
Rappresenta la definizione di un'origine della conoscenza. |
| BaseKnowledgeSourceParams |
Tipo base per i parametri di runtime della sorgente della conoscenza. |
| BaseKnowledgeSourceVectorizer |
Specifica il metodo di vettorizzazione da utilizzare per il modello di incorporamento della sorgente di conoscenza. |
| BaseLexicalAnalyzer |
Tipo di base per gli analizzatori. |
| BaseLexicalNormalizer |
Tipo di base per i normalizzatori. |
| BaseLexicalTokenizer |
Tipo di base per i tokenizer. |
| BaseScoringFunction |
Tipo di base per le funzioni che possono modificare i punteggi del documento durante la classificazione. |
| BaseSearchIndexerDataIdentity |
Tipo di base astratto per le identità dei dati. |
| BaseSearchIndexerSkill |
Tipo di base per le competenze. |
| BaseSearchRequestOptions |
Parametri per il filtro, l'ordinamento, il facet, il paging e altri comportamenti delle query di ricerca. |
| BaseSimilarityAlgorithm |
Tipo di base per algoritmi di somiglianza. Gli algoritmi di somiglianza vengono usati per calcolare i punteggi che collegano le query ai documenti. Maggiore è il punteggio, più rilevante è il documento relativo a tale query specifica. Questi punteggi vengono usati per classificare i risultati della ricerca. |
| BaseTokenFilter |
Tipo di base per i filtri di token. |
| BaseVectorQuery |
Parametri di query per le query di ricerca ibrida e vettoriali. |
| BaseVectorSearchAlgorithmConfiguration |
Contiene opzioni di configurazione specifiche dell'algoritmo utilizzato durante l'indicizzazione e/o l'esecuzione di query. |
| BaseVectorSearchCompression |
Contiene opzioni di configurazione specifiche del metodo di compressione utilizzato durante l'indicizzazione o l'esecuzione di query. |
| BaseVectorSearchVectorizer |
Contiene dettagli specifici per un metodo di vettorizzazione da usare durante il tempo di query. |
| BinaryQuantizationCompression |
Contiene opzioni di configurazione specifiche per il metodo di compressione della quantizzazione binaria usato durante l'indicizzazione e l'esecuzione di query. |
| ChatCompletionResponseFormat |
Determina la modalità di serializzazione della risposta del modello di linguaggio. Il valore predefinito è 'text'. |
| ChatCompletionResponseFormatJsonSchemaProperties |
Proprietà per il formato di risposta dello schema JSON. |
| ChatCompletionSchema |
Oggetto che definisce lo schema personalizzato che il modello utilizzerà per strutturare l'output. |
| ChatCompletionSkill |
Una competenza che chiama un modello linguistico tramite l'endpoint Chat Completions di Azure AI Foundry. |
| CjkBigramTokenFilter |
Forma bigrams dei termini CJK generati dal tokenizer standard. Questo filtro di token viene implementato usando Apache Lucene. |
| ClassicSimilarity |
Algoritmo di somiglianza legacy che usa l'implementazione lucene TFIDFSimilarity di TF-IDF. Questa variazione di TF-IDF introduce la normalizzazione statica della lunghezza del documento, nonché fattori di coordinamento che penalizzano i documenti che corrispondono solo parzialmente alle query sottoposte a ricerca. |
| ClassicTokenizer |
Tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Questo tokenizer viene implementato tramite Apache Lucene. |
| CognitiveServicesAccountKey |
Chiave dell'account in più aree di una risorsa del servizio azure per intelligenza artificiale collegata a un set di competenze. |
| CommonGramTokenFilter |
Costruisci bigram per i termini che si verificano di frequente durante l'indicizzazione. Anche i termini singoli sono indicizzati, con bigrams sovrapposti. Questo filtro di token viene implementato usando Apache Lucene. |
| CommonModelParameters |
Parametri del modello linguistico comune per i completamenti della chat. Se omesso, vengono utilizzati i valori predefiniti. |
| CompletedSynchronizationState |
Rappresenta lo stato completato dell'ultima sincronizzazione. |
| ComplexField |
Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo. |
| ConditionalSkill |
Competenza che consente scenari che richiedono un'operazione booleana per determinare i dati da assegnare a un output. |
| ContentUnderstandingSkill |
Una competenza che sfrutta Azure AI Content Understanding per elaborare ed estrarre insight strutturati dai documenti, consentendo contenuti arricchiti e ricercabili per un'indicizzazione e un recupero migliorati dei documenti. |
| ContentUnderstandingSkillChunkingProperties |
Controlla la cardinalità per la suddivisione in blocchi del contenuto. |
| CorsOptions |
Definisce le opzioni per controllare la condivisione di risorse tra le origini (CORS) per un indice. |
| CreateKnowledgeBaseOptions | |
| CreateKnowledgeSourceOptions | |
| CreateOrUpdateAliasOptions |
Opzioni per l'operazione di creazione o aggiornamento dell'alias. |
| CreateOrUpdateIndexOptions |
Opzioni per l'operazione di creazione/aggiornamento dell'indice. |
| CreateOrUpdateKnowledgeBaseOptions | |
| CreateOrUpdateKnowledgeSourceOptions | |
| CreateOrUpdateSkillsetOptions |
Opzioni per l'operazione di creazione/aggiornamento del set di competenze. |
| CreateOrUpdateSynonymMapOptions |
Opzioni per l'operazione create/update synonymmap. |
| CreateorUpdateDataSourceConnectionOptions |
Opzioni per l'operazione di creazione/aggiornamento dell'origine dati. |
| CreateorUpdateIndexerOptions |
Opzioni per l'operazione di creazione/aggiornamento dell'indicizzatore. |
| CustomAnalyzer |
Consente di assumere il controllo del processo di conversione del testo in token indicizzabili/ricercabili. Si tratta di una configurazione definita dall'utente costituita da un singolo tokenizzatore predefinito e uno o più filtri. Il tokenizer è responsabile dell'interruzione del testo nei token e dei filtri per la modifica dei token generati dal tokenizer. |
| CustomEntity |
Oggetto che contiene informazioni sulle corrispondenze trovate e sui metadati correlati. |
| CustomEntityAlias |
Oggetto complesso che può essere usato per specificare ortografia o sinonimi alternativi per il nome dell'entità radice. |
| CustomEntityLookupSkill |
Una competenza cerca testo da un elenco personalizzato definito dall'utente di parole e frasi. |
| CustomLexicalNormalizer |
Consente di configurare la normalizzazione per i campi filtrabili, ordinabili e facetable, che per impostazione predefinita operano con corrispondenza rigorosa. Si tratta di una configurazione definita dall'utente costituita da almeno uno o più filtri, che modificano il token archiviato. |
| DefaultCognitiveServicesAccount |
Oggetto vuoto che rappresenta la risorsa predefinita del servizio di intelligenza artificiale di Azure per un set di competenze. |
| DeleteAliasOptions |
Opzioni per l'operazione di eliminazione dell'alias. |
| DeleteDataSourceConnectionOptions |
Opzioni per l'operazione di eliminazione dell'origine dati. |
| DeleteIndexOptions |
Opzioni per l'operazione di eliminazione dell'indice. |
| DeleteIndexerOptions |
Opzioni per l'operazione di eliminazione dell'indicizzatore. |
| DeleteKnowledgeBaseOptions | |
| DeleteKnowledgeSourceOptions | |
| DeleteSkillsetOptions |
Opzioni per eliminare l'operazione del set di competenze. |
| DeleteSynonymMapOptions |
Opzioni per l'operazione delete synonymmap. |
| DictionaryDecompounderTokenFilter |
Scompone parole composte presenti in molte lingue germaniche. Questo filtro di token viene implementato usando Apache Lucene. |
| DistanceScoringFunction |
Definisce una funzione che aumenta i punteggi in base alla distanza da una posizione geografica. |
| DistanceScoringParameters |
Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi della distanza. |
| DocumentDebugInfo |
Contiene informazioni di debug che possono essere usate per esplorare ulteriormente i risultati della ricerca. |
| DocumentExtractionSkill |
Competenza che estrae il contenuto da un file all'interno della pipeline di arricchimento. |
| DocumentIntelligenceLayoutSkill |
Competenza che estrae informazioni sul contenuto e sul layout (come markdown), tramite Servizi di intelligenza artificiale di Azure, dai file all'interno della pipeline di arricchimento. |
| DocumentIntelligenceLayoutSkillChunkingProperties |
Controlla la cardinalità per la suddivisione in blocchi del contenuto. |
| EdgeNGramTokenFilter |
Genera n-grammi delle dimensioni specificate a partire dalla parte anteriore o posteriore di un token di input. Questo filtro di token viene implementato usando Apache Lucene. |
| EdgeNGramTokenizer |
Tokenzza l'input da un bordo in n-grammi delle dimensioni specificate. Questo tokenizer viene implementato tramite Apache Lucene. |
| ElisionTokenFilter |
Rimuove le elisioni. Ad esempio, "l'avion" (il piano) verrà convertito in "avion" (piano). Questo filtro di token viene implementato usando Apache Lucene. |
| EntityLinkingSkill |
Usando l'API Analisi del testo, estrae le entità collegate dal testo. |
| EntityRecognitionSkill |
Riconoscimento delle entità di Analisi del testo. |
| EntityRecognitionSkillV3 |
Usando l'API Analisi del testo, estrae entità di tipi diversi dal testo. |
| ExhaustiveKnnParameters |
Contiene i parametri specifici dell'algoritmo KNN completo. |
| ExtractiveQueryAnswer |
Estrae i candidati di risposta dal contenuto dei documenti restituiti in risposta a una query espressa come domanda in linguaggio naturale. |
| ExtractiveQueryCaption |
Estrae le didascalie dai documenti corrispondenti che contengono passaggi rilevanti per la query di ricerca. |
| FacetResult |
Un singolo bucket di un risultato della query facet. Segnala il numero di documenti con un valore di campo compreso in un determinato intervallo o con un determinato valore o intervallo. |
| FieldMapping |
Definisce un mapping tra un campo in un'origine dati e un campo di destinazione in un indice. |
| FieldMappingFunction |
Rappresenta una funzione che trasforma un valore da un'origine dati prima dell'indicizzazione. |
| FreshnessScoringFunction |
Definisce una funzione che aumenta i punteggi in base al valore di un campo di data e ora. |
| FreshnessScoringParameters |
Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di aggiornamento. |
| GenerativeQueryRewrites |
Generare termini di query alternativi per aumentare il richiamo di una richiesta di ricerca. |
| GetDocumentOptions |
Opzioni per il recupero di un singolo documento. |
| GetKnowledgeBaseOptions | |
| GetKnowledgeSourceOptions | |
| GetKnowledgeSourceStatusOptions | |
| HighWaterMarkChangeDetectionPolicy |
Definisce un criterio di rilevamento delle modifiche dei dati che acquisisce le modifiche in base al valore di una colonna di contrassegno di acqua elevata. |
| HnswParameters |
Contiene i parametri specifici dell'algoritmo hnsw. |
| ImageAnalysisSkill |
Competenza che analizza i file di immagine. Estrae un set completo di funzionalità visive in base al contenuto dell'immagine. |
| IndexDocumentsClient |
Client di documenti dell'indice |
| IndexDocumentsOptions |
Opzioni per l'operazione di modifica batch dell'indice. |
| IndexDocumentsResult |
Risposta contenente lo stato delle operazioni per tutti i documenti nella richiesta di indicizzazione. |
| IndexedOneLakeKnowledgeSource |
Configurazione per l'origine della conoscenza OneLake. |
| IndexedOneLakeKnowledgeSourceParameters |
Parametri per l'origine della conoscenza OneLake. |
| IndexedOneLakeKnowledgeSourceParams |
Specifica i parametri di runtime per un'origine della conoscenza OneLake indicizzata |
| IndexerExecutionResult |
Rappresenta il risultato di una singola esecuzione dell'indicizzatore. |
| IndexingParameters |
Rappresenta i parametri per l'esecuzione dell'indicizzatore. |
| IndexingParametersConfiguration |
Dizionario di proprietà di configurazione specifiche dell'indicizzatore. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo. |
| IndexingResult |
Stato di un'operazione di indicizzazione per un singolo documento. |
| IndexingSchedule |
Rappresenta una pianificazione per l'esecuzione dell'indicizzatore. |
| InputFieldMappingEntry |
Mapping dei campi di input per una competenza. |
| KeepTokenFilter |
Filtro di token che mantiene solo i token con testo contenuto in un elenco specificato di parole. Questo filtro di token viene implementato usando Apache Lucene. |
| KeyAuthAzureMachineLearningVectorizerParameters |
Specifica le proprietà per la connessione a un vettore AML con una chiave di autenticazione. |
| KeyPhraseExtractionSkill |
Competenza che usa l'analisi del testo per l'estrazione di frasi chiave. |
| KeywordMarkerTokenFilter |
Contrassegna i termini come parole chiave. Questo filtro di token viene implementato usando Apache Lucene. |
| KeywordTokenizer |
Genera l'intero input come singolo token. Questo tokenizer viene implementato tramite Apache Lucene. |
| KnowledgeBase | |
| KnowledgeBaseAgenticReasoningActivityRecord |
Rappresenta un record di attività di ragionamento agentico. |
| KnowledgeBaseAzureBlobReference |
Rappresenta un riferimento al documento di Archiviazione BLOB di Azure. |
| KnowledgeBaseAzureOpenAIModel |
Specifica la risorsa Azure OpenAI usata per eseguire la pianificazione delle query. |
| KnowledgeBaseErrorAdditionalInfo |
Informazioni aggiuntive sull'errore di gestione delle risorse. |
| KnowledgeBaseErrorDetail |
Dettagli dell'errore. |
| KnowledgeBaseIndexedOneLakeReference |
Rappresenta un riferimento indicizzato a un documento OneLake. |
| KnowledgeBaseMessage |
L'oggetto stile del messaggio in linguaggio naturale. |
| KnowledgeBaseMessageImageContent |
Tipo di messaggio immagine. |
| KnowledgeBaseMessageImageContentImage |
Contenuto delle immagini. |
| KnowledgeBaseMessageTextContent |
Tipo di messaggio di testo. |
| KnowledgeBaseModelWebSummarizationActivityRecord |
Rappresenta un record di attività di riassunto web LLM. |
| KnowledgeBaseRetrievalRequest |
Contratto di input per la richiesta di recupero. |
| KnowledgeBaseRetrievalResponse |
Contratto di output per la risposta di recupero. |
| KnowledgeBaseSearchIndexReference |
Rappresenta un riferimento al documento di Ricerca di Azure. |
| KnowledgeBaseWebReference |
Rappresenta un riferimento a un documento Web. |
| KnowledgeRetrievalClientOptions |
Opzioni client usate per configurare le richieste dell'API Ricerca cognitiva. |
| KnowledgeRetrievalIntent |
Una query pensata per essere eseguita senza pianificazione delle query del modello. |
| KnowledgeRetrievalMinimalReasoningEffort |
Esegui il recupero delle conoscenze con il minimo sforzo di ragionamento. |
| KnowledgeRetrievalSemanticIntent |
Un'intenzione di interrogazione semantica. |
| KnowledgeSourceAzureOpenAIVectorizer |
Specifica la risorsa Azure OpenAI usata per vettorializzare una stringa di query. |
| KnowledgeSourceIngestionParameters |
Consolida tutte le impostazioni generali di acquisizione per le fonti di conoscenza. |
| KnowledgeSourceReference |
Riferimento a una fonte di conoscenza. |
| KnowledgeSourceStatistics |
Informazioni statistiche sulla cronologia di sincronizzazione dell'origine della conoscenza. |
| KnowledgeSourceStatus |
Rappresenta lo stato e la cronologia di sincronizzazione di un'origine della conoscenza. |
| KnowledgeSourceSynchronizationError |
Rappresenta un errore di indicizzazione a livello di documento riscontrato durante un'esecuzione di sincronizzazione della sorgente di conoscenza. |
| LanguageDetectionSkill |
Competenza che rileva la lingua del testo di input e segnala un singolo codice linguistico per ogni documento inviato nella richiesta. Il codice della lingua è associato a un punteggio che indica l'attendibilità dell'analisi. |
| LengthTokenFilter |
Rimuove parole troppo lunghe o troppo brevi. Questo filtro di token viene implementato usando Apache Lucene. |
| LimitTokenFilter |
Limita il numero di token durante l'indicizzazione. Questo filtro di token viene implementato usando Apache Lucene. |
| ListKnowledgeBasesOptions | |
| ListKnowledgeSourcesOptions | |
| ListSearchResultsPageSettings |
Argomenti per il recupero della pagina successiva dei risultati della ricerca. |
| LuceneStandardAnalyzer |
Analizzatore Apache Lucene standard; Composto dal tokenizer standard, dal filtro minuscolo e dal filtro di arresto. |
| LuceneStandardTokenizer |
Interrompe il testo seguendo le regole di segmentazione del testo Unicode. Questo tokenizer viene implementato tramite Apache Lucene. |
| MagnitudeScoringFunction |
Definisce una funzione che aumenta i punteggi in base alla grandezza di un campo numerico. |
| MagnitudeScoringParameters |
Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di grandezza. |
| MappingCharFilter |
Filtro di caratteri che applica i mapping definiti con l'opzione mapping. La corrispondenza è greedy (criteri di ricerca più lunghi in un determinato punto vince). La sostituzione può essere la stringa vuota. Questo filtro di caratteri viene implementato tramite Apache Lucene. |
| MergeSkill |
Competenza per unire due o più stringhe in una singola stringa unificata, con un delimitatore facoltativo definito dall'utente che separa ogni parte del componente. |
| MicrosoftLanguageStemmingTokenizer |
Divide il testo usando regole specifiche della lingua e riduce le parole alle relative forme di base. |
| MicrosoftLanguageTokenizer |
Divide il testo usando regole specifiche della lingua. |
| NGramTokenFilter |
Genera n-grammi delle dimensioni specificate. Questo filtro di token viene implementato usando Apache Lucene. |
| NGramTokenizer |
Tokenzza l'input in n-grammi delle dimensioni specificate. Questo tokenizer viene implementato tramite Apache Lucene. |
| NativeBlobSoftDeleteDeletionDetectionPolicy |
Definisce un criterio di rilevamento dell'eliminazione dei dati che usa la funzionalità di eliminazione temporanea nativa di Archiviazione BLOB di Azure per il rilevamento dell'eliminazione. |
| NoAuthAzureMachineLearningVectorizerParameters |
Specifica le proprietà per la connessione a un vettore AML senza autenticazione. |
| OcrSkill |
Competenza che estrae testo dai file di immagine. |
| OutputFieldMappingEntry |
Mapping dei campi di output per una competenza. |
| PIIDetectionSkill |
Usando l'API Analisi del testo, estrae informazioni personali da un testo di input e offre la possibilità di mascherarla. |
| PageSettings |
Opzioni per il metodo byPage |
| PagedAsyncIterableIterator |
Interfaccia che consente l'iterazione iterabile asincrona sia al completamento che alla pagina. |
| PathHierarchyTokenizer |
Tokenizer per gerarchie simili al percorso. Questo tokenizer viene implementato tramite Apache Lucene. |
| PatternAnalyzer |
Separa in modo flessibile il testo in termini tramite un criterio di espressione regolare. Questo analizzatore viene implementato usando Apache Lucene. |
| PatternCaptureTokenFilter |
Usa espressioni regolari Java per generare più token, uno per ogni gruppo di acquisizione in uno o più modelli. Questo filtro di token viene implementato usando Apache Lucene. |
| PatternReplaceCharFilter |
Filtro di caratteri che sostituisce i caratteri nella stringa di input. Usa un'espressione regolare per identificare le sequenze di caratteri da mantenere e un criterio di sostituzione per identificare i caratteri da sostituire. Ad esempio, dato il testo di input "aa bb aa bb", pattern "(aa)\s+(bb)" e sostituzione "$1#$2", il risultato sarà "aa#bb aa#bb". Questo filtro di caratteri viene implementato tramite Apache Lucene. |
| PatternReplaceTokenFilter |
Filtro di caratteri che sostituisce i caratteri nella stringa di input. Usa un'espressione regolare per identificare le sequenze di caratteri da mantenere e un criterio di sostituzione per identificare i caratteri da sostituire. Ad esempio, dato il testo di input "aa bb aa bb", pattern "(aa)\s+(bb)" e sostituzione "$1#$2", il risultato sarà "aa#bb aa#bb". Questo filtro di token viene implementato usando Apache Lucene. |
| PatternTokenizer |
Tokenizer che usa criteri regex corrispondenti per costruire token distinti. Questo tokenizer viene implementato tramite Apache Lucene. |
| PhoneticTokenFilter |
Creare token per corrispondenze fonetiche. Questo filtro di token viene implementato usando Apache Lucene. |
| QueryAnswerResult |
Una risposta è un passaggio di testo estratto dal contenuto dei documenti più rilevanti che corrispondono alla query. Le risposte vengono estratte dai primi risultati della ricerca. I candidati alle risposte vengono assegnati punteggi e vengono selezionate le risposte principali. |
| QueryCaptionResult |
Le didascalie sono i passaggi più rappresentativi del documento relativamente alla query di ricerca.
Vengono spesso usati come riepilogo dei documenti. Le didascalie vengono restituite solo per le query di tipo |
| QueryResultDocumentSemanticField |
Descrizione dei campi inviati al processo di arricchimento semantico, nonché del modo in cui sono stati usati |
| QueryResultDocumentSubscores |
Suddivisione dei caratteri di sottolineatura tra i componenti di query di testo e vettore della query di ricerca per questo documento. Ogni query vettoriale viene visualizzata come oggetto separato nello stesso ordine in cui sono stati ricevuti. |
| RescoringOptions |
Contiene le opzioni per la registrazione. |
| ResourceCounter |
Rappresenta l'utilizzo e la quota di una risorsa. |
| RetrieveOptions | |
| ScalarQuantizationCompression |
Contiene opzioni di configurazione specifiche per il metodo di compressione della quantizzazione scalare usato durante l'indicizzazione e l'esecuzione di query. |
| ScalarQuantizationParameters |
Contiene i parametri specifici della quantizzazione scalare. |
| ScoringProfile |
Definisce i parametri per un indice di ricerca che influisce sul punteggio nelle query di ricerca. |
| SearchAlias |
Rappresenta un alias di indice, che descrive un mapping dal nome alias a un indice. Il nome alias può essere usato al posto del nome dell'indice per le operazioni supportate. |
| SearchClientOptions |
Opzioni client utilizzate per configurare le richieste dell'API di ricerca AI. |
| SearchDocumentsPageResult |
Risposta contenente i risultati della pagina di ricerca da un indice. |
| SearchDocumentsResult |
Risposta contenente i risultati della ricerca da un indice. |
| SearchDocumentsResultBase |
Risposta contenente i risultati della ricerca da un indice. |
| SearchIndex |
Rappresenta una definizione di indice di ricerca, che descrive i campi e il comportamento di ricerca di un indice. |
| SearchIndexClientOptions |
Opzioni client utilizzate per configurare le richieste dell'API di ricerca AI. |
| SearchIndexFieldReference |
Riferimento di campo per un indice di ricerca. |
| SearchIndexKnowledgeSource |
Origine conoscenza destinata a un indice di ricerca. |
| SearchIndexKnowledgeSourceParameters |
Parametri per l'origine della conoscenza dell'indice di ricerca. |
| SearchIndexKnowledgeSourceParams |
Specifica i parametri di runtime per un'origine conoscenza dell'indice di ricerca |
| SearchIndexStatistics |
Statistiche per un determinato indice. Le statistiche vengono raccolte periodicamente e non sono sempre up-to-date. |
| SearchIndexer |
Rappresenta un indicizzatore. |
| SearchIndexerClientOptions |
Opzioni client utilizzate per configurare le richieste dell'API di ricerca AI. |
| SearchIndexerDataContainer |
Rappresenta informazioni sull'entità, ad esempio la tabella SQL di Azure o la raccolta CosmosDB, che verranno indicizzate. |
| SearchIndexerDataNoneIdentity |
Cancella la proprietà Identity di un'origine dati. |
| SearchIndexerDataSourceConnection |
Rappresenta una definizione di origine dati, che può essere utilizzata per configurare un indicizzatore. |
| SearchIndexerDataUserAssignedIdentity |
Specifica l'identità di un'origine dati da usare. |
| SearchIndexerError |
Rappresenta un errore di indicizzazione a livello di elemento o documento. |
| SearchIndexerIndexProjection |
Definizione di proiezioni aggiuntive agli indici di ricerca secondari. |
| SearchIndexerIndexProjectionParameters |
Dizionario delle proprietà di configurazione specifiche della proiezione dell'indice. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo. |
| SearchIndexerIndexProjectionSelector |
Descrizione dei dati da archiviare nell'indice di ricerca designato. |
| SearchIndexerKnowledgeStore |
Definizione di proiezioni aggiuntive per BLOB, tabelle o file di azure di dati arricchiti. |
| SearchIndexerKnowledgeStoreBlobProjectionSelector |
Classe astratta per condividere le proprietà tra selettori concreti. |
| SearchIndexerKnowledgeStoreFileProjectionSelector |
Definizione di proiezione per i dati da archiviare in File di Azure. |
| SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definizione di proiezione per i dati da archiviare nel BLOB di Azure. |
| SearchIndexerKnowledgeStoreParameters |
Dizionario delle proprietà di configurazione specifiche dell'archivio conoscenze. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo. |
| SearchIndexerKnowledgeStoreProjection |
Oggetto contenitore per vari selettori di proiezione. |
| SearchIndexerKnowledgeStoreProjectionSelector |
Classe astratta per condividere le proprietà tra selettori concreti. |
| SearchIndexerKnowledgeStoreTableProjectionSelector |
Descrizione dei dati da archiviare nelle tabelle di Azure. |
| SearchIndexerLimits |
Rappresenta i limiti che possono essere applicati a un indicizzatore. |
| SearchIndexerSkillset |
Elenco di competenze. |
| SearchIndexerStatus |
Rappresenta lo stato corrente e la cronologia di esecuzione di un indicizzatore. |
| SearchIndexerWarning |
Rappresenta un avviso a livello di elemento. |
| SearchIndexingBufferedSenderOptions |
Opzioni per SearchIndexingBufferedSender. |
| SearchResourceEncryptionKey |
Una chiave di crittografia gestita dal cliente in Azure Key Vault. Le chiavi create e gestite dall'utente possono essere usate per crittografare o decrittografare i dati inattivi in Ricerca per intelligenza artificiale di Azure, ad esempio indici e mappe di sinonimi. |
| SearchServiceStatistics |
Risposta da una richiesta di recupero delle statistiche del servizio. In caso di esito positivo, include contatori e limiti a livello di servizio. |
| SemanticConfiguration |
Definisce una configurazione specifica da usare nel contesto delle funzionalità semantiche. |
| SemanticDebugInfo |
Opzioni di debug per le query di ricerca semantica. |
| SemanticField |
Campo utilizzato come parte della configurazione semantica. |
| SemanticPrioritizedFields |
Descrive i campi titolo, contenuto e parole chiave da usare per la classificazione semantica, le didascalie, le evidenziazioni e le risposte. |
| SemanticSearch |
Definisce i parametri per un indice di ricerca che influisce sulle funzionalità semantiche. |
| SemanticSearchOptions |
Definisce le opzioni per le query di ricerca semantica |
| SentimentSkill |
Analisi del testo analisi del sentiment positivo negativo, con un punteggio come valore a virgola mobile in un intervallo compreso tra zero e 1. |
| SentimentSkillV3 |
Usando l'API Analisi del testo, valuta il testo non strutturato e per ogni record, fornisce etichette del sentiment (ad esempio "negative", "neutral" e "positive") in base al punteggio di attendibilità più alto trovato dal servizio a livello di frase e documento. |
| ServiceCounters |
Rappresenta i contatori e le quote delle risorse a livello di servizio. |
| ServiceLimits |
Rappresenta vari limiti a livello di servizio. |
| ShaperSkill |
Competenza per la ridevisione degli output. Crea un tipo complesso per supportare i campi compositi (noti anche come campi multipart). |
| ShingleTokenFilter |
Crea combinazioni di token come singolo token. Questo filtro di token viene implementato usando Apache Lucene. |
| SimpleField |
Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo. |
| SingleVectorFieldResult |
Risultato di un singolo campo vettoriale. Entrambi |
| SnowballTokenFilter |
Filtro che deriva le parole usando uno stemmer generato da Snowball. Questo filtro di token viene implementato usando Apache Lucene. |
| SoftDeleteColumnDeletionDetectionPolicy |
Definisce un criterio di rilevamento dell'eliminazione dei dati che implementa una strategia di eliminazione temporanea. Determina se un elemento deve essere eliminato in base al valore di una colonna "eliminazione temporanea" designata. |
| SplitSkill |
Competenza per suddividere una stringa in blocchi di testo. |
| SqlIntegratedChangeTrackingPolicy |
Definisce un criterio di rilevamento delle modifiche dei dati che acquisisce le modifiche usando la funzionalità Rilevamento modifiche integrato del database SQL di Azure. |
| StemmerOverrideTokenFilter |
Consente di eseguire l'override di altri filtri di stemming con stemming basato su dizionario personalizzato. Tutti i termini con stemmy-stemming verranno contrassegnati come parole chiave in modo che non vengano stemmati lungo la catena. Deve essere posizionato prima di qualsiasi filtro di stemming. Questo filtro di token viene implementato usando Apache Lucene. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html |
| StemmerTokenFilter |
Filtro di stemming specifico della lingua. Questo filtro di token viene implementato usando Apache Lucene. Fare riferimento a https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters |
| StopAnalyzer |
Divide il testo in corrispondenza di lettere non; Applica i filtri di token minuscoli e non significative. Questo analizzatore viene implementato usando Apache Lucene. |
| StopwordsTokenFilter |
Rimuove le parole non significative da un flusso di token. Questo filtro di token viene implementato usando Apache Lucene. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html |
| SuggestDocumentsResult |
Risposta contenente i risultati della query di suggerimento da un indice. |
| SuggestRequest |
Parametri per il filtro, l'ordinamento, la corrispondenza fuzzy e altri comportamenti di query di suggerimenti. |
| Suggester |
Definisce il modo in cui l'API Suggerisci deve essere applicata a un gruppo di campi nell'indice. |
| SynchronizationState |
Rappresenta lo stato corrente di una sincronizzazione in corso che si estende su più esecuzioni dell'indicizzatore. |
| SynonymMap |
Rappresenta una definizione di mappa sinonimo. |
| SynonymTokenFilter |
Trova la corrispondenza con sinonimi singoli o con più parole in un flusso di token. Questo filtro di token viene implementato usando Apache Lucene. |
| TagScoringFunction |
Definisce una funzione che aumenta i punteggi dei documenti con valori stringa corrispondenti a un determinato elenco di tag. |
| TagScoringParameters |
Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di tag. |
| TextResult |
Punteggio BM25 o Classico per la parte di testo della query. |
| TextTranslationSkill |
Competenza per tradurre testo da una lingua a un'altra. |
| TextWeights |
Definisce i pesi nei campi di indice per i quali le corrispondenze devono aumentare il punteggio nelle query di ricerca. |
| TokenAuthAzureMachineLearningVectorizerParameters |
Specifica le proprietà per la connessione a un vettore AML con un'identità gestita. |
| TruncateTokenFilter |
Tronca i termini a una lunghezza specifica. Questo filtro di token viene implementato usando Apache Lucene. |
| UaxUrlEmailTokenizer |
Tokenzza url e messaggi di posta elettronica come un token. Questo tokenizer viene implementato tramite Apache Lucene. |
| UniqueTokenFilter |
Filtra i token con lo stesso testo del token precedente. Questo filtro di token viene implementato usando Apache Lucene. |
| VectorSearch |
Contiene le opzioni di configurazione correlate alla ricerca vettoriale. |
| VectorSearchOptions |
Definisce le opzioni per le query di ricerca vettoriale |
| VectorSearchProfile |
Definisce una combinazione di configurazioni da usare con la ricerca vettoriale. |
| VectorizableImageBinaryQuery |
Parametri di query da usare per la ricerca vettoriale quando viene fornito un file binario con codifica base 64 di un'immagine che deve essere vettorializzata. |
| VectorizableImageUrlQuery |
Parametri di query da usare per la ricerca vettoriale quando viene fornito un URL che rappresenta un valore di immagine che deve essere vettorializzato. |
| VectorizableTextQuery |
Parametri di query da usare per la ricerca vettoriale quando viene fornito un valore di testo che deve essere vettorializzato. |
| VectorizedQuery |
Parametri di query da usare per la ricerca vettoriale quando viene specificato un valore di vettore non elaborato. |
| VectorsDebugInfo |
"Contiene informazioni di debug specifiche per la ricerca vettoriale e ibrida.") |
| WebApiParameters |
Specifica le proprietà per la connessione a un vettore definito dall'utente. |
| WebApiSkill |
Una competenza che può chiamare un endpoint API Web, consentendo di estendere un set di competenze tramite la chiamata al codice personalizzato. |
| WebApiVectorizer |
Specifica un vettore definito dall'utente per generare l'incorporamento del vettore di una stringa di query. L'integrazione di un vettore esterno viene ottenuta usando l'interfaccia API Web personalizzata di un set di competenze. |
| WebKnowledgeSource |
Risultati Web di targeting della Knowledge Source. |
| WebKnowledgeSourceDomain |
Configurazione per il dominio di origine della conoscenza Web. |
| WebKnowledgeSourceDomains |
Configurazione del dominio che consente/blocca per l'origine della conoscenza Web. |
| WebKnowledgeSourceParameters |
Parametri per la fonte di conoscenza web. |
| WebKnowledgeSourceParams |
Specifica i parametri di runtime per un'origine della conoscenza Web |
| WordDelimiterTokenFilter |
Suddivide le parole in parole secondarie ed esegue trasformazioni facoltative nei gruppi di sottoword. Questo filtro di token viene implementato usando Apache Lucene. |
Alias tipo
| AIFoundryModelCatalogName |
Il nome del modello di embedding dal Azure AI Foundry Catalog sarà chiamato. Valori noti supportati dal servizio
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32: OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
| AliasIterator |
Iteratore per elencare gli alias esistenti nel servizio di ricerca. In questo modo le richieste verranno eseguite in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione. |
| AnalyzeTextOptions |
Opzioni per l'operazione di analisi del testo. |
| AutocompleteMode |
Specifica la modalità per il completamento automatico. Il valore predefinito è 'oneTerm'. Utilizzare 'twoTerms' per ottenere le tegole e 'oneTermWithContext' per utilizzare il contesto corrente nella produzione di termini di completamento automatico. |
| AutocompleteOptions |
Opzioni per il recupero del testo di completamento per un oggetto searchText parziale. |
| AzureMachineLearningVectorizerParameters |
Specifica le proprietà per la connessione a un vettore AML. |
| AzureOpenAIModelName |
Nome del modello Azure Open AI che verrà chiamato. Valori noti supportati dal servizio
text-embedding-ada-002: modello TextEmbeddingAda002. |
| BaseKnowledgeRetrievalIntent |
Alias per KnowledgeRetrievalIntentUnion |
| BlobIndexerDataToExtract | |
| BlobIndexerImageAction | |
| BlobIndexerPDFTextRotationAlgorithm | |
| BlobIndexerParsingMode | |
| CharFilter |
Contiene i casi possibili per CharFilter. |
| CharFilterName |
Definisce i nomi di tutti i filtri carattere supportati dal motore di ricerca. Valori noti supportati dal serviziohtml_strip: filtro di caratteri che tenta di rimuovere i costrutti HTML. Fare riferimento a https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
| ChatCompletionExtraParametersBehavior |
Specifica come gli 'extraParameters' dovrebbero essere gestiti da Azure AI Foundry. Il valore predefinito è 'error'. Valori noti supportati dal servizio
passThrough: passa eventuali parametri aggiuntivi direttamente al modello. |
| ChatCompletionResponseFormatType |
Specifica il modo in cui l'LLM deve formattare la risposta. Valori noti supportati dal servizio
testo: formato di risposta in testo semplice. |
| CjkBigramTokenFilterScripts |
Script che possono essere ignorati da CjkBigramTokenFilter. |
| CognitiveServicesAccount |
Contiene i casi possibili per CognitiveServicesAccount. |
| ComplexDataType |
Definisce i valori per ComplexDataType. I valori possibili includono: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
| ContentUnderstandingSkillChunkingUnit |
Controlla la cardinalità dell'unità chunk. Il predefinito è 'characters' Valori noti supportati dal serviziocharacters: specifica il blocco per caratteri. |
| ContentUnderstandingSkillExtractionOptions |
Controlla la cardinalità del contenuto estratto dal documento dalla competenza. Valori noti supportati dal servizio
images: Specifica che il contenuto dell'immagine deve essere estratto dal documento. |
| ContinuablePage |
Interfaccia che descrive una pagina di risultati. |
| CountDocumentsOptions |
Opzioni per l'esecuzione dell'operazione di conteggio sull'indice. |
| CreateAliasOptions |
Opzioni per l'operazione di creazione alias. |
| CreateDataSourceConnectionOptions |
Opzioni per l'operazione di creazione dell'origine dati. |
| CreateIndexOptions |
Opzioni per l'operazione di creazione dell'indice. |
| CreateIndexerOptions |
Opzioni per l'operazione di creazione dell'indicizzatore. |
| CreateSkillsetOptions |
Opzioni per creare un'operazione del set di competenze. |
| CreateSynonymMapOptions |
Opzioni per creare l'operazione synonymmap. |
| CustomEntityLookupSkillLanguage | |
| DataChangeDetectionPolicy |
Contiene i casi possibili per DataChangeDetectionPolicy. |
| DataDeletionDetectionPolicy |
Contiene i casi possibili per DataDeletionDetectionPolicy. |
| DeleteDocumentsOptions |
Opzioni per l'operazione di eliminazione dei documenti. |
| DocumentIntelligenceLayoutSkillChunkingUnit |
Controlla la cardinalità dell'unità chunk. Il predefinito è 'characters' Valori noti supportati dal serviziocharacters: specifica il blocco per caratteri. |
| DocumentIntelligenceLayoutSkillExtractionOptions |
Controlla la cardinalità del contenuto estratto dal documento dalla competenza. Valori noti supportati dal servizio
images: Specifica che il contenuto dell'immagine deve essere estratto dal documento. |
| DocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Profondità delle intestazioni nell'output markdown. Il valore predefinito è h6. Valori noti supportati dal servizio
h1: Livello di intestazione 1. |
| DocumentIntelligenceLayoutSkillOutputFormat |
Controlla la cardinalità del formato di output. Il valore predefinito è 'markdown'. Valori noti supportati dal servizio
text: Specifica il formato dell'output come testo. |
| DocumentIntelligenceLayoutSkillOutputMode |
Controlla la cardinalità dell'output prodotto dalla competenza. Il valore predefinito è "oneToMany". Valori noti supportati dal serviziooneToMany: specificare che l'output deve essere analizzato come 'oneToMany'. |
| EdgeNGramTokenFilterSide |
Specifica da quale lato dell'input deve essere generato un n-gram. |
| EntityCategory |
Stringa che indica le categorie di entità da restituire. Valori noti supportati dal servizio
Posizione: Entità che descrivono una posizione fisica. |
| EntityRecognitionSkillLanguage |
I codici della lingua supportati per il testo di input da EntityRecognitionSkill. Valori noti supportati dal servizio
ar: arabo |
| ExcludedODataTypes | |
| ExhaustiveKnnAlgorithmConfiguration |
Contiene opzioni di configurazione specifiche dell'algoritmo KNN completo usato durante l'esecuzione di query, che eseguirà la ricerca di forza bruta nell'intero indice vettoriale. |
| ExtractDocumentKey | |
| GetAliasOptions |
Opzioni per l'operazione get alias. |
| GetDataSourceConnectionOptions |
Opzioni per l'operazione get datasource. |
| GetIndexOptions |
Opzioni per l'operazione get index. |
| GetIndexStatisticsOptions |
Opzioni per l'operazione get index statistics. |
| GetIndexerOptions |
Opzioni per l'operazione get indexer. |
| GetIndexerStatusOptions |
Opzioni per l'operazione di recupero dello stato dell'indicizzatore. |
| GetServiceStatisticsOptions |
Opzioni per l'operazione di recupero delle statistiche del servizio. |
| GetSkillSetOptions |
Opzioni per l'operazione get skillset. |
| GetSynonymMapsOptions |
Opzioni per l'operazione get synonymmaps. |
| HnswAlgorithmConfiguration |
Contiene opzioni di configurazione specifiche dell'algoritmo hnsw approssimato vicino usato durante l'indicizzazione. |
| ImageAnalysisSkillLanguage | |
| ImageDetail | |
| IndexActionType |
Operazione da eseguire su un documento in un batch di indicizzazione. |
| IndexDocumentsAction |
Rappresenta un'azione di indice che opera su un documento. |
| IndexIterator |
Iteratore per elencare gli indici esistenti nel servizio di ricerca. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione. |
| IndexNameIterator |
Iteratore per elencare gli indici esistenti nel servizio di ricerca. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione. |
| IndexProjectionMode |
Definisce il comportamento delle proiezioni dell'indice in relazione al resto dell'indicizzatore. Valori noti supportati dal servizio
skipIndexingParentDocuments: il documento di origine verrà ignorato dalla scrittura nell'indice di destinazione dell'indicizzatore. |
| IndexerExecutionEnvironment | |
| IndexerExecutionStatus |
Rappresenta lo stato di una singola esecuzione dell'indicizzatore. |
| IndexerResyncOption |
Opzioni con vari tipi di dati di autorizzazione per l'indicizzazione. Valori noti supportati dal servizioautorizzazioni: indicizzatore per inserire nuovamente i dati delle autorizzazioni preselezionate dall'origine dati all'indice. |
| IndexerStatus |
Rappresenta lo stato generale dell'indicizzatore. |
| KeyPhraseExtractionSkillLanguage | |
| KnowledgeBaseActivityRecord |
Alias per KnowledgeBaseActivityRecordUnion |
| KnowledgeBaseActivityRecordType |
Il tipo di record di attività. Valori noti supportati dal servizio
searchIndex: attività di recupero dell'indice di ricerca. |
| KnowledgeBaseIterator |
Un iteratore per elencare le knowledge base esistenti nel servizio di ricerca. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione. |
| KnowledgeBaseMessageContent |
Alias per KnowledgeBaseMessageContentUnion |
| KnowledgeBaseMessageContentType |
Tipo di contenuto del messaggio. Valori noti supportati dal servizio
testo: Contenuto per messaggi di testo. |
| KnowledgeBaseModel | |
| KnowledgeBaseModelKind |
Modello di intelligenza artificiale da utilizzare per la pianificazione delle query. Valori noti supportati dal servizioazureOpenAI: Utilizzare Azure modelli Open AI per la pianificazione delle query. |
| KnowledgeBaseReference |
Alias per KnowledgeBaseReferenceUnion |
| KnowledgeBaseReferenceType |
Tipo di riferimento. Valori noti supportati dal servizio
searchIndex: Ricerca indice riferimento al documento. |
| KnowledgeRetrievalIntentType |
Tipo di configurazione della Knowledge Base da utilizzare. Valori noti supportati dal servizioSemantica: Un'intento di interrogazione semantica in linguaggio naturale. |
| KnowledgeRetrievalReasoningEffortKind |
Quantità di sforzo da utilizzare durante il recupero. Valori noti supportati dal serviziominimal: Non esegue alcuna selezione di sorgente, pianificazione delle query o ricerca iterativa. |
| KnowledgeRetrievalReasoningEffortUnion |
Alias per RecuperoConoscenzaRagionamentoSforzoUnione |
| KnowledgeSource | |
| KnowledgeSourceContentExtractionMode |
Modalità di estrazione dei contenuti opzionale. Il valore predefinito è 'minimal'. Valori noti supportati dal servizio
minimal: estrae solo i metadati essenziali e rimanda la maggior parte dell'elaborazione dei contenuti. |
| KnowledgeSourceIterator |
Un iteratore per elencare le fonti di conoscenza esistenti nel servizio di ricerca. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione. |
| KnowledgeSourceKind |
Il tipo di fonte di conoscenza. Valori noti supportati dal servizio
searchIndex: un'origine della conoscenza che legge i dati da un indice di ricerca. |
| KnowledgeSourceParams |
Alias per KnowledgeSourceParamsUnion |
| KnowledgeSourceSynchronizationStatus |
Stato di sincronizzazione corrente dell'origine della conoscenza. Valori noti supportati dal servizio
creazione: La fonte di conoscenza viene fornita. |
| KnowledgeSourceVectorizer | |
| LexicalAnalyzer |
Contiene i possibili casi per Analyzer. |
| LexicalAnalyzerName |
Definisce i nomi di tutti gli analizzatori di testo supportati dal motore di ricerca. Valori noti supportati dal servizio
ar.microsoft: Analizzatore Microsoft per l'arabo. |
| LexicalNormalizer |
Contiene i possibili case per LexicalNormalizer. |
| LexicalNormalizerName |
Definisce i nomi di tutti i normalizzatori di testo supportati dal motore di ricerca. Valori noti supportati dal servizio
asciifolding: converte caratteri Unicode alfabetici, numerici e simbolici che non sono nei primi 127 caratteri ASCII (blocco Unicode "Latino di base") nei rispettivi equivalenti ASCII, se tali equivalenti esistono. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
| LexicalTokenizer |
Contiene i casi possibili per Tokenizer. |
| LexicalTokenizerName |
Definisce i nomi di tutti i tokenizzatori supportati dal motore di ricerca. Valori noti supportati dal servizio
classico: tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
| ListAliasesOptions |
Opzioni per l'operazione degli alias di elenco. |
| ListDataSourceConnectionsOptions |
Opzioni per un'operazione di elenco delle origini dati. |
| ListIndexersOptions |
Opzioni per un'operazione degli indicizzatori di elenco. |
| ListIndexesOptions |
Opzioni per un'operazione sugli indici di elenco. |
| ListSkillsetsOptions |
Opzioni per un'operazione di set di competenze di elenco. |
| ListSynonymMapsOptions |
Opzioni per un'operazione list synonymMaps. |
| MarkdownHeaderDepth |
Specifica la profondità massima dell'intestazione che verrà considerata durante il raggruppamento del contenuto markdown. Il valore predefinito è Valori noti supportati dal servizio
h1: indica che le intestazioni fino a un livello di h1 verranno prese in considerazione durante il raggruppamento del contenuto markdown. |
| MarkdownParsingSubmode |
Specifica la modalità secondaria che determinerà se un file markdown verrà analizzato esattamente in uno o più documenti di ricerca. Il valore predefinito è Valori noti supportati dal servizio
oneToMany: indica che ogni sezione del file markdown (fino a una profondità specificata) verrà analizzata in singoli documenti di ricerca. Ciò può comportare un singolo file markdown che produce più documenti di ricerca. Questa è la modalità secondaria predefinita. |
| MergeDocumentsOptions |
Opzioni per l'operazione di unione dei documenti. |
| MergeOrUploadDocumentsOptions |
Opzioni per l'operazione di unione o caricamento di documenti. |
| MicrosoftStemmingTokenizerLanguage |
Elenca i linguaggi supportati dal tokenizzatore stemming del linguaggio Microsoft. |
| MicrosoftTokenizerLanguage |
Elenca le lingue supportate dal tokenizzatore di linguaggio Microsoft. |
| NarrowedModel |
Restringe il tipo di modello in modo da includere solo i campi selezionati |
| OcrLineEnding |
Definisce la sequenza di caratteri da utilizzare tra le righe di testo riconosciute dalla competenza OCR. Il valore predefinito è "spazio". Valori noti supportati dal servizio
spazio: le righe sono separate da un singolo carattere di spazio. |
| OcrSkillLanguage | |
| PIIDetectionSkillMaskingMode | |
| PhoneticEncoder |
Identifica il tipo di codificatore fonetico da utilizzare con un PhoneticTokenFilter. |
| QueryAnswer |
Valore che specifica se le risposte devono essere restituite come parte della risposta di ricerca.
Questo parametro è valido solo se il tipo di query è 'semantic'. Se impostato su |
| QueryCaption |
Valore che specifica se le didascalie devono essere restituite come parte della risposta di ricerca. Questo parametro è valido solo se il tipo di query è 'semantic'. Se impostata, la query restituisce le didascalie estratte dai passaggi chiave nei documenti classificati più alti. Quando captions è "estratto", l'evidenziazione è abilitata per impostazione predefinita. Il valore predefinito è 'none'. |
| QueryDebugMode |
Abilita uno strumento di debug che può essere utilizzato per esplorare ulteriormente i risultati della ricerca. È possibile abilitare più modalità di debug contemporaneamente separandole con un | carattere, ad esempio: semantic|queryRewrites. Valori noti supportati dal servizio
disabilitato: non verranno restituite informazioni di debug della query. |
| QueryRewrites |
Definisce le opzioni per la riscrittura delle query. |
| QueryType |
Specifica la sintassi della query di ricerca. Il valore predefinito è 'simple'. Utilizzare 'full' se la query utilizza la sintassi della query Lucene e 'semantic' se la sintassi della query non è necessaria. Valori noti supportati dal servizio
semplice: Usa la sintassi semplice delle query per le ricerche. Il testo di ricerca viene interpretato utilizzando un semplice linguaggio di query che consente l'uso di simboli come +, * e "". Per impostazione predefinita, le query vengono valutate in tutti i campi in cui è possibile eseguire la ricerca, a meno che non venga specificato il parametro searchFields. |
| RankingOrder |
Rappresenta il punteggio da utilizzare per l'ordinamento dei documenti. Valori noti supportati dal servizio
BoostedRerankerScore: Imposta l'ordinamento come BoostedRerankerScore |
| RegexFlags | |
| ResetIndexerOptions |
Opzioni per reimpostare l'operazione dell'indicizzatore. |
| RunIndexerOptions |
Opzioni per l'esecuzione dell'operazione dell'indicizzatore. |
| ScoringFunction |
Contiene i possibili casi per ScoringFunction. |
| ScoringFunctionAggregation |
Definisce la funzione di aggregazione utilizzata per combinare i risultati di tutte le funzioni di assegnazione dei punteggi in un profilo di punteggio. |
| ScoringFunctionInterpolation |
Definisce la funzione utilizzata per interpolare l'aumento del punteggio in un intervallo di documenti. |
| ScoringStatistics |
Un valore che specifica se si desidera calcolare le statistiche di punteggio (ad esempio la frequenza dei documenti) a livello globale per un punteggio più coerente o a livello locale, per una latenza inferiore. Il valore predefinito è 'locale'. Utilizza "globale" per aggregare le statistiche di punteggio a livello globale prima di segnare. L'uso delle statistiche di punteggio globali può aumentare la latenza delle query di ricerca. |
| SearchField |
Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo. |
| SearchFieldArray |
Se |
| SearchFieldDataType |
Definisce i valori per SearchFieldDataType. Valori noti supportati dal servizio:Edm.String: indica che un campo contiene una stringa. Edm.Int32: indica che un campo contiene un intero con segno a 32 bit. Edm.Int64: indica che un campo contiene un intero con segno a 64 bit. Edm.Double: indica che un campo contiene un numero a virgola mobile a precisione doppia IEEE. Edm.Boolean: indica che un campo contiene un valore booleano (true o false). Edm.DateTimeOffset: indica che un campo contiene un valore di data/ora, incluse le informazioni sul fuso orario. Edm.GeographyPoint: indica che un campo contiene una posizione geografica in termini di longitudine e latitudine. Edm.ComplexType: indica che un campo contiene uno o più oggetti complessi che a loro volta hanno sottocampi di altri tipi. Edm.Single: indica che un campo contiene un numero a virgola mobile a precisione singola. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Single). Edm.Half: indica che un campo contiene un numero a virgola mobile a metà precisione. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Half). Edm.Int16: indica che un campo contiene un intero con segno a 16 bit. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Int16). Edm.SByte: indica che un campo contiene un intero con segno a 8 bit. Questa proprietà è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.SByte). Edm.Byte: indica che un campo contiene un intero senza segno a 8 bit. Questa opzione è valida solo se utilizzata come parte di un tipo di raccolta, ad esempio Collection(Edm.Byte). |
| SearchIndexAlias |
Oggetto Alias di ricerca. |
| SearchIndexerDataIdentity |
Contiene i possibili casi per SearchIndexerDataIdentity. |
| SearchIndexerDataSourceType | |
| SearchIndexerSkill |
Contiene i possibili casi per Skill. |
| SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderDeleteDocuments. |
| SearchIndexingBufferedSenderFlushDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderFlushDocuments. |
| SearchIndexingBufferedSenderMergeDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderMergeDocuments. |
| SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderMergeOrUploadDocuments. |
| SearchIndexingBufferedSenderUploadDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderUploadDocuments. |
| SearchIterator |
Iteratore per i risultati della ricerca di una query paticolare. Effettuerà richieste in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione. |
| SearchMode |
Specifica se è necessario trovare una corrispondenza tra uno o tutti i termini di ricerca per poter conteggiare il documento come corrispondenza. |
| SearchOptions |
Opzioni per il commit di una richiesta di ricerca completa. |
| SearchPick |
Seleziona in profondità i campi di T utilizzando percorsi di $select OData di ricerca AI validi. |
| SearchRequestOptions |
Parametri per il filtro, l'ordinamento, il facet, il paging e altri comportamenti delle query di ricerca. |
| SearchRequestQueryTypeOptions | |
| SearchResult |
Contiene un documento trovato da una query di ricerca, oltre ai metadati associati. |
| SelectFields |
Produce un'unione di percorsi di $select OData di ricerca AI validi per T utilizzando un attraversamento post-ordine dell'albero del campo radicato in T. |
| SemanticErrorMode | |
| SemanticErrorReason | |
| SemanticSearchResultsType |
Tipo di risposta parziale restituita per una richiesta di classificazione semantica. Valori noti supportati dal servizio
baseResults: Risultati senza alcun arricchimento semantico o riclassificazione. |
| SentimentSkillLanguage |
I codici lingua supportati per il testo di input da SentimentSkill. Valori noti supportati dal servizio
da: Danese |
| Similarity |
Alias per SimilarityAlgorithmUnion |
| SimilarityAlgorithm |
Contiene i possibili casi di somiglianza. |
| SnowballTokenFilterLanguage |
Lingua da utilizzare per un filtro token Snowball. |
| SplitSkillLanguage | |
| StemmerTokenFilterLanguage |
Linguaggio da utilizzare per un filtro token stemmer. |
| StopwordsList |
Identifica un elenco predefinito di parole non significative specifiche della lingua. |
| SuggestNarrowedModel | |
| SuggestOptions |
Opzioni per il recupero di suggerimenti in base a searchText. |
| SuggestResult |
Risultato contenente un documento trovato da una query di suggerimento, oltre ai metadati associati. |
| TextSplitMode | |
| TextTranslationSkillLanguage | |
| TokenCharacterKind |
Rappresenta le classi di caratteri su cui può operare un filtro token. |
| TokenFilter |
Contiene i casi possibili per TokenFilter. |
| TokenFilterName |
Definisce i nomi di tutti i filtri token supportati dal motore di ricerca. Valori noti supportati dal servizio
arabic_normalization: filtro token che applica il normalizzatore arabo per normalizzare l'ortografia. Fare riferimento a http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
| UnionToIntersection | |
| UploadDocumentsOptions |
Opzioni per l'operazione di caricamento dei documenti. |
| VectorEncodingFormat |
Formato di codifica per l'interpretazione del contenuto del campo vettoriale. Valori noti supportati dal serviziopackedBit: formato di codifica che rappresenta i bit compressi in un tipo di dati più ampio. |
| VectorFilterMode | |
| VectorQuery |
Parametri di query per le query di ricerca ibrida e vettoriali. |
| VectorQueryKind | |
| VectorSearchAlgorithmConfiguration |
Contiene opzioni di configurazione specifiche dell'algoritmo utilizzato durante l'indicizzazione e/o l'esecuzione di query. |
| VectorSearchAlgorithmKind | |
| VectorSearchAlgorithmMetric | |
| VectorSearchCompression |
Contiene opzioni di configurazione specifiche del metodo di compressione utilizzato durante l'indicizzazione o l'esecuzione di query. |
| VectorSearchCompressionKind |
Metodo di compressione utilizzato per l'indicizzazione e l'esecuzione di query. Valori noti supportati dal servizio
scalarQuantization: Quantizzazione scalare, un tipo di metodo di compressione. Nella quantizzazione scalare, i valori dei vettori originali vengono compressi in un tipo più stretto discretizzando e rappresentando ogni componente di un vettore usando un set ridotto di valori quantizzati, riducendo così le dimensioni complessive dei dati. |
| VectorSearchCompressionRescoreStorageMethod |
Metodo di archiviazione per i vettori originali a precisione completa utilizzati per il rescoring e le operazioni di indicizzazione interna. Valori noti supportati dal servizio
preserveOriginals: questa opzione conserva i vettori originali a precisione completa. Scegliere questa opzione per la massima flessibilità e la massima qualità dei risultati della ricerca compressi. Questo usa più spazio di archiviazione, ma consente di eseguire la riscoring e l'overcampionamento. |
| VectorSearchCompressionTarget |
Tipo di dati quantizzati dei valori vettoriali compressi. Valori noti supportati dal servizioint8: intero con segno a 8 bit. |
| VectorSearchVectorizer |
Contiene opzioni di configurazione su come vettorizzare le query vettoriali di testo. |
| VectorSearchVectorizerKind |
Metodo di vettorizzazione da utilizzare durante la fase di query. Valori noti supportati dal servizio
azureOpenAI: generare incorporamenti usando una risorsa OpenAI di Azure in fase di query. |
| VisualFeature | |
| WebApiSkills | |
Enumerazioni
| KnownAIFoundryModelCatalogName |
Il nome del modello di embedding dal Azure AI Foundry Catalog sarà chiamato. |
| KnownAnalyzerNames |
Definisce i valori per AnalyzerName. Fare riferimento a https://learn.microsoft.com/rest/api/searchservice/Language-support |
| KnownAzureOpenAIModelName |
Nome del modello Azure Open AI che verrà chiamato. |
| KnownBlobIndexerDataToExtract |
Specifica i dati da estrarre dall'archivio BLOB di Azure e indica all'indicizzatore quali dati estrarre dal contenuto dell'immagine quando "imageAction" è impostato su un valore diverso da "none". Questo vale per il contenuto di immagini incorporate in un .PDF o in un'altra applicazione o per i file di immagine, ad esempio .jpg e .png, nei BLOB di Azure. |
| KnownBlobIndexerImageAction |
Determina come elaborare le immagini incorporate e i file di immagine nell'archivio BLOB di Azure. L'impostazione della configurazione "imageAction" su qualsiasi valore diverso da "none" richiede che un set di competenze sia collegato anche a tale indicizzatore. |
| KnownBlobIndexerPDFTextRotationAlgorithm |
Determina l'algoritmo per l'estrazione del testo dai file PDF nell'archivio BLOB di Azure. |
| KnownBlobIndexerParsingMode |
Rappresenta la modalità di analisi per l'indicizzazione da un'origine dati BLOB di Azure. |
| KnownCharFilterNames |
Definisce i valori per CharFilterName. |
| KnownChatCompletionExtraParametersBehavior |
Specifica come gli 'extraParameters' dovrebbero essere gestiti da Azure AI Foundry. Il valore predefinito è 'error'. |
| KnownChatCompletionResponseFormatType |
Specifica il modo in cui l'LLM deve formattare la risposta. |
| KnownContentUnderstandingSkillChunkingUnit |
Controlla la cardinalità dell'unità chunk. Il valore predefinito è 'characters' |
| KnownContentUnderstandingSkillExtractionOptions |
Controlla la cardinalità del contenuto estratto dal documento dalla competenza. |
| KnownCustomEntityLookupSkillLanguage |
I codici lingua supportati per il testo di input da CustomEntityLookupSkill. |
| KnownDocumentIntelligenceLayoutSkillChunkingUnit |
Controlla la cardinalità dell'unità chunk. Il valore predefinito è 'characters' |
| KnownDocumentIntelligenceLayoutSkillExtractionOptions |
Controlla la cardinalità del contenuto estratto dal documento dalla competenza. |
| KnownDocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Profondità delle intestazioni nell'output markdown. Il valore predefinito è h6. |
| KnownDocumentIntelligenceLayoutSkillOutputFormat |
Controlla la cardinalità del formato di output. Il valore predefinito è 'markdown'. |
| KnownDocumentIntelligenceLayoutSkillOutputMode |
Controlla la cardinalità dell'output prodotto dalla competenza. Il valore predefinito è "oneToMany". |
| KnownEntityCategory |
Stringa che indica le categorie di entità da restituire. |
| KnownEntityRecognitionSkillLanguage |
I codici della lingua supportati per il testo di input da EntityRecognitionSkill. |
| KnownImageAnalysisSkillLanguage |
Codici della lingua supportati per l'input da ImageAnalysisSkill. |
| KnownImageDetail |
Stringa che indica i dettagli specifici del dominio da restituire. |
| KnownIndexProjectionMode |
Definisce il comportamento delle proiezioni dell'indice in relazione al resto dell'indicizzatore. |
| KnownIndexerExecutionEnvironment |
Specifica l'ambiente in cui deve essere eseguito l'indicizzatore. |
| KnownIndexerResyncOption |
Opzioni con vari tipi di dati di autorizzazione per l'indicizzazione. |
| KnownKeyPhraseExtractionSkillLanguage |
I codici della lingua supportati per il testo di input da KeyPhraseExtractionSkill. |
| KnownKnowledgeBaseModelKind |
Modello di intelligenza artificiale da utilizzare per la pianificazione delle query. |
| KnownKnowledgeSourceKind |
Il tipo di fonte di conoscenza. |
| KnownLexicalAnalyzerName |
Definisce i nomi di tutti gli analizzatori di testo supportati dal motore di ricerca. |
| KnownLexicalNormalizerName |
Definisce i nomi di tutti i normalizzatori di testo supportati dal motore di ricerca. |
| KnownMarkdownHeaderDepth |
Specifica la profondità massima dell'intestazione che verrà considerata durante il raggruppamento del contenuto markdown. Il valore predefinito è |
| KnownMarkdownParsingSubmode |
Specifica la modalità secondaria che determinerà se un file markdown verrà analizzato esattamente in uno o più documenti di ricerca. Il valore predefinito è |
| KnownOcrLineEnding |
Definisce la sequenza di caratteri da utilizzare tra le righe di testo riconosciute dalla competenza OCR. Il valore predefinito è "spazio". |
| KnownOcrSkillLanguage |
I codici lingua supportati per l'input da OcrSkill. |
| KnownPIIDetectionSkillMaskingMode |
Stringa che indica il metodo maskingMode da utilizzare per mascherare le informazioni personali rilevate nel testo di input. |
| KnownQueryDebugMode |
Abilita uno strumento di debug che può essere utilizzato per esplorare ulteriormente i risultati della ricerca. È possibile abilitare più modalità di debug contemporaneamente separandole con un | carattere, ad esempio: semantic|queryRewrites. |
| KnownRankingOrder |
Rappresenta il punteggio da utilizzare per l'ordinamento dei documenti. |
| KnownRegexFlags |
Definisce un flag di espressione regolare che può essere utilizzato nell'analizzatore di pattern e nel tokenizzatore di pattern. |
| KnownSearchAudience |
Valori noti per il gruppo di destinatari di ricerca |
| KnownSearchFieldDataType |
Definisce il tipo di dati di un campo in un indice di ricerca. |
| KnownSearchIndexerDataSourceType |
Definisce il tipo di un'origine dati. |
| KnownSemanticErrorMode |
Permette all'utente di scegliere se una chiamata semantica fallisca completamente o di restituire risultati parziali. |
| KnownSemanticErrorReason |
Motivo per cui è stata restituita una risposta parziale per una richiesta di classificazione semantica. |
| KnownSemanticSearchResultsType |
Tipo di risposta parziale restituita per una richiesta di classificazione semantica. |
| KnownSentimentSkillLanguage |
I codici lingua supportati per il testo di input da SentimentSkill. |
| KnownSplitSkillLanguage |
I codici lingua supportati per il testo di input da SplitSkill. |
| KnownTextSplitMode |
Valore che indica la modalità di divisione da eseguire. |
| KnownTextTranslationSkillLanguage |
Codici lingua supportati per il testo di input da TextTranslationSkill. |
| KnownTokenFilterNames |
Definisce i valori per TokenFilterName. |
| KnownTokenizerNames |
Definisce i valori per TokenizerName. |
| KnownVectorEncodingFormat |
Formato di codifica per l'interpretazione del contenuto del campo vettoriale. |
| KnownVectorFilterMode |
Determina se i filtri vengono applicati prima o dopo l'esecuzione della ricerca vettoriale. |
| KnownVectorQueryKind |
Tipo di query vettoriale eseguita. |
| KnownVectorSearchAlgorithmKind |
Algoritmo utilizzato per l'indicizzazione e l'esecuzione di query. |
| KnownVectorSearchAlgorithmMetric |
La metrica di somiglianza da utilizzare per i confronti vettoriali. Si consiglia di scegliere la stessa metrica di somiglianza su cui è stato addestrato il modello di incorporamento. |
| KnownVectorSearchCompressionKind |
Metodo di compressione utilizzato per l'indicizzazione e l'esecuzione di query. |
| KnownVectorSearchCompressionRescoreStorageMethod |
Metodo di archiviazione per i vettori originali a precisione completa utilizzati per il rescoring e le operazioni di indicizzazione interna. |
| KnownVectorSearchCompressionTarget |
Tipo di dati quantizzati dei valori vettoriali compressi. |
| KnownVectorSearchVectorizerKind |
Metodo di vettorizzazione da utilizzare durante la fase di query. |
| KnownVisualFeature |
Stringhe che indicano i tipi di funzionalità visive da restituire. |
Funzioni
| create |
Metodo helper per creare un oggetto SynonymMap. Si tratta di un metodo solo NodeJS. |
| odata(Template |
Esegue l'escape di un'espressione di filtro odata per evitare errori con valori letterali stringa tra virgolette. Esempio di utilizzo:
Per altre informazioni sulla sintassi supportata, vedere: https://learn.microsoft.com/azure/search/search-query-odata-filter |
Variabili
| DEFAULT_BATCH_SIZE | Dimensione predefinita del lotto |
| DEFAULT_FLUSH_WINDOW | Intervallo predefinito di flush della finestra |
| DEFAULT_RETRY_COUNT | Numero predefinito di volte per riprovare. |
Dettagli funzione
createSynonymMapFromFile(string, string)
Metodo helper per creare un oggetto SynonymMap. Si tratta di un metodo solo NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametri
- name
-
string
Nome dell'oggetto SynonymMap.
- filePath
-
string
Percorso del file che contiene i sinonimi (separati da nuove righe)
Valori restituiti
Promise<SynonymMap>
Oggetto SynonymMap
odata(TemplateStringsArray, unknown[])
Esegue l'escape di un'espressione di filtro odata per evitare errori con valori letterali stringa tra virgolette. Esempio di utilizzo:
import { odata } from "@azure/search-documents";
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Per altre informazioni sulla sintassi supportata, vedere: https://learn.microsoft.com/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametri
- strings
-
TemplateStringsArray
Matrice di stringhe per l'espressione
- values
-
unknown[]
Matrice di valori per l'espressione
Valori restituiti
string
Dettagli delle variabili
DEFAULT_BATCH_SIZE
Dimensione predefinita del lotto
DEFAULT_BATCH_SIZE: number
Tipo
number
DEFAULT_FLUSH_WINDOW
Intervallo predefinito di flush della finestra
DEFAULT_FLUSH_WINDOW: number
Tipo
number
DEFAULT_RETRY_COUNT
Numero predefinito di volte per riprovare.
DEFAULT_RETRY_COUNT: number
Tipo
number