@azure/search-documents package
Kelas
AzureKeyCredential |
Kredensial berbasis kunci statis yang mendukung pembaruan nilai kunci yang mendasar. |
GeographyPoint |
Mewakili titik geografis dalam koordinat global. |
IndexDocumentsBatch |
Kelas yang digunakan untuk melakukan operasi batch dengan beberapa dokumen ke indeks. |
SearchClient |
Kelas yang digunakan untuk melakukan operasi terhadap indeks pencarian, termasuk mengkueri dokumen dalam indeks serta menambahkan, memperbarui, dan menghapusnya. |
SearchIndexClient |
Kelas untuk melakukan operasi untuk mengelola (membuat, memperbarui, mencantumkan/menghapus) indeks, & sinonim. |
SearchIndexerClient |
Kelas untuk melakukan operasi untuk mengelola pengindeks (buat, perbarui, daftar/hapus), sumber data & skillset. |
SearchIndexingBufferedSender |
Kelas yang digunakan untuk melakukan operasi buffer terhadap indeks pencarian, termasuk menambahkan, memperbarui, dan menghapusnya. |
Antarmuka
AnalyzeRequest |
Menentukan beberapa komponen teks dan analisis yang digunakan untuk memecah teks tersebut menjadi token. |
AnalyzeResult |
Hasil pengujian penganalisis pada teks. |
AnalyzedTokenInfo |
Informasi tentang token yang dikembalikan oleh penganalisis. |
AsciiFoldingTokenFilter |
Mengonversi karakter Unicode alfabet, numerik, dan simbolis yang tidak berada dalam 127 karakter ASCII pertama (blok Unicode "Latin Dasar" ke dalam setara ASCII mereka, jika setara tersebut ada. Filter token ini diimplementasikan menggunakan Apache Lucene. |
AutocompleteItem |
Hasil permintaan Lengkapi Otomatis. |
AutocompleteRequest |
Parameter untuk pencocokan fuzzy, dan perilaku kueri lengkapi otomatis lainnya. |
AutocompleteResult |
Hasil kueri Lengkapi Otomatis. |
AzureActiveDirectoryApplicationCredentials |
Kredensial aplikasi terdaftar yang dibuat untuk layanan pencarian Anda, digunakan untuk akses terautentikasi ke kunci enkripsi yang disimpan di Azure Key Vault. |
AzureOpenAIEmbeddingSkill |
Memungkinkan Anda membuat penyematan vektor untuk input teks tertentu menggunakan sumber daya Azure OpenAI. |
AzureOpenAIParameters |
Berisi parameter khusus untuk menggunakan layanan Azure Open AI untuk vektorisasi pada waktu kueri. |
AzureOpenAIVectorizer |
Berisi parameter khusus untuk menggunakan layanan Azure Open AI untuk vektorisasi pada waktu kueri. |
BM25Similarity |
Fungsi peringkat berdasarkan algoritma kesamaan Okapi BM25. BM25 adalah algoritma seperti TF-IDF yang mencakup normalisasi panjang (dikontrol oleh parameter 'b') serta saturasi frekuensi istilah (dikontrol oleh parameter 'k1'). |
BaseCharFilter |
Jenis dasar untuk filter karakter. |
BaseCognitiveServicesAccount |
Jenis dasar untuk menjelaskan sumber daya layanan Azure AI apa pun yang dilampirkan ke set keterampilan. |
BaseDataChangeDetectionPolicy |
Jenis dasar untuk kebijakan deteksi perubahan data. |
BaseDataDeletionDetectionPolicy |
Jenis dasar untuk kebijakan deteksi penghapusan data. |
BaseLexicalAnalyzer |
Jenis dasar untuk penganalisis. |
BaseLexicalTokenizer |
Jenis dasar untuk tokenizer. |
BaseScoringFunction |
Jenis dasar untuk fungsi yang dapat mengubah skor dokumen selama peringkat. |
BaseSearchIndexerDataIdentity |
Jenis dasar abstrak untuk identitas data. |
BaseSearchIndexerSkill |
Jenis dasar untuk keterampilan. |
BaseSearchRequestOptions |
Parameter untuk pemfilteran, pengurutan, faset, penomoran halaman, dan perilaku kueri pencarian lainnya. |
BaseTokenFilter |
Jenis dasar untuk filter token. |
BaseVectorQuery |
Parameter kueri untuk kueri pencarian vektor dan hibrid. |
BaseVectorSearchAlgorithmConfiguration |
Berisi opsi konfigurasi khusus untuk algoritma yang digunakan selama pengindeksan dan/atau kueri. |
BaseVectorSearchCompression |
Berisi opsi konfigurasi khusus untuk metode pemadatan yang digunakan selama pengindeksan atau kueri. |
BaseVectorSearchVectorizer |
Berisi detail spesifik untuk metode vektorisasi yang akan digunakan selama waktu kueri. |
BinaryQuantizationCompression |
Berisi opsi konfigurasi khusus untuk metode kompresi kuantisasi biner yang digunakan selama pengindeksan dan kueri. |
CjkBigramTokenFilter |
Membentuk bigram istilah CJK yang dihasilkan dari tokenizer standar. Filter token ini diimplementasikan menggunakan Apache Lucene. |
ClassicSimilarity |
Algoritma kesamaan warisan yang menggunakan implementasi Lucene TFIDFSimilarity dari TF-IDF. Variasi TF-IDF ini memperkenalkan normalisasi panjang dokumen statis serta faktor koordinasi yang mengharuskan dokumen yang hanya sebagian cocok dengan kueri yang dicari. |
ClassicTokenizer |
Tokenizer berbasis tata bahasa yang cocok untuk memproses sebagian besar dokumen berbahasa Eropa. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
CognitiveServicesAccountKey |
Kunci akun multi-wilayah dari sumber daya layanan Azure AI yang dilampirkan ke set keterampilan. |
CommonGramTokenFilter |
Buat bigram untuk istilah yang sering terjadi saat mengindeks. Istilah tunggal masih diindeks juga, dengan bigram dilapisi. Filter token ini diimplementasikan menggunakan Apache Lucene. |
ComplexField |
Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang. |
ConditionalSkill |
Keterampilan yang memungkinkan skenario yang memerlukan operasi Boolean untuk menentukan data yang akan ditetapkan ke output. |
CorsOptions |
Menentukan opsi untuk mengontrol Berbagi Sumber Daya Lintas Asal (CORS) untuk indeks. |
CreateOrUpdateIndexOptions |
Opsi untuk operasi buat/perbarui indeks. |
CreateOrUpdateSkillsetOptions |
Opsi untuk operasi buat/perbarui skillset. |
CreateOrUpdateSynonymMapOptions |
Opsi untuk operasi buat/perbarui sinonim. |
CreateorUpdateDataSourceConnectionOptions |
Opsi untuk operasi buat/perbarui sumber data. |
CreateorUpdateIndexerOptions |
Opsi untuk operasi pengindeks buat/perbarui. |
CustomAnalyzer |
Memungkinkan Anda mengambil kontrol atas proses konversi teks menjadi token yang dapat diindeks/dapat dicari. Ini adalah konfigurasi yang ditentukan pengguna yang terdiri dari satu tokenizer yang telah ditentukan sebelumnya dan satu atau beberapa filter. Tokenizer bertanggung jawab untuk memecah teks menjadi token, dan filter untuk memodifikasi token yang dipancarkan oleh tokenizer. |
CustomEntity |
Objek yang berisi informasi tentang kecocokan yang ditemukan, dan metadata terkait. |
CustomEntityAlias |
Objek kompleks yang dapat digunakan untuk menentukan ejaan atau sinonim alternatif ke nama entitas akar. |
CustomEntityLookupSkill |
Keterampilan mencari teks dari daftar kata dan frasa kustom yang ditentukan pengguna. |
DefaultCognitiveServicesAccount |
Objek kosong yang mewakili sumber daya layanan Azure AI default untuk set keterampilan. |
DeleteDataSourceConnectionOptions |
Opsi untuk menghapus operasi sumber data. |
DeleteIndexOptions |
Opsi untuk menghapus operasi indeks. |
DeleteIndexerOptions |
Opsi untuk menghapus operasi pengindeks. |
DeleteSkillsetOptions |
Opsi untuk menghapus operasi skillset. |
DeleteSynonymMapOptions |
Opsi untuk menghapus operasi sinonim. |
DictionaryDecompounderTokenFilter |
Menguraikan kata-kata manyawa yang ditemukan dalam banyak bahasa Jermanik. Filter token ini diimplementasikan menggunakan Apache Lucene. |
DistanceScoringFunction |
Menentukan fungsi yang meningkatkan skor berdasarkan jarak dari lokasi geografis. |
DistanceScoringParameters |
Menyediakan nilai parameter ke fungsi penilaian jarak. |
DocumentExtractionSkill |
Keterampilan yang mengekstrak konten dari file dalam alur pengayaan. |
EdgeNGramTokenFilter |
Menghasilkan n-gram dari ukuran yang diberikan mulai dari depan atau belakang token input. Filter token ini diimplementasikan menggunakan Apache Lucene. |
EdgeNGramTokenizer |
Tokenisasi input dari tepi ke dalam n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
ElisionTokenFilter |
Menghapus elisi. Misalnya, "l'avion" (bidang) akan dikonversi menjadi "avion" (bidang). Filter token ini diimplementasikan menggunakan Apache Lucene. |
EntityLinkingSkill |
Menggunakan Text Analytics API, mengekstrak entitas tertaut dari teks. |
EntityRecognitionSkill |
Pengenalan entitas analitik teks. |
EntityRecognitionSkillV3 |
Menggunakan Text Analytics API, mengekstrak entitas dari berbagai jenis dari teks. |
ExhaustiveKnnParameters |
Berisi parameter khusus untuk algoritma KNN lengkap. |
ExtractiveQueryAnswer |
Mengekstrak kandidat jawaban dari konten dokumen yang dikembalikan sebagai respons terhadap kueri yang dinyatakan sebagai pertanyaan dalam bahasa alami. |
ExtractiveQueryCaption |
Mengekstrak keterangan dari dokumen yang cocok yang berisi bagian yang relevan dengan kueri pencarian. |
FacetResult |
Wadah tunggal hasil kueri faset. Melaporkan jumlah dokumen dengan nilai bidang yang termasuk dalam rentang tertentu atau memiliki nilai atau interval tertentu. |
FieldMapping |
Menentukan pemetaan antara bidang di sumber data dan bidang target dalam indeks. |
FieldMappingFunction |
Mewakili fungsi yang mengubah nilai dari sumber data sebelum mengindeks. |
FreshnessScoringFunction |
Menentukan fungsi yang meningkatkan skor berdasarkan nilai bidang tanggal-waktu. |
FreshnessScoringParameters |
Menyediakan nilai parameter ke fungsi penilaian kesegaran. |
GetDocumentOptions |
Opsi untuk mengambil satu dokumen. |
HighWaterMarkChangeDetectionPolicy |
Menentukan kebijakan deteksi perubahan data yang menangkap perubahan berdasarkan nilai kolom tanda air tinggi. |
HnswParameters |
Berisi parameter khusus untuk algoritma hnsw. |
ImageAnalysisSkill |
Keterampilan yang menganalisis file gambar. Ini mengekstrak serangkaian fitur visual yang kaya berdasarkan konten gambar. |
IndexDocumentsClient |
Indeks Dokumen Klien |
IndexDocumentsOptions |
Opsi untuk operasi ubah batch indeks. |
IndexDocumentsResult |
Respons yang berisi status operasi untuk semua dokumen dalam permintaan pengindeksan. |
IndexerExecutionResult |
Mewakili hasil eksekusi pengindeks individual. |
IndexingParameters |
Mewakili parameter untuk eksekusi pengindeks. |
IndexingParametersConfiguration |
Kamus properti konfigurasi khusus pengindeks. Setiap nama adalah nama properti tertentu. Setiap nilai harus berjenis primitif. |
IndexingResult |
Status operasi pengindeksan untuk satu dokumen. |
IndexingSchedule |
Mewakili jadwal untuk eksekusi pengindeks. |
InputFieldMappingEntry |
Pemetaan bidang input untuk keterampilan. |
KeepTokenFilter |
Filter token yang hanya menyimpan token dengan teks yang terkandung dalam daftar kata tertentu. Filter token ini diimplementasikan menggunakan Apache Lucene. |
KeyPhraseExtractionSkill |
Keterampilan yang menggunakan analitik teks untuk ekstraksi frasa kunci. |
KeywordMarkerTokenFilter |
Menandai istilah sebagai kata kunci. Filter token ini diimplementasikan menggunakan Apache Lucene. |
KeywordTokenizer |
Memancarkan seluruh input sebagai token tunggal. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
LanguageDetectionSkill |
Keterampilan yang mendeteksi bahasa teks input dan melaporkan satu kode bahasa untuk setiap dokumen yang dikirimkan pada permintaan. Kode bahasa dipasangkan dengan skor yang menunjukkan keyakinan analisis. |
LengthTokenFilter |
Menghapus kata-kata yang terlalu panjang atau terlalu pendek. Filter token ini diimplementasikan menggunakan Apache Lucene. |
LimitTokenFilter |
Membatasi jumlah token saat mengindeks. Filter token ini diimplementasikan menggunakan Apache Lucene. |
ListSearchResultsPageSettings |
Argumen untuk mengambil halaman hasil pencarian berikutnya. |
LuceneStandardAnalyzer |
Penganalisis Apache Lucene Standar; Terdiri dari tokenizer standar, filter huruf kecil, dan filter berhenti. |
LuceneStandardTokenizer |
Hentian teks mengikuti aturan Segmentasi Teks Unicode. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
MagnitudeScoringFunction |
Menentukan fungsi yang meningkatkan skor berdasarkan besarnya bidang numerik. |
MagnitudeScoringParameters |
Menyediakan nilai parameter ke fungsi penilaian besaran. |
MappingCharFilter |
Filter karakter yang menerapkan pemetaan yang ditentukan dengan opsi pemetaan. Pencocokan serakah (pencocokan pola terpanjang pada poin tertentu menang). Penggantian diperbolehkan menjadi string kosong. Filter karakter ini diimplementasikan menggunakan Apache Lucene. |
MergeSkill |
Keterampilan untuk menggabungkan dua string atau lebih ke dalam satu string terpadu, dengan pemisah opsional yang ditentukan pengguna yang memisahkan setiap bagian komponen. |
MicrosoftLanguageStemmingTokenizer |
Membagi teks menggunakan aturan khusus bahasa dan mengurangi kata-kata ke formulir dasarnya. |
MicrosoftLanguageTokenizer |
Membagi teks menggunakan aturan khusus bahasa. |
NGramTokenFilter |
Menghasilkan n-gram dari ukuran yang diberikan. Filter token ini diimplementasikan menggunakan Apache Lucene. |
NGramTokenizer |
Tokenisasi input ke dalam n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
OcrSkill |
Keterampilan yang mengekstrak teks dari file gambar. |
OutputFieldMappingEntry |
Pemetaan bidang output untuk keterampilan. |
PIIDetectionSkill |
Menggunakan Text Analytics API, mengekstrak informasi pribadi dari teks input dan memberi Anda opsi untuk menutupinya. |
PathHierarchyTokenizer |
Tokenizer untuk hierarki seperti jalur. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
PatternAnalyzer |
Secara fleksibel memisahkan teks menjadi istilah melalui pola ekspresi reguler. Penganalisis ini diimplementasikan menggunakan Apache Lucene. |
PatternCaptureTokenFilter |
Menggunakan regex Java untuk memancarkan beberapa token - satu untuk setiap grup pengambilan dalam satu atau beberapa pola. Filter token ini diimplementasikan menggunakan Apache Lucene. |
PatternReplaceCharFilter |
Filter karakter yang menggantikan karakter dalam string input. Ini menggunakan ekspresi reguler untuk mengidentifikasi urutan karakter untuk mempertahankan dan pola penggantian untuk mengidentifikasi karakter yang akan diganti. Misalnya, mengingat teks input "aa bb aa bb", pola "(aa)\s+(bb)", dan penggantian "$1#$2", hasilnya adalah "aa#bb aa#bb". Filter karakter ini diimplementasikan menggunakan Apache Lucene. |
PatternReplaceTokenFilter |
Filter karakter yang menggantikan karakter dalam string input. Ini menggunakan ekspresi reguler untuk mengidentifikasi urutan karakter untuk mempertahankan dan pola penggantian untuk mengidentifikasi karakter yang akan diganti. Misalnya, mengingat teks input "aa bb aa bb", pola "(aa)\s+(bb)", dan penggantian "$1#$2", hasilnya adalah "aa#bb aa#bb". Filter token ini diimplementasikan menggunakan Apache Lucene. |
PatternTokenizer |
Tokenizer yang menggunakan pencocokan pola regex untuk membangun token yang berbeda. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
PhoneticTokenFilter |
Buat token untuk kecocokan fonetik. Filter token ini diimplementasikan menggunakan Apache Lucene. |
QueryAnswerResult |
Jawabannya adalah bagian teks yang diekstrak dari konten dokumen yang paling relevan yang cocok dengan kueri. Jawaban diekstrak dari hasil pencarian teratas. Kandidat jawaban dinilai dan jawaban teratas dipilih. |
QueryCaptionResult |
Keterangan adalah bagian yang paling representatif dari dokumen relatif ke kueri pencarian. Mereka sering digunakan sebagai ringkasan dokumen. Keterangan hanya dikembalikan untuk kueri jenis |
ResourceCounter |
Mewakili penggunaan dan kuota sumber daya. |
ScalarQuantizationCompression |
Berisi opsi konfigurasi khusus untuk metode kompresi kuantisasi skalar yang digunakan selama pengindeksan dan kueri. |
ScalarQuantizationParameters |
Berisi parameter khusus untuk Kuantisasi Skalar. |
ScoringProfile |
Menentukan parameter untuk indeks pencarian yang memengaruhi penilaian dalam kueri pencarian. |
SearchClientOptions |
Opsi klien yang digunakan untuk mengonfigurasi permintaan Cognitive Search API. |
SearchDocumentsPageResult |
Respons yang berisi hasil halaman pencarian dari indeks. |
SearchDocumentsResult |
Respons yang berisi hasil pencarian dari indeks. |
SearchDocumentsResultBase |
Respons yang berisi hasil pencarian dari indeks. |
SearchIndex |
Mewakili definisi indeks pencarian, yang menjelaskan bidang dan perilaku pencarian indeks. |
SearchIndexClientOptions |
Opsi klien yang digunakan untuk mengonfigurasi permintaan Cognitive Search API. |
SearchIndexStatistics |
Statistik untuk indeks tertentu. Statistik dikumpulkan secara berkala dan tidak dijamin selalu up-to-date. |
SearchIndexer |
Mewakili pengindeks. |
SearchIndexerClientOptions |
Opsi klien yang digunakan untuk mengonfigurasi permintaan Cognitive Search API. |
SearchIndexerDataContainer |
Mewakili informasi tentang entitas (seperti tabel Azure SQL atau koleksi CosmosDB) yang akan diindeks. |
SearchIndexerDataNoneIdentity |
Menghapus properti identitas sumber data. |
SearchIndexerDataSourceConnection |
Mewakili definisi sumber data, yang dapat digunakan untuk mengonfigurasi pengindeks. |
SearchIndexerDataUserAssignedIdentity |
Menentukan identitas untuk sumber data yang akan digunakan. |
SearchIndexerError |
Mewakili kesalahan pengindeksan tingkat item atau dokumen. |
SearchIndexerIndexProjection |
Definisi proyeksi tambahan ke indeks pencarian sekunder. |
SearchIndexerIndexProjectionParameters |
Kamus properti konfigurasi khusus proyeksi indeks. Setiap nama adalah nama properti tertentu. Setiap nilai harus berjenis primitif. |
SearchIndexerIndexProjectionSelector |
Deskripsi untuk data apa yang akan disimpan dalam indeks pencarian yang ditunjuk. |
SearchIndexerKnowledgeStore |
Definisi proyeksi tambahan ke blob azure, tabel, atau file, dari data yang diperkaya. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Kelas abstrak untuk berbagi properti antara pemilih konkret. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definisi proyeksi untuk data apa yang akan disimpan di Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definisi proyeksi untuk data apa yang akan disimpan di Azure Blob. |
SearchIndexerKnowledgeStoreParameters |
Kamus properti konfigurasi khusus penyimpanan pengetahuan. Setiap nama adalah nama properti tertentu. Setiap nilai harus berjenis primitif. |
SearchIndexerKnowledgeStoreProjection |
Objek kontainer untuk berbagai pemilih proyeksi. |
SearchIndexerKnowledgeStoreProjectionSelector |
Kelas abstrak untuk berbagi properti antara pemilih konkret. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Deskripsi untuk data apa yang akan disimpan di Azure Tables. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Daftar keterampilan. |
SearchIndexerStatus |
Mewakili status saat ini dan riwayat eksekusi pengindeks. |
SearchIndexerWarning |
Mewakili peringatan tingkat item. |
SearchIndexingBufferedSenderOptions |
Opsi untuk SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Kunci enkripsi yang dikelola pelanggan di Azure Key Vault. Kunci yang Anda buat dan kelola dapat digunakan untuk mengenkripsi atau mendekripsi data tidak aktif di Azure Cognitive Search, seperti indeks dan peta sinonim. |
SearchServiceStatistics |
Respons dari permintaan dapatkan statistik layanan. Jika berhasil, itu termasuk penghitung dan batas tingkat layanan. |
SearchSuggester |
Menentukan bagaimana SUGGEST API harus berlaku untuk sekelompok bidang dalam indeks. |
SemanticConfiguration |
Menentukan konfigurasi tertentu yang akan digunakan dalam konteks kemampuan semantik. |
SemanticField |
Bidang yang digunakan sebagai bagian dari konfigurasi semantik. |
SemanticPrioritizedFields |
Menjelaskan bidang judul, konten, dan kata kunci yang akan digunakan untuk peringkat, keterangan, sorotan, dan jawaban semantik. |
SemanticSearch |
Menentukan parameter untuk indeks pencarian yang memengaruhi kemampuan semantik. |
SemanticSearchOptions |
Menentukan opsi untuk kueri pencarian semantik |
SentimentSkill |
Analisis sentimen positif-negatif analitik teks, dinilai sebagai nilai titik mengambang dalam rentang nol hingga 1. |
SentimentSkillV3 |
Menggunakan Text Analytics API, mengevaluasi teks yang tidak terstruktur dan untuk setiap rekaman, menyediakan label sentimen (seperti "negatif", "netral" dan "positif") berdasarkan skor keyakinan tertinggi yang ditemukan oleh layanan pada tingkat kalimat dan dokumen. |
ServiceCounters |
Mewakili penghitung dan kuota sumber daya tingkat layanan. |
ServiceLimits |
Mewakili berbagai batas tingkat layanan. |
ShaperSkill |
Keterampilan untuk membentuk kembali output. Ini membuat jenis kompleks untuk mendukung bidang komposit (juga dikenal sebagai bidang multibagian). |
ShingleTokenFilter |
Membuat kombinasi token sebagai token tunggal. Filter token ini diimplementasikan menggunakan Apache Lucene. |
Similarity |
Jenis dasar untuk algoritma kesamaan. Algoritma kesamaan digunakan untuk menghitung skor yang mengikat kueri ke dokumen. Semakin tinggi skor, semakin relevan dokumen dengan kueri tertentu tersebut. Skor tersebut digunakan untuk memberi peringkat hasil pencarian. |
SimpleField |
Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang. |
SnowballTokenFilter |
Filter yang membendung kata-kata menggunakan stemmer yang dihasilkan Snowball. Filter token ini diimplementasikan menggunakan Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Menentukan kebijakan deteksi penghapusan data yang menerapkan strategi penghapusan sementara. Ini menentukan apakah item harus dihapus berdasarkan nilai kolom 'penghapusan sementara' yang ditunjuk. |
SplitSkill |
Keterampilan untuk membagi string menjadi potongan teks. |
SqlIntegratedChangeTrackingPolicy |
Menentukan kebijakan deteksi perubahan data yang menangkap perubahan menggunakan fitur Pelacakan Perubahan Terintegrasi dari Azure SQL Database. |
StemmerOverrideTokenFilter |
Menyediakan kemampuan untuk mengambil alih filter stemming lain dengan stemming berbasis kamus kustom. Istilah apa pun yang bertangkai kamus akan ditandai sebagai kata kunci sehingga tidak akan dibendung dengan stemmer di bawah rantai. Harus ditempatkan sebelum filter stemming. Filter token ini diimplementasikan menggunakan Apache Lucene. |
StemmerTokenFilter |
Filter stemming khusus bahasa. Filter token ini diimplementasikan menggunakan Apache Lucene. |
StopAnalyzer |
Membagi teks pada non-huruf; Menerapkan filter token huruf kecil dan stopword. Penganalisis ini diimplementasikan menggunakan Apache Lucene. |
StopwordsTokenFilter |
Menghapus kata berhenti dari aliran token. Filter token ini diimplementasikan menggunakan Apache Lucene. |
SuggestDocumentsResult |
Respons yang berisi hasil kueri saran dari indeks. |
SuggestRequest |
Parameter untuk pemfilteran, pengurutan, pencocokan fuzzy, dan perilaku kueri saran lainnya. |
SynonymMap |
Mewakili definisi peta sinonim. |
SynonymTokenFilter |
Cocok dengan sinonim tunggal atau multi-kata dalam aliran token. Filter token ini diimplementasikan menggunakan Apache Lucene. |
TagScoringFunction |
Menentukan fungsi yang meningkatkan skor dokumen dengan nilai string yang cocok dengan daftar tag tertentu. |
TagScoringParameters |
Menyediakan nilai parameter ke fungsi penilaian tag. |
TextTranslationSkill |
Keterampilan untuk menerjemahkan teks dari satu bahasa ke bahasa lain. |
TextWeights |
Menentukan bobot pada bidang indeks yang kecocokannya harus meningkatkan penilaian dalam kueri pencarian. |
TruncateTokenFilter |
Memotong istilah ke panjang tertentu. Filter token ini diimplementasikan menggunakan Apache Lucene. |
UaxUrlEmailTokenizer |
Tokenisasi url dan email sebagai satu token. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
UniqueTokenFilter |
Memfilter token dengan teks yang sama dengan token sebelumnya. Filter token ini diimplementasikan menggunakan Apache Lucene. |
VectorSearch |
Berisi opsi konfigurasi yang terkait dengan pencarian vektor. |
VectorSearchOptions |
Menentukan opsi untuk kueri pencarian vektor |
VectorSearchProfile |
Menentukan kombinasi konfigurasi yang akan digunakan dengan pencarian vektor. |
VectorizableTextQuery |
Parameter kueri yang digunakan untuk pencarian vektor saat nilai teks yang perlu di-vektorisasi disediakan. |
VectorizedQuery |
Parameter kueri yang digunakan untuk pencarian vektor saat nilai vektor mentah disediakan. |
WebApiParameters |
Menentukan properti untuk menyambungkan ke vektorizer yang ditentukan pengguna. |
WebApiSkill |
Keterampilan yang dapat memanggil titik akhir API Web, memungkinkan Anda memperluas set keterampilan dengan memanggil kode kustom Anda. |
WebApiVectorizer |
Menentukan vektorizer yang ditentukan pengguna untuk menghasilkan penyematan vektor string kueri. Integrasi vektorizer eksternal dicapai menggunakan antarmuka API Web kustom dari set keterampilan. |
WordDelimiterTokenFilter |
Membagi kata menjadi subkata dan melakukan transformasi opsional pada grup subkata. Filter token ini diimplementasikan menggunakan Apache Lucene. |
Alias Jenis
AnalyzeTextOptions |
Opsi untuk menganalisis operasi teks. |
AutocompleteMode |
Menentukan nilai untuk AutocompleteMode. |
AutocompleteOptions |
Opsi untuk mengambil teks penyelesaian untuk searchText parsial. |
AzureOpenAIModelName |
Menentukan nilai untuk AzureOpenAIModelName. Nilai yang diketahui didukung oleh layanan
penyematan teks-ada-002 |
BlobIndexerDataToExtract | |
BlobIndexerImageAction | |
BlobIndexerPDFTextRotationAlgorithm | |
BlobIndexerParsingMode | |
CharFilter |
Berisi kemungkinan kasus untuk CharFilter. |
CharFilterName |
Menentukan nilai untuk CharFilterName. Nilai yang diketahui didukung oleh layananhtml_strip: Filter karakter yang mencoba menghapus konstruksi HTML. Lihat https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Menentukan nilai untuk CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Berisi kemungkinan kasus untuk CognitiveServicesAccount. |
ComplexDataType |
Menentukan nilai untuk ComplexDataType. Nilai yang mungkin termasuk: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Opsi untuk melakukan operasi penghitungan pada indeks. |
CreateDataSourceConnectionOptions |
Opsi untuk membuat operasi sumber data. |
CreateIndexOptions |
Opsi untuk membuat operasi indeks. |
CreateIndexerOptions |
Opsi untuk membuat operasi pengindeks. |
CreateSkillsetOptions |
Opsi untuk membuat operasi skillset. |
CreateSynonymMapOptions |
Opsi untuk membuat operasi sinonim. |
CustomEntityLookupSkillLanguage | |
DataChangeDetectionPolicy |
Berisi kemungkinan kasus untuk DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Berisi kemungkinan kasus untuk DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Opsi untuk operasi hapus dokumen. |
EdgeNGramTokenFilterSide |
Menentukan nilai untuk EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage | |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Berisi opsi konfigurasi khusus untuk algoritma KNN lengkap yang digunakan selama kueri, yang akan melakukan pencarian brute-force di seluruh indeks vektor. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Opsi untuk mendapatkan operasi sumber data. |
GetIndexOptions |
Opsi untuk mendapatkan operasi indeks. |
GetIndexStatisticsOptions |
Opsi untuk mendapatkan operasi statistik indeks. |
GetIndexerOptions |
Opsi untuk mendapatkan operasi pengindeks. |
GetIndexerStatusOptions |
Opsi untuk mendapatkan operasi status pengindeks. |
GetServiceStatisticsOptions |
Opsi untuk mendapatkan operasi statistik layanan. |
GetSkillSetOptions |
Opsi untuk mendapatkan operasi skillset. |
GetSynonymMapsOptions |
Opsi untuk mendapatkan operasi sinonim. |
HnswAlgorithmConfiguration |
Berisi opsi konfigurasi khusus untuk perkiraan algoritma tetangga terdekat hnsw yang digunakan selama waktu pengindeksan. |
ImageAnalysisSkillLanguage | |
ImageDetail | |
IndexActionType |
Menentukan nilai untuk IndexActionType. |
IndexDocumentsAction |
Mewakili tindakan indeks yang beroperasi pada dokumen. |
IndexIterator |
Iterator untuk mencantumkan indeks yang ada di layanan Pencarian. Akan membuat permintaan sesuai kebutuhan selama iterasi. Gunakan .byPage() untuk membuat satu permintaan ke server per iterasi. |
IndexNameIterator |
Iterator untuk mencantumkan indeks yang ada di layanan Pencarian. Akan membuat permintaan sesuai kebutuhan selama iterasi. Gunakan .byPage() untuk membuat satu permintaan ke server per iterasi. |
IndexProjectionMode |
Menentukan nilai untuk IndexProjectionMode. Nilai yang diketahui didukung oleh layanan
skipIndexingParentDocuments: Dokumen sumber akan dilewati dari penulisan ke indeks target pengindeks. |
IndexerExecutionEnvironment | |
IndexerExecutionStatus |
Menentukan nilai untuk IndexerExecutionStatus. |
IndexerStatus |
Menentukan nilai untuk IndexerStatus. |
KeyPhraseExtractionSkillLanguage | |
LexicalAnalyzer |
Berisi kemungkinan kasus untuk Analyzer. |
LexicalAnalyzerName |
Menentukan nilai untuk LexicalAnalyzerName. Nilai yang diketahui didukung oleh layanan
ar.microsoft: Penganalisis Microsoft untuk Bahasa Arab. |
LexicalTokenizer |
Berisi kemungkinan kasus untuk Tokenizer. |
LexicalTokenizerName |
Menentukan nilai untuk LexicalTokenizerName. Nilai yang diketahui didukung oleh layanan
klasik : Tokenizer berbasis tata bahasa yang cocok untuk memproses sebagian besar dokumen berbahasa Eropa. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Opsi untuk operasi sumber data daftar. |
ListIndexersOptions |
Opsi untuk operasi pengindeks daftar. |
ListIndexesOptions |
Opsi untuk operasi indeks daftar. |
ListSkillsetsOptions |
Opsi untuk operasi set keterampilan daftar. |
ListSynonymMapsOptions |
Opsi untuk operasi daftar synonymMaps. |
MergeDocumentsOptions |
Opsi untuk operasi gabungkan dokumen. |
MergeOrUploadDocumentsOptions |
Opsi untuk operasi gabungkan atau unggah dokumen. |
MicrosoftStemmingTokenizerLanguage |
Menentukan nilai untuk MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Menentukan nilai untuk MicrosoftTokenizerLanguage. |
NarrowedModel |
Mempersempit jenis Model untuk hanya menyertakan Bidang yang dipilih |
OcrLineEnding |
Menentukan nilai untuk OcrLineEnding. Nilai yang diketahui didukung oleh layanan
spasi: Garis dipisahkan oleh satu karakter spasi. |
OcrSkillLanguage | |
PIIDetectionSkillMaskingMode | |
PhoneticEncoder |
Menentukan nilai untuk PhoneticEncoder. |
QueryAnswer |
Nilai yang menentukan apakah jawaban harus dikembalikan sebagai bagian dari respons pencarian.
Parameter ini hanya valid jika jenis kueri adalah 'semantik'. Jika diatur ke |
QueryCaption |
Nilai yang menentukan apakah keterangan harus dikembalikan sebagai bagian dari respons pencarian. Parameter ini hanya valid jika jenis kueri adalah 'semantik'. Jika diatur, kueri mengembalikan keterangan yang diekstrak dari bagian kunci dalam dokumen berperingkat tertinggi. Saat Keterangan adalah 'ekstraktif', penyorotan diaktifkan secara default. Default ke 'tidak ada'. |
QueryType |
Menentukan nilai untuk QueryType. |
RegexFlags | |
ResetIndexerOptions |
Opsi untuk mengatur ulang operasi pengindeks. |
RunIndexerOptions |
Opsi untuk menjalankan operasi pengindeks. |
ScoringFunction |
Berisi kemungkinan kasus untuk ScoringFunction. |
ScoringFunctionAggregation |
Menentukan nilai untuk ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Menentukan nilai untuk ScoringFunctionInterpolation. |
ScoringStatistics |
Menentukan nilai untuk ScoringStatistics. |
SearchField |
Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang. |
SearchFieldArray |
Jika |
SearchFieldDataType |
Menentukan nilai untuk SearchFieldDataType. Nilai yang diketahui didukung oleh layanan:Edm.String: Menunjukkan bahwa bidang berisi string. Edm.Int32: Menunjukkan bahwa bidang berisi bilangan bulat bertanda tangan 32-bit. Edm.Int64: Menunjukkan bahwa bidang berisi bilangan bulat bertanda tangan 64-bit. Edm.Double: Menunjukkan bahwa bidang berisi nomor titik mengambang presisi ganda IEEE. Edm.Boolean: Menunjukkan bahwa bidang berisi nilai Boolean (benar atau salah). Edm.DateTimeOffset: Menunjukkan bahwa bidang berisi nilai tanggal/waktu, termasuk informasi zona waktu. Edm.GeographyPoint: Menunjukkan bahwa bidang berisi lokasi geografis dalam hal garis bujur dan lintang. Edm.ComplexType: Menunjukkan bahwa bidang berisi satu atau beberapa objek kompleks yang pada gilirannya memiliki sub-bidang dari jenis lain. Edm.Single: Menunjukkan bahwa bidang berisi angka titik mengambang presisi tunggal. Ini hanya valid ketika digunakan sebagai bagian dari jenis koleksi, yaitu Collection(Edm.Single). Edm.Half: Menunjukkan bahwa bidang berisi angka titik mengambang setengah presisi. Ini hanya valid ketika digunakan sebagai bagian dari jenis koleksi, yaitu Collection(Edm.Half). Edm.Int16: Menunjukkan bahwa bidang berisi bilangan bulat bertanda 16-bit. Ini hanya valid ketika digunakan sebagai bagian dari jenis koleksi, yaitu Collection(Edm.Int16). Edm.SByte: Menunjukkan bahwa bidang berisi bilangan bulat bertanda tangan 8-bit. Ini hanya valid ketika digunakan sebagai bagian dari jenis koleksi, yaitu Collection(Edm.SByte). Edm.Byte: Menunjukkan bahwa bidang berisi bilangan bulat yang tidak ditandatangani 8-bit. Ini hanya valid ketika digunakan sebagai bagian dari jenis koleksi, yaitu Collection(Edm.Byte). |
SearchIndexerDataIdentity |
Berisi kemungkinan kasus untuk SearchIndexerDataIdentity. |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Berisi kemungkinan kasus untuk Keterampilan. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opsi untuk SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Opsi untuk SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Opsi untuk SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opsi untuk SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Opsi untuk SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Iterator untuk hasil pencarian kueri paticular. Akan membuat permintaan sesuai kebutuhan selama iterasi. Gunakan .byPage() untuk membuat satu permintaan ke server per iterasi. |
SearchMode |
Menentukan nilai untuk SearchMode. |
SearchOptions |
Opsi untuk menerapkan permintaan pencarian lengkap. |
SearchPick |
Pilih bidang T dengan mendalam menggunakan jalur $select OData Cognitive Search yang valid. |
SearchRequestOptions |
Parameter untuk pemfilteran, pengurutan, faset, penomoran halaman, dan perilaku kueri pencarian lainnya. |
SearchRequestQueryTypeOptions | |
SearchResult |
Berisi dokumen yang ditemukan oleh kueri pencarian, ditambah metadata terkait. |
SelectArray |
Jika |
SelectFields |
Menghasilkan penyatuan jalur $select OData Cognitive Search yang valid untuk T menggunakan traversal pasca-urutan pohon bidang yang berakar pada T. |
SemanticErrorMode | |
SemanticErrorReason | |
SemanticSearchResultsType | |
SentimentSkillLanguage | |
SimilarityAlgorithm |
Berisi kemungkinan kasus untuk Kesamaan. |
SnowballTokenFilterLanguage |
Menentukan nilai untuk SnowballTokenFilterLanguage. |
SplitSkillLanguage | |
StemmerTokenFilterLanguage |
Menentukan nilai untuk StemmerTokenFilterLanguage. |
StopwordsList |
Menentukan nilai untuk StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Opsi untuk mengambil saran berdasarkan searchText. |
SuggestResult |
Hasil yang berisi dokumen yang ditemukan oleh kueri saran, ditambah metadata terkait. |
TextSplitMode | |
TextTranslationSkillLanguage | |
TokenCharacterKind |
Menentukan nilai untuk TokenCharacterKind. |
TokenFilter |
Berisi kemungkinan kasus untuk TokenFilter. |
TokenFilterName |
Menentukan nilai untuk TokenFilterName. Nilai yang diketahui didukung oleh layanan
arabic_normalization: Filter token yang menerapkan normalizer Arab untuk menormalkan ortografi. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Opsi untuk operasi unggah dokumen. |
VectorEncodingFormat |
Menentukan nilai untuk VectorEncodingFormat. Nilai yang diketahui didukung oleh layananpackedBit: Format pengodean yang mewakili bit yang dikemas ke dalam jenis data yang lebih luas. |
VectorFilterMode | |
VectorQuery |
Parameter kueri untuk kueri pencarian vektor dan hibrid. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Berisi opsi konfigurasi khusus untuk algoritma yang digunakan selama pengindeksan dan/atau kueri. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric | |
VectorSearchCompression |
Berisi opsi konfigurasi khusus untuk metode pemadatan yang digunakan selama pengindeksan atau kueri. |
VectorSearchCompressionKind |
Menentukan nilai untuk VectorSearchCompressionKind. Nilai yang diketahui didukung oleh layanan
skalarQuantization: Kuantisasi Skalar, jenis metode kompresi. Dalam kuantisasi skalar, nilai vektor asli dikompresi ke jenis yang lebih sempit dengan membedakan dan mewakili setiap komponen vektor menggunakan sekumpulan nilai terkuantisasi yang dikurangi, sehingga mengurangi ukuran data keseluruhan. |
VectorSearchCompressionTarget |
Menentukan nilai untuk VectorSearchCompressionTarget. Nilai yang diketahui didukung oleh layanan |
VectorSearchVectorizer |
Berisi opsi konfigurasi tentang cara mem-vektorisasi kueri vektor teks. |
VectorSearchVectorizerKind |
Menentukan nilai untuk VectorSearchVectorizerKind. Nilai yang diketahui didukung oleh layanan
azureOpenAI: Hasilkan penyematan menggunakan sumber daya Azure OpenAI pada waktu kueri. |
VisualFeature |
Enum
Fungsi
create |
Metode pembantu untuk membuat objek SynonymMap. Ini adalah metode khusus NodeJS. |
odata(Template |
Lolos dari ekspresi filter odata untuk menghindari kesalahan dengan mengutip literal string. Contoh penggunaan:
Untuk informasi selengkapnya tentang sintaks yang didukung, lihat: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Detail Fungsi
createSynonymMapFromFile(string, string)
Metode pembantu untuk membuat objek SynonymMap. Ini adalah metode khusus NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parameter
- name
-
string
Nama SynonymMap.
- filePath
-
string
Jalur file yang berisi Sinonim (dipisahkan oleh baris baru)
Mengembalikan
Promise<SynonymMap>
Objek SynonymMap
odata(TemplateStringsArray, unknown[])
Lolos dari ekspresi filter odata untuk menghindari kesalahan dengan mengutip literal string. Contoh penggunaan:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Untuk informasi selengkapnya tentang sintaks yang didukung, lihat: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parameter
- strings
-
TemplateStringsArray
Array string untuk ekspresi
- values
-
unknown[]
Array nilai untuk ekspresi
Mengembalikan
string