@azure/search-documents package
Kelas
AzureKeyCredential |
Kredensial berbasis kunci statis yang mendukung pembaruan nilai kunci yang mendasar. |
GeographyPoint |
Mewakili titik geografis dalam koordinat global. |
IndexDocumentsBatch |
Kelas yang digunakan untuk melakukan operasi batch dengan beberapa dokumen ke indeks. |
SearchClient |
Kelas yang digunakan untuk melakukan operasi terhadap indeks pencarian, termasuk mengkueri dokumen dalam indeks serta menambahkan, memperbarui, dan menghapusnya. |
SearchIndexClient |
Kelas untuk melakukan operasi untuk mengelola (membuat, memperbarui, mencantumkan/menghapus) indeks, & sinonim. |
SearchIndexerClient |
Kelas untuk melakukan operasi untuk mengelola (membuat, memperbarui, mencantumkan/menghapus) pengindeks, sumber data & keterampilan. |
SearchIndexingBufferedSender |
Kelas yang digunakan untuk melakukan operasi buffer terhadap indeks pencarian, termasuk menambahkan, memperbarui, dan menghapusnya. |
Antarmuka
AnalyzeRequest |
Menentukan beberapa komponen teks dan analisis yang digunakan untuk memecah teks tersebut menjadi token. |
AnalyzeResult |
Hasil pengujian penganalisis pada teks. |
AnalyzedTokenInfo |
Informasi tentang token yang dikembalikan oleh penganalisis. |
AsciiFoldingTokenFilter |
Mengonversi karakter Unicode alfabet, numerik, dan simbolis yang tidak berada dalam 127 karakter ASCII pertama (blok Unicode "Latin Dasar") ke dalam setara ASCII mereka, jika setara tersebut ada. Filter token ini diimplementasikan menggunakan Apache Lucene. |
AutocompleteItem |
Hasil dari permintaan Pelengkapan otomatis. |
AutocompleteRequest |
Parameter untuk pencocokan fuzzy, dan perilaku kueri lengkapi otomatis lainnya. |
AutocompleteResult |
Hasil kueri Lengkapi Otomatis. |
AzureActiveDirectoryApplicationCredentials |
Kredensial aplikasi terdaftar yang dibuat untuk layanan pencarian Anda, digunakan untuk akses terautentikasi ke kunci enkripsi yang disimpan di Azure Key Vault. |
BM25Similarity |
Fungsi peringkat berdasarkan algoritma kesamaan Okapi BM25. BM25 adalah algoritma seperti TF-IDF yang mencakup normalisasi panjang (dikontrol oleh parameter 'b') serta saturasi frekuensi istilah (dikontrol oleh parameter 'k1'). |
BaseCharFilter |
Jenis dasar untuk filter karakter. |
BaseCognitiveServicesAccount |
Jenis dasar untuk menjelaskan sumber daya layanan Azure AI apa pun yang melekat pada set keterampilan. |
BaseDataChangeDetectionPolicy |
Jenis dasar untuk kebijakan deteksi perubahan data. |
BaseDataDeletionDetectionPolicy |
Jenis dasar untuk kebijakan deteksi penghapusan data. |
BaseLexicalAnalyzer |
Jenis dasar untuk penganalisis. |
BaseLexicalTokenizer |
Jenis dasar untuk tokenizer. |
BaseScoringFunction |
Jenis dasar untuk fungsi yang dapat mengubah skor dokumen selama peringkat. |
BaseSearchIndexerSkill |
Jenis dasar untuk keterampilan. |
BaseSearchRequestOptions |
Parameter untuk pemfilteran, pengurutan, faset, penomoran halaman, dan perilaku kueri pencarian lainnya. |
BaseTokenFilter |
Jenis dasar untuk filter token. |
BaseVectorQuery |
Parameter kueri untuk kueri pencarian vektor dan hibrid. |
BaseVectorSearchAlgorithmConfiguration |
Berisi opsi konfigurasi khusus untuk algoritma yang digunakan selama pengindeksan dan/atau kueri. |
CjkBigramTokenFilter |
Membentuk bigram istilah CJK yang dihasilkan dari tokenizer standar. Filter token ini diimplementasikan menggunakan Apache Lucene. |
ClassicSimilarity |
Algoritma kesamaan warisan yang menggunakan implementasi Lucene TFIDFSimilarity dari TF-IDF. Variasi TF-IDF ini memperkenalkan normalisasi panjang dokumen statis serta faktor koordinasi yang menghukuskan dokumen yang hanya sebagian cocok dengan kueri yang dicari. |
ClassicTokenizer |
Tokenizer berbasis tata bahasa yang cocok untuk memproses sebagian besar dokumen berbahasa Eropa. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
CognitiveServicesAccountKey |
Sumber daya layanan Azure AI yang disediakan dengan kunci yang dilampirkan ke set keterampilan. |
CommonGramTokenFilter |
Membuat bigram untuk istilah yang sering muncul saat mengindeks. Istilah tunggal juga masih diindeks, dengan bigram berlapis. Filter token ini diimplementasikan menggunakan Apache Lucene. |
ComplexField |
Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang. |
ConditionalSkill |
Keterampilan yang memungkinkan skenario yang memerlukan operasi Boolean untuk menentukan data yang akan ditetapkan ke output. |
CorsOptions |
Menentukan opsi untuk mengontrol Berbagi Sumber Daya Lintas Asal (CORS) untuk indeks. |
CreateOrUpdateIndexOptions |
Opsi untuk operasi buat/perbarui indeks. |
CreateOrUpdateSkillsetOptions |
Opsi untuk membuat/memperbarui operasi skillset. |
CreateOrUpdateSynonymMapOptions |
Opsi untuk operasi buat/perbarui synonymmap. |
CreateorUpdateDataSourceConnectionOptions |
Opsi untuk membuat/memperbarui operasi sumber data. |
CreateorUpdateIndexerOptions |
Opsi untuk operasi pengindeks buat/perbarui. |
CustomAnalyzer |
Memungkinkan Anda untuk mengambil kendali atas proses konversi teks menjadi token yang dapat diindeks/dicari. Ini adalah konfigurasi yang ditentukan pengguna yang terdiri dari satu tokenizer yang telah ditentukan dan satu atau beberapa filter. Tokenizer bertanggung jawab untuk memecah teks menjadi token, dan filter untuk memodifikasi token yang dipancarkan oleh tokenizer. |
CustomEntity |
Objek yang berisi informasi tentang kecocokan yang ditemukan, dan metadata terkait. |
CustomEntityAlias |
Objek kompleks yang dapat digunakan untuk menentukan ejaan atau sinonim alternatif ke nama entitas akar. |
CustomEntityLookupSkill |
Keterampilan mencari teks dari daftar kata dan frasa kustom yang ditentukan pengguna. |
DefaultCognitiveServicesAccount |
Objek kosong yang mewakili sumber daya layanan Azure AI default untuk set keterampilan. |
DeleteDataSourceConnectionOptions |
Opsi untuk menghapus operasi sumber data. |
DeleteIndexOptions |
Opsi untuk menghapus operasi indeks. |
DeleteIndexerOptions |
Opsi untuk menghapus operasi pengindeks. |
DeleteSkillsetOptions |
Opsi untuk menghapus operasi skillset. |
DeleteSynonymMapOptions |
Opsi untuk menghapus operasi sinonim. |
DictionaryDecompounderTokenFilter |
Menguraikan kata majemuk yang ditemukan dalam banyak bahasa Jermanik. Filter token ini diimplementasikan menggunakan Apache Lucene. |
DistanceScoringFunction |
Menentukan fungsi yang meningkatkan skor berdasarkan jarak dari lokasi geografis. |
DistanceScoringParameters |
Menyediakan nilai parameter ke fungsi penilaian jarak. |
DocumentExtractionSkill |
Keterampilan yang mengekstrak konten dari file dalam alur pengayaan. |
EdgeNGramTokenFilter |
Menghasilkan n-gram dari ukuran yang diberikan mulai dari depan atau belakang token input. Filter token ini diimplementasikan menggunakan Apache Lucene. |
EdgeNGramTokenizer |
Tokenisasi input dari tepi ke dalam n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
ElisionTokenFilter |
Menghilangkan elision. Misalnya, "l'avion" (bidang) akan dikonversi menjadi "avion" (bidang). Filter token ini diimplementasikan menggunakan Apache Lucene. |
EntityLinkingSkill |
Menggunakan Text Analytics API, mengekstrak entitas tertaut dari teks. |
EntityRecognitionSkill |
Pengenalan entitas analitik teks. |
EntityRecognitionSkillV3 |
Menggunakan Text Analytics API, mengekstrak entitas dari berbagai jenis dari teks. |
ExhaustiveKnnParameters |
Berisi parameter khusus untuk algoritma KNN lengkap. |
ExtractiveQueryAnswer |
Mengekstrak kandidat jawaban dari konten dokumen yang dikembalikan sebagai respons terhadap kueri yang dinyatakan sebagai pertanyaan dalam bahasa alami. |
ExtractiveQueryCaption |
Mengekstrak keterangan dari dokumen yang cocok yang berisi bagian yang relevan dengan kueri pencarian. |
FacetResult |
Wadah tunggal hasil kueri faset. Melaporkan jumlah dokumen dengan nilai bidang yang berada dalam rentang tertentu atau memiliki nilai atau interval tertentu. |
FieldMapping |
Menentukan pemetaan antara bidang dalam sumber data dan bidang target dalam indeks. |
FieldMappingFunction |
Mewakili fungsi yang mengubah nilai dari sumber data sebelum mengindeks. |
FreshnessScoringFunction |
Menentukan fungsi yang meningkatkan skor berdasarkan nilai bidang tanggal-waktu. |
FreshnessScoringParameters |
Menyediakan nilai parameter untuk fungsi penilaian kesegaran. |
GetDocumentOptions |
Opsi untuk mengambil satu dokumen. |
HighWaterMarkChangeDetectionPolicy |
Menentukan kebijakan deteksi perubahan data yang menangkap perubahan berdasarkan nilai kolom tanda air tinggi. |
HnswParameters |
Berisi parameter khusus untuk algoritma hnsw. |
ImageAnalysisSkill |
Keterampilan yang menganalisis file gambar. Ini mengekstrak serangkaian fitur visual yang kaya berdasarkan konten gambar. |
IndexDocumentsClient |
Klien Dokumen Indeks |
IndexDocumentsOptions |
Opsi untuk operasi ubah batch indeks. |
IndexDocumentsResult |
Respons yang berisi status operasi untuk semua dokumen dalam permintaan pengindeksan. |
IndexerExecutionResult |
Mewakili hasil eksekusi pengindeks individu. |
IndexingParameters |
Mewakili parameter untuk eksekusi pengindeks. |
IndexingParametersConfiguration |
Kamus properti konfigurasi khusus pengindeks. Setiap nama adalah nama properti tertentu. Setiap nilai harus berjenis primitif. |
IndexingResult |
Status operasi pengindeksan untuk satu dokumen. |
IndexingSchedule |
Mewakili jadwal untuk eksekusi pengindeks. |
InputFieldMappingEntry |
Pemetaan bidang input untuk keterampilan. |
KeepTokenFilter |
Filter token yang hanya menyimpan token dengan teks yang terkandung dalam daftar kata tertentu. Filter token ini diimplementasikan menggunakan Apache Lucene. |
KeyPhraseExtractionSkill |
Keterampilan yang menggunakan analitik teks untuk ekstraksi frasa kunci. |
KeywordMarkerTokenFilter |
Menandai istilah sebagai kata kunci. Filter token ini diimplementasikan menggunakan Apache Lucene. |
KeywordTokenizer |
Mengirimkan seluruh input sebagai token tunggal. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
LanguageDetectionSkill |
Keterampilan yang mendeteksi bahasa teks input dan melaporkan satu kode bahasa untuk setiap dokumen yang dikirimkan pada permintaan. Kode bahasa dipasangkan dengan skor yang menunjukkan keyakinan analisis. |
LengthTokenFilter |
Menghapus kata-kata yang terlalu panjang atau terlalu pendek. Filter token ini diimplementasikan menggunakan Apache Lucene. |
LimitTokenFilter |
Membatasi jumlah token saat mengindeks. Filter token ini diimplementasikan menggunakan Apache Lucene. |
ListSearchResultsPageSettings |
Argumen untuk mengambil halaman hasil pencarian berikutnya. |
LuceneStandardAnalyzer |
Penganalisis Apache Lucene standar; Terdiri dari tokenizer standar, filter huruf kecil, dan filter berhenti. |
LuceneStandardTokenizer |
Memecah teks mengikuti aturan Segmentasi Teks Unicode. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
MagnitudeScoringFunction |
Mendefinisikan fungsi yang meningkatkan skor berdasarkan besarnya bidang numerik. |
MagnitudeScoringParameters |
Menyediakan nilai parameter ke fungsi penilaian besaran. |
MappingCharFilter |
Filter karakter yang menerapkan pemetaan yang ditentukan dengan opsi pemetaan. Pencocokan bersifat rakus (pola terpanjang yang cocok di titik tertentu menang). Penggantian diperbolehkan menjadi string kosong. Filter karakter ini diimplementasikan menggunakan Apache Lucene. |
MergeSkill |
Keterampilan untuk menggabungkan dua string atau lebih ke dalam satu string terpadu, dengan pemisah opsional yang ditentukan pengguna yang memisahkan setiap bagian komponen. |
MicrosoftLanguageStemmingTokenizer |
Membagi teks menggunakan aturan khusus bahasa dan mengurangi kata-kata ke formulir dasarnya. |
MicrosoftLanguageTokenizer |
Membagi teks menggunakan aturan spesifik bahasa. |
NGramTokenFilter |
Menghasilkan n-gram dengan ukuran yang diberikan. Filter token ini diimplementasikan menggunakan Apache Lucene. |
NGramTokenizer |
Tokenisasi input menjadi n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
OcrSkill |
Keterampilan yang mengekstrak teks dari file gambar. |
OutputFieldMappingEntry |
Pemetaan bidang output untuk keterampilan. |
PIIDetectionSkill |
Menggunakan Text Analytics API, mengekstrak informasi pribadi dari teks input dan memberi Anda opsi untuk menutupinya. |
PathHierarchyTokenizer |
Tokenizer untuk hierarki seperti jalur. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
PatternAnalyzer |
Secara fleksibel memisahkan teks menjadi istilah melalui pola ekspresi reguler. Penganalisis ini diimplementasikan menggunakan Apache Lucene. |
PatternCaptureTokenFilter |
Menggunakan regex Java untuk memancarkan beberapa token - satu untuk setiap grup pengambilan dalam satu atau beberapa pola. Filter token ini diimplementasikan menggunakan Apache Lucene. |
PatternReplaceCharFilter |
Filter karakter yang menggantikan karakter dalam string input. Menggunakan ekspresi reguler untuk mengidentifikasi urutan karakter untuk dipertahankan dan pola pengganti untuk mengidentifikasi karakter untuk diganti. Misalnya, mengingat teks input "aa bb aa bb", pola "(aa)\s+(bb)", dan penggantian "$1#$2", hasilnya adalah "aa#bb aa#bb". Filter karakter ini diimplementasikan menggunakan Apache Lucene. |
PatternReplaceTokenFilter |
Filter karakter yang menggantikan karakter dalam string input. Menggunakan ekspresi reguler untuk mengidentifikasi urutan karakter untuk dipertahankan dan pola pengganti untuk mengidentifikasi karakter untuk diganti. Misalnya, mengingat teks input "aa bb aa bb", pola "(aa)\s+(bb)", dan penggantian "$1#$2", hasilnya adalah "aa#bb aa#bb". Filter token ini diimplementasikan menggunakan Apache Lucene. |
PatternTokenizer |
Tokenizer yang menggunakan pencocokan pola regex untuk membangun token yang berbeda. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
PhoneticTokenFilter |
Membuat token untuk kecocokan fonetik. Filter token ini diimplementasikan menggunakan Apache Lucene. |
QueryAnswerResult |
Jawabannya adalah bagian teks yang diekstrak dari konten dokumen yang paling relevan yang cocok dengan kueri. Jawaban diekstrak dari hasil pencarian teratas. Kandidat jawaban diberi skor dan jawaban teratas dipilih. |
QueryCaptionResult |
Keterangan adalah bagian yang paling representatif dari dokumen relatif terhadap kueri pencarian. Mereka sering digunakan sebagai ringkasan dokumen. Keterangan hanya dikembalikan untuk kueri jenis |
ResourceCounter |
Mewakili penggunaan dan kuota sumber daya. |
ScoringProfile |
Menentukan parameter untuk indeks pencarian yang memengaruhi penilaian dalam kueri pencarian. |
SearchClientOptions |
Opsi klien yang digunakan untuk mengonfigurasi permintaan Cognitive Search API. |
SearchDocumentsPageResult |
Respons yang berisi hasil halaman pencarian dari indeks. |
SearchDocumentsResult |
Respons yang berisi hasil pencarian dari indeks. |
SearchDocumentsResultBase |
Respons yang berisi hasil pencarian dari indeks. |
SearchIndex |
Mewakili definisi indeks pencarian, yang menjelaskan bidang dan perilaku pencarian indeks. |
SearchIndexClientOptions |
Opsi klien yang digunakan untuk mengonfigurasi permintaan Cognitive Search API. |
SearchIndexStatistics |
Statistik untuk indeks tertentu. Statistik dikumpulkan secara berkala dan tidak dijamin selalu diperbarui. |
SearchIndexer |
Mewakili pengindeks. |
SearchIndexerClientOptions |
Opsi klien yang digunakan untuk mengonfigurasi permintaan Cognitive Search API. |
SearchIndexerDataContainer |
Mewakili informasi tentang entitas (seperti tabel Azure SQL atau koleksi CosmosDB) yang akan diindeks. |
SearchIndexerDataSourceConnection |
Mewakili definisi sumber data, yang dapat digunakan untuk mengonfigurasi pengindeks. |
SearchIndexerError |
Mewakili kesalahan pengindeksan tingkat item atau dokumen. |
SearchIndexerKnowledgeStore |
Definisi proyeksi tambahan ke blob azure, tabel, atau file, dari data yang diperkaya. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Kelas abstrak untuk berbagi properti antara pemilih konkret. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definisi proyeksi untuk data apa yang akan disimpan di Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definisi proyeksi untuk data apa yang akan disimpan di Azure Blob. |
SearchIndexerKnowledgeStoreProjection |
Objek kontainer untuk berbagai pemilih proyeksi. |
SearchIndexerKnowledgeStoreProjectionSelector |
Kelas abstrak untuk berbagi properti antara pemilih konkret. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Deskripsi untuk data apa yang akan disimpan di Azure Tables. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Daftar keterampilan. |
SearchIndexerStatus |
Mewakili status saat ini dan riwayat eksekusi pengindeks. |
SearchIndexerWarning |
Mewakili peringatan tingkat item. |
SearchIndexingBufferedSenderOptions |
Opsi untuk SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Kunci enkripsi yang dikelola pelanggan di Azure Key Vault. Kunci yang Anda buat dan kelola dapat digunakan untuk mengenkripsi atau mendekripsi data tidak aktif di Azure Cognitive Search, seperti indeks dan peta sinonim. |
SearchServiceStatistics |
Respons dari permintaan statistik layanan get. Jika berhasil, ini termasuk penghitung dan batas tingkat layanan. |
SearchSuggester |
Menentukan bagaimana Suggest API harus berlaku untuk sekelompok bidang dalam indeks. |
SemanticConfiguration |
Mendefinisikan konfigurasi tertentu yang akan digunakan dalam konteks kemampuan semantik. |
SemanticField |
Bidang yang digunakan sebagai bagian dari konfigurasi semantik. |
SemanticPrioritizedFields |
Menjelaskan bidang judul, konten, dan kata kunci yang akan digunakan untuk peringkat, keterangan, sorotan, dan jawaban semantik. |
SemanticSearch |
Menentukan parameter untuk indeks pencarian yang memengaruhi kemampuan semantik. |
SemanticSearchOptions |
Menentukan opsi untuk kueri pencarian semantik |
SentimentSkill |
Analisis sentimen positif-negatif analitik teks, dinilai sebagai nilai titik mengambang dalam rentang nol hingga 1. |
SentimentSkillV3 |
Menggunakan Text Analytics API, mengevaluasi teks yang tidak terstruktur dan untuk setiap rekaman, menyediakan label sentimen (seperti "negatif", "netral" dan "positif") berdasarkan skor keyakinan tertinggi yang ditemukan oleh layanan pada tingkat kalimat dan dokumen. |
ServiceCounters |
Mewakili penghitung dan kuota sumber daya tingkat layanan. |
ServiceLimits |
Mewakili berbagai batas tingkat layanan. |
ShaperSkill |
Keterampilan untuk membentuk ulang output. Ini membuat jenis kompleks untuk mendukung bidang komposit (juga dikenal sebagai bidang multibagian). |
ShingleTokenFilter |
Membuat kombinasi token sebagai token tunggal. Filter token ini diimplementasikan menggunakan Apache Lucene. |
Similarity |
Jenis dasar untuk algoritma kesamaan. Algoritma kesamaan digunakan untuk menghitung skor yang mengikat kueri ke dokumen. Semakin tinggi skor, semakin relevan dokumen dengan kueri tertentu tersebut. Skor tersebut digunakan untuk memberi peringkat pada hasil pencarian. |
SimpleField |
Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang. |
SnowballTokenFilter |
Filter yang membendung kata-kata menggunakan stemmer yang dihasilkan Snowball. Filter token ini diimplementasikan menggunakan Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Menentukan kebijakan deteksi penghapusan data yang menerapkan strategi penghapusan sementara. Ini menentukan apakah item harus dihapus berdasarkan nilai kolom 'penghapusan sementara' yang ditunjuk. |
SplitSkill |
Keterampilan untuk membagi string menjadi potongan teks. |
SqlIntegratedChangeTrackingPolicy |
Menentukan kebijakan deteksi perubahan data yang menangkap perubahan menggunakan fitur Pelacakan Perubahan Terintegrasi Azure SQL Database. |
StemmerOverrideTokenFilter |
Menyediakan kemampuan untuk mengambil alih filter stemming lainnya dengan stemming berbasis kamus kustom. Setiap istilah kamus-stemmed akan ditandai sebagai kata kunci sehingga mereka tidak akan dibendung dengan stemmer ke bawah rantai. Harus ditempatkan sebelum filter stemming. Filter token ini diimplementasikan menggunakan Apache Lucene. |
StemmerTokenFilter |
Filter stemming khusus bahasa. Filter token ini diimplementasikan menggunakan Apache Lucene. |
StopAnalyzer |
Membagi teks pada non-huruf; Menerapkan filter token huruf kecil dan stopword. Penganalisis ini diimplementasikan menggunakan Apache Lucene. |
StopwordsTokenFilter |
Menghapus kata-kata umum dari stream token. Filter token ini diimplementasikan menggunakan Apache Lucene. |
SuggestDocumentsResult |
Respons yang berisi hasil kueri saran dari indeks. |
SuggestRequest |
Parameter untuk pemfilteran, pengurutan, pencocokan fuzzy, dan perilaku kueri saran lainnya. |
SynonymMap |
Mewakili definisi peta sinonim. |
SynonymTokenFilter |
Cocok dengan sinonim tunggal atau multi-kata dalam aliran token. Filter token ini diimplementasikan menggunakan Apache Lucene. |
TagScoringFunction |
Menentukan fungsi yang meningkatkan skor dokumen dengan nilai string yang cocok dengan daftar tag tertentu. |
TagScoringParameters |
Menyediakan nilai parameter ke fungsi penilaian tag. |
TextTranslationSkill |
Keterampilan untuk menerjemahkan teks dari satu bahasa ke bahasa lain. |
TextWeights |
Menentukan bobot pada bidang indeks yang kecocokannya harus meningkatkan penilaian dalam kueri pencarian. |
TruncateTokenFilter |
Memotong istilah ke panjang tertentu. Filter token ini diimplementasikan menggunakan Apache Lucene. |
UaxUrlEmailTokenizer |
Tokenisasi url dan email sebagai satu token. Tokenizer ini diimplementasikan menggunakan Apache Lucene. |
UniqueTokenFilter |
Memfilter token dengan teks yang sama dengan token sebelumnya. Filter token ini diimplementasikan menggunakan Apache Lucene. |
VectorSearch |
Berisi opsi konfigurasi yang terkait dengan pencarian vektor. |
VectorSearchOptions |
Menentukan opsi untuk kueri pencarian vektor |
VectorSearchProfile |
Menentukan kombinasi konfigurasi yang akan digunakan dengan pencarian vektor. |
VectorizedQuery |
Parameter kueri yang digunakan untuk pencarian vektor saat nilai vektor mentah disediakan. |
WebApiSkill |
Keterampilan yang dapat memanggil titik akhir API Web, memungkinkan Anda memperluas set keterampilan dengan memanggil kode kustom Anda. |
WordDelimiterTokenFilter |
Membagi kata menjadi subkata dan melakukan transformasi opsional pada grup subkata. Filter token ini diimplementasikan menggunakan Apache Lucene. |
Alias Jenis
AnalyzeTextOptions |
Opsi untuk menganalisis operasi teks. |
AutocompleteMode |
Menentukan nilai untuk AutocompleteMode. |
AutocompleteOptions |
Opsi untuk mengambil teks penyelesaian untuk searchText parsial. |
BlobIndexerDataToExtract |
Nilai yang diketahui didukung oleh layananstorageMetadata: Hanya mengindeks properti blob standar dan metadata yang ditentukan pengguna. allMetadata: Mengekstrak metadata yang disediakan oleh subsistem penyimpanan blob Azure dan metadata khusus jenis konten (misalnya, metadata yang unik hanya untuk .png file yang diindeks). contentAndMetadata: Mengekstrak semua metadata dan konten tekstual dari setiap blob. |
BlobIndexerImageAction |
Nilai yang diketahui didukung oleh layanantidak ada: Mengabaikan gambar atau file gambar yang disematkan dalam himpunan data. Ini adalah default. generateNormalizedImages: Mengekstrak teks dari gambar (misalnya, kata "STOP" dari tanda berhenti lalu lintas), dan menyematkannya ke bidang konten. Tindakan ini mengharuskan "dataToExtract" diatur ke "contentAndMetadata". Gambar yang dinormalisasi mengacu pada pemrosesan tambahan yang menghasilkan output gambar yang seragam, berukuran dan diputar untuk mempromosikan penyajian yang konsisten saat Anda menyertakan gambar dalam hasil pencarian visual. Informasi ini dihasilkan untuk setiap gambar saat Anda menggunakan opsi ini. generateNormalizedImagePerPage: Mengekstrak teks dari gambar (misalnya, kata "STOP" dari tanda penghentian lalu lintas), dan menyematkannya ke dalam bidang konten, tetapi memperlakukan file PDF secara berbeda di mana setiap halaman akan dirender sebagai gambar dan dinormalisasi sesuai, alih-alih mengekstrak gambar yang disematkan. Jenis file non-PDF akan diperlakukan sama seperti jika "generateNormalizedImages" diatur. |
BlobIndexerPDFTextRotationAlgorithm |
Nilai yang diketahui didukung oleh layanannone: Memanfaatkan ekstraksi teks normal. Ini adalah default. detectAngles: Dapat menghasilkan ekstraksi teks yang lebih baik dan lebih mudah dibaca dari file PDF yang telah memutar teks di dalamnya. Perhatikan bahwa mungkin ada dampak kecepatan performa kecil ketika parameter ini digunakan. Parameter ini hanya berlaku untuk file PDF, dan hanya untuk PDF dengan teks yang disematkan. Jika teks yang diputar muncul dalam gambar yang disematkan dalam PDF, parameter ini tidak berlaku. |
BlobIndexerParsingMode |
Nilai yang diketahui didukung oleh layanandefault: Atur ke default untuk pemrosesan file normal. teks: Atur ke teks untuk meningkatkan performa pengindeksan pada file teks biasa dalam penyimpanan blob. delimitedText: Atur ke delimitedText saat blob adalah file CSV biasa. json: Atur ke json untuk mengekstrak konten terstruktur dari file JSON. jsonArray: Atur ke jsonArray untuk mengekstrak elemen individual array JSON sebagai dokumen terpisah dalam Azure Cognitive Search. jsonLines: Atur ke jsonLines untuk mengekstrak entitas JSON individual, dipisahkan oleh baris baru, sebagai dokumen terpisah dalam Azure Cognitive Search. |
CharFilter |
Berisi kemungkinan kasus untuk CharFilter. |
CharFilterName |
Menentukan nilai untuk CharFilterName. Nilai yang diketahui didukung oleh layananhtml_strip: Filter karakter yang mencoba menghapus konstruksi HTML. Lihat https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Menentukan nilai untuk CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Berisi kemungkinan kasus untuk CognitiveServicesAccount. |
ComplexDataType |
Menentukan nilai untuk ComplexDataType. Nilai yang mungkin termasuk: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Opsi untuk melakukan operasi penghitungan pada indeks. |
CreateDataSourceConnectionOptions |
Opsi untuk membuat operasi sumber data. |
CreateIndexOptions |
Opsi untuk membuat operasi indeks. |
CreateIndexerOptions |
Opsi untuk membuat operasi pengindeks. |
CreateSkillsetOptions |
Opsi untuk membuat operasi skillset. |
CreateSynonymMapOptions |
Opsi untuk membuat operasi sinonim. |
CustomEntityLookupSkillLanguage |
Menentukan bahasa yang didukung untuk CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage dapat digunakan secara bergantian dengan jenis ini |
DataChangeDetectionPolicy |
Berisi kemungkinan kasus untuk DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Berisi kemungkinan kasus untuk DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Opsi untuk operasi hapus dokumen. |
EdgeNGramTokenFilterSide |
Menentukan nilai untuk EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage |
Menentukan bahasa yang didukung untuk EntityRecognitionSkillKnownEntityRecognitionSkillLanguage dapat digunakan secara bergantian dengan jenis ini |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Berisi opsi konfigurasi khusus untuk algoritma KNN lengkap yang digunakan selama kueri, yang akan melakukan pencarian brute-force di seluruh indeks vektor. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Opsi untuk mendapatkan operasi sumber data. |
GetIndexOptions |
Opsi untuk mendapatkan operasi indeks. |
GetIndexStatisticsOptions |
Opsi untuk mendapatkan operasi statistik indeks. |
GetIndexerOptions |
Opsi untuk mendapatkan operasi pengindeks. |
GetIndexerStatusOptions |
Opsi untuk mendapatkan operasi status pengindeks. |
GetServiceStatisticsOptions |
Opsi untuk mendapatkan operasi statistik layanan. |
GetSkillSetOptions |
Opsi untuk mendapatkan operasi skillset. |
GetSynonymMapsOptions |
Opsi untuk mendapatkan operasi sinonim. |
HnswAlgorithmConfiguration |
Berisi opsi konfigurasi khusus untuk algoritma tetangga terdekat hnsw perkiraan yang digunakan selama waktu pengindeksan. |
ImageAnalysisSkillLanguage |
Menentukan bahasa yang didukung untuk ImageAnalysisSkillKnownImageAnalysisSkillLanguage dapat digunakan secara bergantian dengan jenis ini |
ImageDetail | |
IndexActionType |
Menentukan nilai untuk IndexActionType. |
IndexDocumentsAction |
Mewakili tindakan indeks yang beroperasi pada dokumen. |
IndexIterator |
Iterator untuk mencantumkan indeks yang ada di layanan Pencarian. Akan membuat permintaan sesuai kebutuhan selama perulangan. Gunakan .byPage() untuk membuat satu permintaan ke server per iterasi. |
IndexNameIterator |
Iterator untuk mencantumkan indeks yang ada di layanan Pencarian. Akan membuat permintaan sesuai kebutuhan selama perulangan. Gunakan .byPage() untuk membuat satu permintaan ke server per iterasi. |
IndexerExecutionEnvironment |
Nilai yang diketahui didukung oleh layananstandar: Menunjukkan bahwa Azure Cognitive Search dapat menentukan di mana pengindeks harus dijalankan. Ini adalah lingkungan default ketika tidak ada yang ditentukan dan merupakan nilai yang direkomendasikan. privat: Menunjukkan bahwa pengindeks harus berjalan dengan lingkungan yang disediakan khusus untuk layanan pencarian. Ini hanya boleh ditentukan sebagai lingkungan eksekusi jika pengindeks perlu mengakses sumber daya dengan aman melalui sumber daya tautan privat bersama. |
IndexerExecutionStatus |
Menentukan nilai untuk IndexerExecutionStatus. |
IndexerStatus |
Menentukan nilai untuk IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Menentukan bahasa yang didukung untuk KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage dapat digunakan secara bergantian dengan jenis ini |
LexicalAnalyzer |
Berisi kemungkinan kasus untuk Analyzer. |
LexicalAnalyzerName |
Menentukan nilai untuk LexicalAnalyzerName. Nilai yang diketahui didukung oleh layananar.microsoft: Penganalisis Microsoft untuk bahasa Arab. |
LexicalTokenizer |
Berisi kemungkinan kasus untuk Tokenizer. |
LexicalTokenizerName |
Menentukan nilai untuk LexicalTokenizerName. Nilai yang diketahui didukung oleh layananklasik: Tokenizer berbasis tata bahasa yang cocok untuk memproses sebagian besar dokumen berbahasa Eropa. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Opsi untuk operasi daftar sumber data. |
ListIndexersOptions |
Opsi untuk operasi pengindeks daftar. |
ListIndexesOptions |
Opsi untuk operasi indeks daftar. |
ListSkillsetsOptions |
Opsi untuk operasi set keterampilan daftar. |
ListSynonymMapsOptions |
Opsi untuk daftar operasi synonymMaps. |
MergeDocumentsOptions |
Opsi untuk operasi penggabungan dokumen. |
MergeOrUploadDocumentsOptions |
Opsi untuk operasi gabungkan atau unggah dokumen. |
MicrosoftStemmingTokenizerLanguage |
Menentukan nilai untuk MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Menentukan nilai untuk MicrosoftTokenizerLanguage. |
NarrowedModel |
Mempersempit jenis Model untuk hanya menyertakan Bidang yang dipilih |
OcrSkillLanguage |
Mendefinisikan bahasa yang didukung untuk OcrSkillKnownOcrSkillLanguage dapat digunakan secara bergantian dengan jenis ini |
PIIDetectionSkillMaskingMode |
Menentukan nilai untuk PIIDetectionSkillMaskingMode. Nilai yang diketahui didukung oleh layanannone: Tidak ada masking yang terjadi dan output maskedText tidak akan dikembalikan. ganti: Mengganti entitas yang terdeteksi dengan karakter yang diberikan dalam parameter maskingCharacter. Karakter akan diulangi hingga panjang entitas yang terdeteksi sehingga offset akan sesuai dengan teks input serta maskedText output. |
PhoneticEncoder |
Menentukan nilai untuk PhoneticEncoder. |
QueryAnswer |
Nilai yang menentukan apakah jawaban harus dikembalikan sebagai bagian dari respons pencarian.
Parameter ini hanya valid jika jenis kueri adalah 'semantik'. Jika diatur ke |
QueryCaption |
Nilai yang menentukan apakah keterangan harus dikembalikan sebagai bagian dari respons pencarian. Parameter ini hanya valid jika jenis kueri adalah 'semantik'. Jika diatur, kueri mengembalikan keterangan yang diekstrak dari bagian kunci dalam dokumen berperingkat tertinggi. Saat Keterangan 'ekstraktif', penyorotan diaktifkan secara default. Default ke 'none'. |
QueryType |
Menentukan nilai untuk QueryType. |
RegexFlags |
Menentukan bendera untuk pencocokan pola regex Nilai yang diketahui didukung oleh layananCANON_EQ: Memungkinkan kesetaraan kanonis. CASE_INSENSITIVE: Memungkinkan pencocokan tidak peka huruf besar/kecil. KOMENTAR: Mengizinkan spasi kosong dan komentar dalam pola. Dotall: Mengaktifkan mode dotall. LITERAL: Memungkinkan penguraian harfiah pola. MULTILINE: Mengaktifkan mode multibaris. UNICODE_CASE: Memungkinkan pelipatan kasus sadar Unicode. UNIX_LINES: Mengaktifkan mode garis Unix. |
ResetIndexerOptions |
Opsi untuk mengatur ulang operasi pengindeks. |
RunIndexerOptions |
Opsi untuk menjalankan operasi pengindeks. |
ScoringFunction |
Berisi kemungkinan kasus untuk ScoringFunction. |
ScoringFunctionAggregation |
Menentukan nilai untuk ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Menentukan nilai untuk ScoringFunctionInterpolation. |
ScoringStatistics |
Menentukan nilai untuk ScoringStatistics. |
SearchField |
Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang. |
SearchFieldArray |
Jika |
SearchFieldDataType |
Menentukan nilai untuk SearchFieldDataType. Nilai yang mungkin termasuk: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)' NB: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Berisi kemungkinan kasus untuk Keterampilan. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opsi untuk SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Opsi untuk SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Opsi untuk SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opsi untuk SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Opsi untuk SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Iterator untuk hasil pencarian kueri paticular. Akan membuat permintaan sesuai kebutuhan selama perulangan. Gunakan .byPage() untuk membuat satu permintaan ke server per iterasi. |
SearchMode |
Menentukan nilai untuk SearchMode. |
SearchOptions |
Opsi untuk menerapkan permintaan pencarian lengkap. |
SearchPick |
Pilih bidang T secara mendalam menggunakan jalur $select OData Cognitive Search yang valid. |
SearchRequestOptions |
Parameter untuk pemfilteran, pengurutan, faset, penomoran halaman, dan perilaku kueri pencarian lainnya. |
SearchRequestQueryTypeOptions | |
SearchResult |
Berisi dokumen yang ditemukan oleh kueri pencarian, ditambah metadata terkait. |
SelectArray |
Jika |
SelectFields |
Menghasilkan penyatuan jalur $select OData Cognitive Search yang valid untuk T menggunakan traversal pasca-pesanan pohon bidang yang berakar pada T. |
SemanticErrorMode |
parsial: Jika pemrosesan semantik gagal, hasil parsial masih kembali. Definisi hasil parsial tergantung pada langkah semantik apa yang gagal dan apa alasan kegagalannya. gagal: Jika ada pengecualian selama langkah pemrosesan semantik, kueri akan gagal dan mengembalikan kode HTTP yang sesuai tergantung pada kesalahan. |
SemanticErrorReason |
maxWaitExceeded: Jika 'semanticMaxWaitInMilliseconds' diatur dan durasi pemrosesan semantik melebihi nilai tersebut. Hanya hasil dasar yang dikembalikan. capacityOverloaded: Permintaan dibatasi. Hanya hasil dasar yang dikembalikan. sementara: Setidaknya satu langkah proses semantik gagal. |
SemanticSearchResultsType |
baseResults: Hasil tanpa pengayaan semantik atau reranking. rerankedResults: Hasil telah direrank dengan model reranker dan akan menyertakan keterangan semantik. Mereka tidak akan menyertakan jawaban, jawaban sorotan, atau sorotan caption. |
SentimentSkillLanguage |
Menentukan bahasa yang didukung untuk SentimentSkillKnownSentimentSkillLanguage dapat digunakan secara bergantian dengan jenis ini |
SimilarityAlgorithm |
Berisi kemungkinan kasus untuk Kesamaan. |
SnowballTokenFilterLanguage |
Mendefinisikan nilai untuk SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Menentukan bahasa yang didukung untuk SplitSkillKnownSplitSkillLanguage dapat digunakan secara bergantian dengan jenis ini |
StemmerTokenFilterLanguage |
Mendefinisikan nilai untuk StemmerTokenFilterLanguage. |
StopwordsList |
Menentukan nilai untuk StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Opsi untuk mengambil saran berdasarkan searchText. |
SuggestResult |
Hasil yang berisi dokumen yang ditemukan oleh kueri saran, ditambah metadata terkait. |
TextSplitMode | |
TextTranslationSkillLanguage |
Menentukan bahasa yang didukung untuk TextTranslationSkillKnownTextTranslationSkillLanguage dapat digunakan secara bergantian dengan jenis ini |
TokenCharacterKind |
Menentukan nilai untuk TokenCharacterKind. |
TokenFilter |
Berisi kemungkinan kasus untuk TokenFilter. |
TokenFilterName |
Menentukan nilai untuk TokenFilterName. Nilai yang diketahui didukung oleh layananarabic_normalization: Filter token yang menerapkan normalizer Arab untuk menormalkan ortografi. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Opsi untuk operasi unggah dokumen. |
VectorFilterMode |
Menentukan apakah filter diterapkan sebelum atau sesudah pencarian vektor dilakukan atau tidak. |
VectorQuery |
Parameter kueri untuk kueri pencarian vektor dan hibrid. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Berisi opsi konfigurasi khusus untuk algoritma yang digunakan selama pengindeksan dan/atau kueri. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
Metrik kesamaan yang digunakan untuk perbandingan vektor. |
VisualFeature |
Enum
Fungsi
create |
Metode pembantu untuk membuat objek SynonymMap. Ini adalah metode khusus NodeJS. |
odata(Template |
Lolos dari ekspresi filter odata untuk menghindari kesalahan dengan mengutip literal string. Contoh penggunaan:
Untuk informasi selengkapnya tentang sintaks yang didukung, lihat: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Detail Fungsi
createSynonymMapFromFile(string, string)
Metode pembantu untuk membuat objek SynonymMap. Ini adalah metode khusus NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parameter
- name
-
string
Nama SynonymMap.
- filePath
-
string
Jalur file yang berisi Sinonim (dipisahkan oleh baris baru)
Mengembalikan
Promise<SynonymMap>
Objek SynonymMap
odata(TemplateStringsArray, unknown[])
Lolos dari ekspresi filter odata untuk menghindari kesalahan dengan mengutip literal string. Contoh penggunaan:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Untuk informasi selengkapnya tentang sintaks yang didukung, lihat: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parameter
- strings
-
TemplateStringsArray
Array string untuk ekspresi
- values
-
unknown[]
Array nilai untuk ekspresi
Mengembalikan
string