Bagikan melalui


@azure/search-documents package

Kelas

AzureKeyCredential

Kredensial berbasis kunci statis yang mendukung pembaruan nilai kunci yang mendasar.

GeographyPoint

Mewakili titik geografis dalam koordinat global.

IndexDocumentsBatch

Kelas yang digunakan untuk melakukan operasi batch dengan beberapa dokumen ke indeks.

SearchClient

Kelas yang digunakan untuk melakukan operasi terhadap indeks pencarian, termasuk mengkueri dokumen dalam indeks serta menambahkan, memperbarui, dan menghapusnya.

SearchIndexClient

Kelas untuk melakukan operasi untuk mengelola (membuat, memperbarui, mencantumkan/menghapus) indeks, & sinonim.

SearchIndexerClient

Kelas untuk melakukan operasi untuk mengelola pengindeks (buat, perbarui, daftar/hapus), sumber data & skillset.

SearchIndexingBufferedSender

Kelas yang digunakan untuk melakukan operasi buffer terhadap indeks pencarian, termasuk menambahkan, memperbarui, dan menghapusnya.

Antarmuka

AnalyzeRequest

Menentukan beberapa komponen teks dan analisis yang digunakan untuk memecah teks tersebut menjadi token.

AnalyzeResult

Hasil pengujian penganalisis pada teks.

AnalyzedTokenInfo

Informasi tentang token yang dikembalikan oleh penganalisis.

AsciiFoldingTokenFilter

Mengonversi karakter Unicode alfabet, numerik, dan simbolis yang tidak berada dalam 127 karakter ASCII pertama (blok Unicode "Latin Dasar" ke dalam setara ASCII mereka, jika setara tersebut ada. Filter token ini diimplementasikan menggunakan Apache Lucene.

AutocompleteItem

Hasil permintaan Lengkapi Otomatis.

AutocompleteRequest

Parameter untuk pencocokan fuzzy, dan perilaku kueri lengkapi otomatis lainnya.

AutocompleteResult

Hasil kueri Lengkapi Otomatis.

AzureActiveDirectoryApplicationCredentials

Kredensial aplikasi terdaftar yang dibuat untuk layanan pencarian Anda, digunakan untuk akses terautentikasi ke kunci enkripsi yang disimpan di Azure Key Vault.

AzureOpenAIEmbeddingSkill

Memungkinkan Anda membuat penyematan vektor untuk input teks tertentu menggunakan sumber daya Azure OpenAI.

AzureOpenAIParameters

Berisi parameter khusus untuk menggunakan layanan Azure Open AI untuk vektorisasi pada waktu kueri.

AzureOpenAIVectorizer

Berisi parameter khusus untuk menggunakan layanan Azure Open AI untuk vektorisasi pada waktu kueri.

BM25Similarity

Fungsi peringkat berdasarkan algoritma kesamaan Okapi BM25. BM25 adalah algoritma seperti TF-IDF yang mencakup normalisasi panjang (dikontrol oleh parameter 'b') serta saturasi frekuensi istilah (dikontrol oleh parameter 'k1').

BaseCharFilter

Jenis dasar untuk filter karakter.

BaseCognitiveServicesAccount

Jenis dasar untuk menjelaskan sumber daya layanan Azure AI apa pun yang dilampirkan ke set keterampilan.

BaseDataChangeDetectionPolicy

Jenis dasar untuk kebijakan deteksi perubahan data.

BaseDataDeletionDetectionPolicy

Jenis dasar untuk kebijakan deteksi penghapusan data.

BaseLexicalAnalyzer

Jenis dasar untuk penganalisis.

BaseLexicalTokenizer

Jenis dasar untuk tokenizer.

BaseScoringFunction

Jenis dasar untuk fungsi yang dapat mengubah skor dokumen selama peringkat.

BaseSearchIndexerDataIdentity

Jenis dasar abstrak untuk identitas data.

BaseSearchIndexerSkill

Jenis dasar untuk keterampilan.

BaseSearchRequestOptions

Parameter untuk pemfilteran, pengurutan, faset, penomoran halaman, dan perilaku kueri pencarian lainnya.

BaseTokenFilter

Jenis dasar untuk filter token.

BaseVectorQuery

Parameter kueri untuk kueri pencarian vektor dan hibrid.

BaseVectorSearchAlgorithmConfiguration

Berisi opsi konfigurasi khusus untuk algoritma yang digunakan selama pengindeksan dan/atau kueri.

BaseVectorSearchCompression

Berisi opsi konfigurasi khusus untuk metode pemadatan yang digunakan selama pengindeksan atau kueri.

BaseVectorSearchVectorizer

Berisi detail spesifik untuk metode vektorisasi yang akan digunakan selama waktu kueri.

BinaryQuantizationCompression

Berisi opsi konfigurasi khusus untuk metode kompresi kuantisasi biner yang digunakan selama pengindeksan dan kueri.

CjkBigramTokenFilter

Membentuk bigram istilah CJK yang dihasilkan dari tokenizer standar. Filter token ini diimplementasikan menggunakan Apache Lucene.

ClassicSimilarity

Algoritma kesamaan warisan yang menggunakan implementasi Lucene TFIDFSimilarity dari TF-IDF. Variasi TF-IDF ini memperkenalkan normalisasi panjang dokumen statis serta faktor koordinasi yang mengharuskan dokumen yang hanya sebagian cocok dengan kueri yang dicari.

ClassicTokenizer

Tokenizer berbasis tata bahasa yang cocok untuk memproses sebagian besar dokumen berbahasa Eropa. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

CognitiveServicesAccountKey

Kunci akun multi-wilayah dari sumber daya layanan Azure AI yang dilampirkan ke set keterampilan.

CommonGramTokenFilter

Buat bigram untuk istilah yang sering terjadi saat mengindeks. Istilah tunggal masih diindeks juga, dengan bigram dilapisi. Filter token ini diimplementasikan menggunakan Apache Lucene.

ComplexField

Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang.

ConditionalSkill

Keterampilan yang memungkinkan skenario yang memerlukan operasi Boolean untuk menentukan data yang akan ditetapkan ke output.

CorsOptions

Menentukan opsi untuk mengontrol Berbagi Sumber Daya Lintas Asal (CORS) untuk indeks.

CreateOrUpdateIndexOptions

Opsi untuk operasi buat/perbarui indeks.

CreateOrUpdateSkillsetOptions

Opsi untuk operasi buat/perbarui skillset.

CreateOrUpdateSynonymMapOptions

Opsi untuk operasi buat/perbarui sinonim.

CreateorUpdateDataSourceConnectionOptions

Opsi untuk operasi buat/perbarui sumber data.

CreateorUpdateIndexerOptions

Opsi untuk operasi pengindeks buat/perbarui.

CustomAnalyzer

Memungkinkan Anda mengambil kontrol atas proses konversi teks menjadi token yang dapat diindeks/dapat dicari. Ini adalah konfigurasi yang ditentukan pengguna yang terdiri dari satu tokenizer yang telah ditentukan sebelumnya dan satu atau beberapa filter. Tokenizer bertanggung jawab untuk memecah teks menjadi token, dan filter untuk memodifikasi token yang dipancarkan oleh tokenizer.

CustomEntity

Objek yang berisi informasi tentang kecocokan yang ditemukan, dan metadata terkait.

CustomEntityAlias

Objek kompleks yang dapat digunakan untuk menentukan ejaan atau sinonim alternatif ke nama entitas akar.

CustomEntityLookupSkill

Keterampilan mencari teks dari daftar kata dan frasa kustom yang ditentukan pengguna.

DefaultCognitiveServicesAccount

Objek kosong yang mewakili sumber daya layanan Azure AI default untuk set keterampilan.

DeleteDataSourceConnectionOptions

Opsi untuk menghapus operasi sumber data.

DeleteIndexOptions

Opsi untuk menghapus operasi indeks.

DeleteIndexerOptions

Opsi untuk menghapus operasi pengindeks.

DeleteSkillsetOptions

Opsi untuk menghapus operasi skillset.

DeleteSynonymMapOptions

Opsi untuk menghapus operasi sinonim.

DictionaryDecompounderTokenFilter

Menguraikan kata-kata manyawa yang ditemukan dalam banyak bahasa Jermanik. Filter token ini diimplementasikan menggunakan Apache Lucene.

DistanceScoringFunction

Menentukan fungsi yang meningkatkan skor berdasarkan jarak dari lokasi geografis.

DistanceScoringParameters

Menyediakan nilai parameter ke fungsi penilaian jarak.

DocumentExtractionSkill

Keterampilan yang mengekstrak konten dari file dalam alur pengayaan.

EdgeNGramTokenFilter

Menghasilkan n-gram dari ukuran yang diberikan mulai dari depan atau belakang token input. Filter token ini diimplementasikan menggunakan Apache Lucene.

EdgeNGramTokenizer

Tokenisasi input dari tepi ke dalam n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

ElisionTokenFilter

Menghapus elisi. Misalnya, "l'avion" (bidang) akan dikonversi menjadi "avion" (bidang). Filter token ini diimplementasikan menggunakan Apache Lucene.

EntityLinkingSkill

Menggunakan Text Analytics API, mengekstrak entitas tertaut dari teks.

EntityRecognitionSkill

Pengenalan entitas analitik teks.

EntityRecognitionSkillV3

Menggunakan Text Analytics API, mengekstrak entitas dari berbagai jenis dari teks.

ExhaustiveKnnParameters

Berisi parameter khusus untuk algoritma KNN lengkap.

ExtractiveQueryAnswer

Mengekstrak kandidat jawaban dari konten dokumen yang dikembalikan sebagai respons terhadap kueri yang dinyatakan sebagai pertanyaan dalam bahasa alami.

ExtractiveQueryCaption

Mengekstrak keterangan dari dokumen yang cocok yang berisi bagian yang relevan dengan kueri pencarian.

FacetResult

Wadah tunggal hasil kueri faset. Melaporkan jumlah dokumen dengan nilai bidang yang termasuk dalam rentang tertentu atau memiliki nilai atau interval tertentu.

FieldMapping

Menentukan pemetaan antara bidang di sumber data dan bidang target dalam indeks.

FieldMappingFunction

Mewakili fungsi yang mengubah nilai dari sumber data sebelum mengindeks.

FreshnessScoringFunction

Menentukan fungsi yang meningkatkan skor berdasarkan nilai bidang tanggal-waktu.

FreshnessScoringParameters

Menyediakan nilai parameter ke fungsi penilaian kesegaran.

GetDocumentOptions

Opsi untuk mengambil satu dokumen.

HighWaterMarkChangeDetectionPolicy

Menentukan kebijakan deteksi perubahan data yang menangkap perubahan berdasarkan nilai kolom tanda air tinggi.

HnswParameters

Berisi parameter khusus untuk algoritma hnsw.

ImageAnalysisSkill

Keterampilan yang menganalisis file gambar. Ini mengekstrak serangkaian fitur visual yang kaya berdasarkan konten gambar.

IndexDocumentsClient

Indeks Dokumen Klien

IndexDocumentsOptions

Opsi untuk operasi ubah batch indeks.

IndexDocumentsResult

Respons yang berisi status operasi untuk semua dokumen dalam permintaan pengindeksan.

IndexerExecutionResult

Mewakili hasil eksekusi pengindeks individual.

IndexingParameters

Mewakili parameter untuk eksekusi pengindeks.

IndexingParametersConfiguration

Kamus properti konfigurasi khusus pengindeks. Setiap nama adalah nama properti tertentu. Setiap nilai harus berjenis primitif.

IndexingResult

Status operasi pengindeksan untuk satu dokumen.

IndexingSchedule

Mewakili jadwal untuk eksekusi pengindeks.

InputFieldMappingEntry

Pemetaan bidang input untuk keterampilan.

KeepTokenFilter

Filter token yang hanya menyimpan token dengan teks yang terkandung dalam daftar kata tertentu. Filter token ini diimplementasikan menggunakan Apache Lucene.

KeyPhraseExtractionSkill

Keterampilan yang menggunakan analitik teks untuk ekstraksi frasa kunci.

KeywordMarkerTokenFilter

Menandai istilah sebagai kata kunci. Filter token ini diimplementasikan menggunakan Apache Lucene.

KeywordTokenizer

Memancarkan seluruh input sebagai token tunggal. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

LanguageDetectionSkill

Keterampilan yang mendeteksi bahasa teks input dan melaporkan satu kode bahasa untuk setiap dokumen yang dikirimkan pada permintaan. Kode bahasa dipasangkan dengan skor yang menunjukkan keyakinan analisis.

LengthTokenFilter

Menghapus kata-kata yang terlalu panjang atau terlalu pendek. Filter token ini diimplementasikan menggunakan Apache Lucene.

LimitTokenFilter

Membatasi jumlah token saat mengindeks. Filter token ini diimplementasikan menggunakan Apache Lucene.

ListSearchResultsPageSettings

Argumen untuk mengambil halaman hasil pencarian berikutnya.

LuceneStandardAnalyzer

Penganalisis Apache Lucene Standar; Terdiri dari tokenizer standar, filter huruf kecil, dan filter berhenti.

LuceneStandardTokenizer

Hentian teks mengikuti aturan Segmentasi Teks Unicode. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

MagnitudeScoringFunction

Menentukan fungsi yang meningkatkan skor berdasarkan besarnya bidang numerik.

MagnitudeScoringParameters

Menyediakan nilai parameter ke fungsi penilaian besaran.

MappingCharFilter

Filter karakter yang menerapkan pemetaan yang ditentukan dengan opsi pemetaan. Pencocokan serakah (pencocokan pola terpanjang pada poin tertentu menang). Penggantian diperbolehkan menjadi string kosong. Filter karakter ini diimplementasikan menggunakan Apache Lucene.

MergeSkill

Keterampilan untuk menggabungkan dua string atau lebih ke dalam satu string terpadu, dengan pemisah opsional yang ditentukan pengguna yang memisahkan setiap bagian komponen.

MicrosoftLanguageStemmingTokenizer

Membagi teks menggunakan aturan khusus bahasa dan mengurangi kata-kata ke formulir dasarnya.

MicrosoftLanguageTokenizer

Membagi teks menggunakan aturan khusus bahasa.

NGramTokenFilter

Menghasilkan n-gram dari ukuran yang diberikan. Filter token ini diimplementasikan menggunakan Apache Lucene.

NGramTokenizer

Tokenisasi input ke dalam n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

OcrSkill

Keterampilan yang mengekstrak teks dari file gambar.

OutputFieldMappingEntry

Pemetaan bidang output untuk keterampilan.

PIIDetectionSkill

Menggunakan Text Analytics API, mengekstrak informasi pribadi dari teks input dan memberi Anda opsi untuk menutupinya.

PathHierarchyTokenizer

Tokenizer untuk hierarki seperti jalur. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

PatternAnalyzer

Secara fleksibel memisahkan teks menjadi istilah melalui pola ekspresi reguler. Penganalisis ini diimplementasikan menggunakan Apache Lucene.

PatternCaptureTokenFilter

Menggunakan regex Java untuk memancarkan beberapa token - satu untuk setiap grup pengambilan dalam satu atau beberapa pola. Filter token ini diimplementasikan menggunakan Apache Lucene.

PatternReplaceCharFilter

Filter karakter yang menggantikan karakter dalam string input. Ini menggunakan ekspresi reguler untuk mengidentifikasi urutan karakter untuk mempertahankan dan pola penggantian untuk mengidentifikasi karakter yang akan diganti. Misalnya, mengingat teks input "aa bb aa bb", pola "(aa)\s+(bb)", dan penggantian "$1#$2", hasilnya adalah "aa#bb aa#bb". Filter karakter ini diimplementasikan menggunakan Apache Lucene.

PatternReplaceTokenFilter

Filter karakter yang menggantikan karakter dalam string input. Ini menggunakan ekspresi reguler untuk mengidentifikasi urutan karakter untuk mempertahankan dan pola penggantian untuk mengidentifikasi karakter yang akan diganti. Misalnya, mengingat teks input "aa bb aa bb", pola "(aa)\s+(bb)", dan penggantian "$1#$2", hasilnya adalah "aa#bb aa#bb". Filter token ini diimplementasikan menggunakan Apache Lucene.

PatternTokenizer

Tokenizer yang menggunakan pencocokan pola regex untuk membangun token yang berbeda. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

PhoneticTokenFilter

Buat token untuk kecocokan fonetik. Filter token ini diimplementasikan menggunakan Apache Lucene.

QueryAnswerResult

Jawabannya adalah bagian teks yang diekstrak dari konten dokumen yang paling relevan yang cocok dengan kueri. Jawaban diekstrak dari hasil pencarian teratas. Kandidat jawaban dinilai dan jawaban teratas dipilih.

QueryCaptionResult

Keterangan adalah bagian yang paling representatif dari dokumen relatif ke kueri pencarian. Mereka sering digunakan sebagai ringkasan dokumen. Keterangan hanya dikembalikan untuk kueri jenis semantic.

ResourceCounter

Mewakili penggunaan dan kuota sumber daya.

ScalarQuantizationCompression

Berisi opsi konfigurasi khusus untuk metode kompresi kuantisasi skalar yang digunakan selama pengindeksan dan kueri.

ScalarQuantizationParameters

Berisi parameter khusus untuk Kuantisasi Skalar.

ScoringProfile

Menentukan parameter untuk indeks pencarian yang memengaruhi penilaian dalam kueri pencarian.

SearchClientOptions

Opsi klien yang digunakan untuk mengonfigurasi permintaan Cognitive Search API.

SearchDocumentsPageResult

Respons yang berisi hasil halaman pencarian dari indeks.

SearchDocumentsResult

Respons yang berisi hasil pencarian dari indeks.

SearchDocumentsResultBase

Respons yang berisi hasil pencarian dari indeks.

SearchIndex

Mewakili definisi indeks pencarian, yang menjelaskan bidang dan perilaku pencarian indeks.

SearchIndexClientOptions

Opsi klien yang digunakan untuk mengonfigurasi permintaan Cognitive Search API.

SearchIndexStatistics

Statistik untuk indeks tertentu. Statistik dikumpulkan secara berkala dan tidak dijamin selalu up-to-date.

SearchIndexer

Mewakili pengindeks.

SearchIndexerClientOptions

Opsi klien yang digunakan untuk mengonfigurasi permintaan Cognitive Search API.

SearchIndexerDataContainer

Mewakili informasi tentang entitas (seperti tabel Azure SQL atau koleksi CosmosDB) yang akan diindeks.

SearchIndexerDataNoneIdentity

Menghapus properti identitas sumber data.

SearchIndexerDataSourceConnection

Mewakili definisi sumber data, yang dapat digunakan untuk mengonfigurasi pengindeks.

SearchIndexerDataUserAssignedIdentity

Menentukan identitas untuk sumber data yang akan digunakan.

SearchIndexerError

Mewakili kesalahan pengindeksan tingkat item atau dokumen.

SearchIndexerIndexProjection

Definisi proyeksi tambahan ke indeks pencarian sekunder.

SearchIndexerIndexProjectionParameters

Kamus properti konfigurasi khusus proyeksi indeks. Setiap nama adalah nama properti tertentu. Setiap nilai harus berjenis primitif.

SearchIndexerIndexProjectionSelector

Deskripsi untuk data apa yang akan disimpan dalam indeks pencarian yang ditunjuk.

SearchIndexerKnowledgeStore

Definisi proyeksi tambahan ke blob azure, tabel, atau file, dari data yang diperkaya.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Kelas abstrak untuk berbagi properti antara pemilih konkret.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definisi proyeksi untuk data apa yang akan disimpan di Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definisi proyeksi untuk data apa yang akan disimpan di Azure Blob.

SearchIndexerKnowledgeStoreParameters

Kamus properti konfigurasi khusus penyimpanan pengetahuan. Setiap nama adalah nama properti tertentu. Setiap nilai harus berjenis primitif.

SearchIndexerKnowledgeStoreProjection

Objek kontainer untuk berbagai pemilih proyeksi.

SearchIndexerKnowledgeStoreProjectionSelector

Kelas abstrak untuk berbagi properti antara pemilih konkret.

SearchIndexerKnowledgeStoreTableProjectionSelector

Deskripsi untuk data apa yang akan disimpan di Azure Tables.

SearchIndexerLimits
SearchIndexerSkillset

Daftar keterampilan.

SearchIndexerStatus

Mewakili status saat ini dan riwayat eksekusi pengindeks.

SearchIndexerWarning

Mewakili peringatan tingkat item.

SearchIndexingBufferedSenderOptions

Opsi untuk SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Kunci enkripsi yang dikelola pelanggan di Azure Key Vault. Kunci yang Anda buat dan kelola dapat digunakan untuk mengenkripsi atau mendekripsi data tidak aktif di Azure Cognitive Search, seperti indeks dan peta sinonim.

SearchServiceStatistics

Respons dari permintaan dapatkan statistik layanan. Jika berhasil, itu termasuk penghitung dan batas tingkat layanan.

SearchSuggester

Menentukan bagaimana SUGGEST API harus berlaku untuk sekelompok bidang dalam indeks.

SemanticConfiguration

Menentukan konfigurasi tertentu yang akan digunakan dalam konteks kemampuan semantik.

SemanticField

Bidang yang digunakan sebagai bagian dari konfigurasi semantik.

SemanticPrioritizedFields

Menjelaskan bidang judul, konten, dan kata kunci yang akan digunakan untuk peringkat, keterangan, sorotan, dan jawaban semantik.

SemanticSearch

Menentukan parameter untuk indeks pencarian yang memengaruhi kemampuan semantik.

SemanticSearchOptions

Menentukan opsi untuk kueri pencarian semantik

SentimentSkill

Analisis sentimen positif-negatif analitik teks, dinilai sebagai nilai titik mengambang dalam rentang nol hingga 1.

SentimentSkillV3

Menggunakan Text Analytics API, mengevaluasi teks yang tidak terstruktur dan untuk setiap rekaman, menyediakan label sentimen (seperti "negatif", "netral" dan "positif") berdasarkan skor keyakinan tertinggi yang ditemukan oleh layanan pada tingkat kalimat dan dokumen.

ServiceCounters

Mewakili penghitung dan kuota sumber daya tingkat layanan.

ServiceLimits

Mewakili berbagai batas tingkat layanan.

ShaperSkill

Keterampilan untuk membentuk kembali output. Ini membuat jenis kompleks untuk mendukung bidang komposit (juga dikenal sebagai bidang multibagian).

ShingleTokenFilter

Membuat kombinasi token sebagai token tunggal. Filter token ini diimplementasikan menggunakan Apache Lucene.

Similarity

Jenis dasar untuk algoritma kesamaan. Algoritma kesamaan digunakan untuk menghitung skor yang mengikat kueri ke dokumen. Semakin tinggi skor, semakin relevan dokumen dengan kueri tertentu tersebut. Skor tersebut digunakan untuk memberi peringkat hasil pencarian.

SimpleField

Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang.

SnowballTokenFilter

Filter yang membendung kata-kata menggunakan stemmer yang dihasilkan Snowball. Filter token ini diimplementasikan menggunakan Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Menentukan kebijakan deteksi penghapusan data yang menerapkan strategi penghapusan sementara. Ini menentukan apakah item harus dihapus berdasarkan nilai kolom 'penghapusan sementara' yang ditunjuk.

SplitSkill

Keterampilan untuk membagi string menjadi potongan teks.

SqlIntegratedChangeTrackingPolicy

Menentukan kebijakan deteksi perubahan data yang menangkap perubahan menggunakan fitur Pelacakan Perubahan Terintegrasi dari Azure SQL Database.

StemmerOverrideTokenFilter

Menyediakan kemampuan untuk mengambil alih filter stemming lain dengan stemming berbasis kamus kustom. Istilah apa pun yang bertangkai kamus akan ditandai sebagai kata kunci sehingga tidak akan dibendung dengan stemmer di bawah rantai. Harus ditempatkan sebelum filter stemming. Filter token ini diimplementasikan menggunakan Apache Lucene.

StemmerTokenFilter

Filter stemming khusus bahasa. Filter token ini diimplementasikan menggunakan Apache Lucene.

StopAnalyzer

Membagi teks pada non-huruf; Menerapkan filter token huruf kecil dan stopword. Penganalisis ini diimplementasikan menggunakan Apache Lucene.

StopwordsTokenFilter

Menghapus kata berhenti dari aliran token. Filter token ini diimplementasikan menggunakan Apache Lucene.

SuggestDocumentsResult

Respons yang berisi hasil kueri saran dari indeks.

SuggestRequest

Parameter untuk pemfilteran, pengurutan, pencocokan fuzzy, dan perilaku kueri saran lainnya.

SynonymMap

Mewakili definisi peta sinonim.

SynonymTokenFilter

Cocok dengan sinonim tunggal atau multi-kata dalam aliran token. Filter token ini diimplementasikan menggunakan Apache Lucene.

TagScoringFunction

Menentukan fungsi yang meningkatkan skor dokumen dengan nilai string yang cocok dengan daftar tag tertentu.

TagScoringParameters

Menyediakan nilai parameter ke fungsi penilaian tag.

TextTranslationSkill

Keterampilan untuk menerjemahkan teks dari satu bahasa ke bahasa lain.

TextWeights

Menentukan bobot pada bidang indeks yang kecocokannya harus meningkatkan penilaian dalam kueri pencarian.

TruncateTokenFilter

Memotong istilah ke panjang tertentu. Filter token ini diimplementasikan menggunakan Apache Lucene.

UaxUrlEmailTokenizer

Tokenisasi url dan email sebagai satu token. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

UniqueTokenFilter

Memfilter token dengan teks yang sama dengan token sebelumnya. Filter token ini diimplementasikan menggunakan Apache Lucene.

VectorSearch

Berisi opsi konfigurasi yang terkait dengan pencarian vektor.

VectorSearchOptions

Menentukan opsi untuk kueri pencarian vektor

VectorSearchProfile

Menentukan kombinasi konfigurasi yang akan digunakan dengan pencarian vektor.

VectorizableTextQuery

Parameter kueri yang digunakan untuk pencarian vektor saat nilai teks yang perlu di-vektorisasi disediakan.

VectorizedQuery

Parameter kueri yang digunakan untuk pencarian vektor saat nilai vektor mentah disediakan.

WebApiParameters

Menentukan properti untuk menyambungkan ke vektorizer yang ditentukan pengguna.

WebApiSkill

Keterampilan yang dapat memanggil titik akhir API Web, memungkinkan Anda memperluas set keterampilan dengan memanggil kode kustom Anda.

WebApiVectorizer

Menentukan vektorizer yang ditentukan pengguna untuk menghasilkan penyematan vektor string kueri. Integrasi vektorizer eksternal dicapai menggunakan antarmuka API Web kustom dari set keterampilan.

WordDelimiterTokenFilter

Membagi kata menjadi subkata dan melakukan transformasi opsional pada grup subkata. Filter token ini diimplementasikan menggunakan Apache Lucene.

Alias Jenis

AnalyzeTextOptions

Opsi untuk menganalisis operasi teks.

AutocompleteMode

Menentukan nilai untuk AutocompleteMode.

AutocompleteOptions

Opsi untuk mengambil teks penyelesaian untuk searchText parsial.

AzureOpenAIModelName

Menentukan nilai untuk AzureOpenAIModelName.
KnownAzureOpenAIModelName dapat digunakan secara bergantian dengan AzureOpenAIModelName, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

penyematan teks-ada-002
teks-penyematan 3 besar
penyematan teks-3-kecil

BlobIndexerDataToExtract
BlobIndexerImageAction
BlobIndexerPDFTextRotationAlgorithm
BlobIndexerParsingMode
CharFilter

Berisi kemungkinan kasus untuk CharFilter.

CharFilterName

Menentukan nilai untuk CharFilterName.
<xref:KnownCharFilterName> dapat digunakan secara bergantian dengan CharFilterName, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

html_strip: Filter karakter yang mencoba menghapus konstruksi HTML. Lihat https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Menentukan nilai untuk CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Berisi kemungkinan kasus untuk CognitiveServicesAccount.

ComplexDataType

Menentukan nilai untuk ComplexDataType. Nilai yang mungkin termasuk: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Opsi untuk melakukan operasi penghitungan pada indeks.

CreateDataSourceConnectionOptions

Opsi untuk membuat operasi sumber data.

CreateIndexOptions

Opsi untuk membuat operasi indeks.

CreateIndexerOptions

Opsi untuk membuat operasi pengindeks.

CreateSkillsetOptions

Opsi untuk membuat operasi skillset.

CreateSynonymMapOptions

Opsi untuk membuat operasi sinonim.

CustomEntityLookupSkillLanguage
DataChangeDetectionPolicy

Berisi kemungkinan kasus untuk DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Berisi kemungkinan kasus untuk DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opsi untuk operasi hapus dokumen.

EdgeNGramTokenFilterSide

Menentukan nilai untuk EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage
ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Berisi opsi konfigurasi khusus untuk algoritma KNN lengkap yang digunakan selama kueri, yang akan melakukan pencarian brute-force di seluruh indeks vektor.

ExtractDocumentKey
GetDataSourceConnectionOptions

Opsi untuk mendapatkan operasi sumber data.

GetIndexOptions

Opsi untuk mendapatkan operasi indeks.

GetIndexStatisticsOptions

Opsi untuk mendapatkan operasi statistik indeks.

GetIndexerOptions

Opsi untuk mendapatkan operasi pengindeks.

GetIndexerStatusOptions

Opsi untuk mendapatkan operasi status pengindeks.

GetServiceStatisticsOptions

Opsi untuk mendapatkan operasi statistik layanan.

GetSkillSetOptions

Opsi untuk mendapatkan operasi skillset.

GetSynonymMapsOptions

Opsi untuk mendapatkan operasi sinonim.

HnswAlgorithmConfiguration

Berisi opsi konfigurasi khusus untuk perkiraan algoritma tetangga terdekat hnsw yang digunakan selama waktu pengindeksan.

ImageAnalysisSkillLanguage
ImageDetail
IndexActionType

Menentukan nilai untuk IndexActionType.

IndexDocumentsAction

Mewakili tindakan indeks yang beroperasi pada dokumen.

IndexIterator

Iterator untuk mencantumkan indeks yang ada di layanan Pencarian. Akan membuat permintaan sesuai kebutuhan selama iterasi. Gunakan .byPage() untuk membuat satu permintaan ke server per iterasi.

IndexNameIterator

Iterator untuk mencantumkan indeks yang ada di layanan Pencarian. Akan membuat permintaan sesuai kebutuhan selama iterasi. Gunakan .byPage() untuk membuat satu permintaan ke server per iterasi.

IndexProjectionMode

Menentukan nilai untuk IndexProjectionMode.
KnownIndexProjectionMode dapat digunakan secara bergantian dengan IndexProjectionMode, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

skipIndexingParentDocuments: Dokumen sumber akan dilewati dari penulisan ke indeks target pengindeks.
menyertakanIndexingParentDocuments: Dokumen sumber akan ditulis ke dalam indeks target pengindeks. Ini adalah pola default.

IndexerExecutionEnvironment
IndexerExecutionStatus

Menentukan nilai untuk IndexerExecutionStatus.

IndexerStatus

Menentukan nilai untuk IndexerStatus.

KeyPhraseExtractionSkillLanguage
LexicalAnalyzer

Berisi kemungkinan kasus untuk Analyzer.

LexicalAnalyzerName

Menentukan nilai untuk LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> dapat digunakan secara bergantian dengan LexicalAnalyzerName, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

ar.microsoft: Penganalisis Microsoft untuk Bahasa Arab.
ar.lucene: Penganalisis Lucene untuk bahasa Arab.
hy.lucene : Penganalisis Lucene untuk Armenia.
bn.microsoft: Penganalisis Microsoft untuk Bangla.
eu.lucene : Penganalisis Lucene untuk Basque.
bg.microsoft: Penganalisis Microsoft untuk bahasa Bulgaria.
bg.lucene : Penganalisis Lucene untuk bahasa Bulgaria.
ca.microsoft: Penganalisis Microsoft untuk Catalan.
ca.lucene: Penganalisis Lucene untuk Catalan.
zh-Hans.microsoft: Penganalisis Microsoft untuk Bahasa Tionghoa (Disederhanakan).
zh-Hans.lucene: Penganalisis Lucene untuk Bahasa Tionghoa (Sederhana).
zh-Hant.microsoft: Penganalisis Microsoft untuk Bahasa Tionghoa (Tradisional).
zh-Hant.lucene : Penganalisis Lucene untuk Bahasa Tionghoa (Tradisional).
hr.microsoft: Penganalisis Microsoft untuk bahasa Kroasia.
cs.microsoft: Penganalisis Microsoft untuk Ceko.
cs.lucene : Penganalisis Lucene untuk Ceko.
da.microsoft: Penganalisis Microsoft untuk Bahasa Denmark.
da.lucene : Penganalisis Lucene untuk Bahasa Denmark.
nl.microsoft: Penganalisis Microsoft untuk Bahasa Belanda.
nl.lucene: Penganalisis Lucene untuk Bahasa Belanda.
en.microsoft: Penganalisis Microsoft untuk bahasa Inggris.
en.lucene : Penganalisis Lucene untuk bahasa Inggris.
et.microsoft: Penganalisis Microsoft untuk Bahasa Estonia.
fi.microsoft: Penganalisis Microsoft untuk bahasa Finlandia.
fi.lucene : Penganalisis Lucene untuk bahasa Finlandia.
fr.microsoft: Penganalisis Microsoft untuk bahasa Prancis.
fr.lucene: Penganalisis Lucene untuk bahasa Prancis.
gl.lucene: Penganalisis Lucene untuk Galician.
de.microsoft: Penganalisis Microsoft untuk bahasa Jerman.
de.lucene: Lucene analyzer untuk bahasa Jerman.
el.microsoft: Microsoft analyzer for Greek.
el.lucene: Penganalisis Lucene untuk bahasa Yunani.
gu.microsoft: Microsoft analyzer for Gujarati.
he.microsoft: Penganalisis Microsoft untuk Ibrani.
hi.microsoft: Penganalisis Microsoft untuk Hindi.
hi.lucene: Penganalisis Lucene untuk Bahasa Hindi.
hu.microsoft: Penganalisis Microsoft untuk Hungaria.
hu.lucene : Penganalisis Lucene untuk Hungaria.
is.microsoft: Penganalisis Microsoft untuk Islandia.
id.microsoft: Microsoft analyzer for Indonesian (Bahasa Indonesia).
id.lucene: Penganalisis Lucene untuk bahasa Indonesia.
ga.lucene : Penganalisis Lucene untuk Irlandia.
it.microsoft: Penganalisis Microsoft untuk bahasa Italia.
it.lucene: Penganalisis Lucene untuk bahasa Italia.
ja.microsoft: Penganalisis Microsoft untuk bahasa Jepang.
ja.lucene: Penganalisis Lucene untuk bahasa Jepang.
kn.microsoft: Penganalisis Microsoft untuk Kannada.
ko.microsoft: Microsoft analyzer for Korean.
ko.lucene: Penganalisis Lucene untuk bahasa Korea.
lv.microsoft: Penganalisis Microsoft untuk Latvia.
lv.lucene: Penganalisis Lucene untuk Latvia.
lt.microsoft: Penganalisis Microsoft untuk Bahasa Lithuania.
ml.microsoft: Penganalisis Microsoft untuk Malayalam.
ms.microsoft: Microsoft analyzer for Malay (Latin).
mr.microsoft: Penganalisis Microsoft untuk Marathi.
nb.microsoft: Penganalisis Microsoft untuk Norwegia (Bokmål).
no.lucene : Penganalisis Lucene untuk Norwegia.
fa.lucene : Penganalisis Lucene untuk Persia.
pl.microsoft: Penganalisis Microsoft untuk Polandia.
pl.lucene: Penganalisis Lucene untuk Polandia.
pt-BR.microsoft: Penganalisis Microsoft untuk Portugis (Brasil).
pt-BR.lucene: Penganalisis Lucene untuk Portugis (Brasil).
pt-PT.microsoft: Microsoft analyzer for Portuguese (Portugal).
pt-PT.lucene: Penganalisis Lucene untuk Portugis (Portugal).
pa.microsoft: Microsoft analyzer for Punjabi.
ro.microsoft: Penganalisis Microsoft untuk Rumania.
ro.lucene: Penganalisis Lucene untuk bahasa Rumania.
ru.microsoft: Microsoft analyzer for Russian.
ru.lucene: Penganalisis Lucene untuk bahasa Rusia.
sr-cyrillic.microsoft: Penganalisis Microsoft untuk Serbia (Sirilik).
sr-latin.microsoft: Penganalisis Microsoft untuk Serbia (Latin).
sk.microsoft: Microsoft analyzer for Slovak.
sl.microsoft: Penganalisis Microsoft untuk Slovenia.
es.microsoft: Penganalisis Microsoft untuk Bahasa Spanyol.
es.lucene: Penganalisis Lucene untuk bahasa Spanyol.
sv.microsoft: Penganalisis Microsoft untuk Swedia.
sv.lucene : Penganalisis Lucene untuk Swedia.
ta.microsoft: Penganalisis Microsoft untuk Tamil.
te.microsoft: Penganalisis Microsoft untuk Telugu.
th.microsoft: Microsoft analyzer for Thai.
th.lucene: Penganalisis Lucene untuk Bahasa Thailand.
tr.microsoft: Penganalisis Microsoft untuk Turki.
tr.lucene: Penganalisis Lucene untuk Turki.
uk.microsoft: Penganalisis Microsoft untuk Ukraina.
your.microsoft : Penganalisis Microsoft untuk Urdu.
vi.microsoft: Microsoft analyzer untuk bahasa Vietnam.
standard.lucene : Penganalisis Lucene Standar.
standardasciifolding.lucene: Penganalisis Lucene Lipat ASCII Standar. Lihat https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
kata kunci: Memperlakukan seluruh konten bidang sebagai token tunggal. Ini berguna untuk data seperti kode pos, id, dan beberapa nama produk. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
pola: Secara fleksibel memisahkan teks menjadi istilah melalui pola ekspresi reguler. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
sederhana : Membagi teks pada non-huruf dan mengonversinya menjadi huruf kecil. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
menghentikan: Membagi teks pada non-huruf; Menerapkan filter token huruf kecil dan stopword. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
spasi putih: Penganalisis yang menggunakan tokenizer spasi putih. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Berisi kemungkinan kasus untuk Tokenizer.

LexicalTokenizerName

Menentukan nilai untuk LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> dapat digunakan secara bergantian dengan LexicalTokenizerName, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

klasik : Tokenizer berbasis tata bahasa yang cocok untuk memproses sebagian besar dokumen berbahasa Eropa. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: Tokenisasi input dari tepi ke dalam n-gram ukuran yang diberikan. Lihat https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: Memancarkan seluruh input sebagai token tunggal. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
huruf: Membagi teks pada non-huruf. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
huruf kecil: Membagi teks pada non-huruf dan mengonversinya menjadi huruf kecil. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: Membagi teks menggunakan aturan khusus bahasa.
microsoft_language_stemming_tokenizer: Membagi teks menggunakan aturan khusus bahasa dan mengurangi kata-kata ke formulir dasarnya.
nGram: Tokenisasi input ke dalam n-gram dari ukuran yang diberikan. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer untuk hierarki seperti jalur. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
pola: Tokenizer yang menggunakan pencocokan pola regex untuk membangun token yang berbeda. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Penganalisis Lucene Standar; Terdiri dari tokenizer standar, filter huruf kecil, dan filter berhenti. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokenisasi url dan email sebagai satu token. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
spasi putih : Membagi teks di spasi kosong. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Opsi untuk operasi sumber data daftar.

ListIndexersOptions

Opsi untuk operasi pengindeks daftar.

ListIndexesOptions

Opsi untuk operasi indeks daftar.

ListSkillsetsOptions

Opsi untuk operasi set keterampilan daftar.

ListSynonymMapsOptions

Opsi untuk operasi daftar synonymMaps.

MergeDocumentsOptions

Opsi untuk operasi gabungkan dokumen.

MergeOrUploadDocumentsOptions

Opsi untuk operasi gabungkan atau unggah dokumen.

MicrosoftStemmingTokenizerLanguage

Menentukan nilai untuk MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Menentukan nilai untuk MicrosoftTokenizerLanguage.

NarrowedModel

Mempersempit jenis Model untuk hanya menyertakan Bidang yang dipilih

OcrLineEnding

Menentukan nilai untuk OcrLineEnding.
KnownOcrLineEnding dapat digunakan secara bergantian dengan OcrLineEnding, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

spasi: Garis dipisahkan oleh satu karakter spasi.
carriageReturn: Garis dipisahkan oleh karakter carriage return ('\r').
lineFeed: Garis dipisahkan oleh satu karakter umpan baris ('\n').
carriageReturnLineFeed: Garis dipisahkan oleh pengembalian pengangkutan dan karakter umpan baris ('\r\n').

OcrSkillLanguage
PIIDetectionSkillMaskingMode
PhoneticEncoder

Menentukan nilai untuk PhoneticEncoder.

QueryAnswer

Nilai yang menentukan apakah jawaban harus dikembalikan sebagai bagian dari respons pencarian. Parameter ini hanya valid jika jenis kueri adalah 'semantik'. Jika diatur ke extractive, kueri mengembalikan jawaban yang diekstrak dari bagian kunci dalam dokumen berperingkat tertinggi.

QueryCaption

Nilai yang menentukan apakah keterangan harus dikembalikan sebagai bagian dari respons pencarian. Parameter ini hanya valid jika jenis kueri adalah 'semantik'. Jika diatur, kueri mengembalikan keterangan yang diekstrak dari bagian kunci dalam dokumen berperingkat tertinggi. Saat Keterangan adalah 'ekstraktif', penyorotan diaktifkan secara default. Default ke 'tidak ada'.

QueryType

Menentukan nilai untuk QueryType.

RegexFlags
ResetIndexerOptions

Opsi untuk mengatur ulang operasi pengindeks.

RunIndexerOptions

Opsi untuk menjalankan operasi pengindeks.

ScoringFunction

Berisi kemungkinan kasus untuk ScoringFunction.

ScoringFunctionAggregation

Menentukan nilai untuk ScoringFunctionAggregation.

ScoringFunctionInterpolation

Menentukan nilai untuk ScoringFunctionInterpolation.

ScoringStatistics

Menentukan nilai untuk ScoringStatistics.

SearchField

Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang.

SearchFieldArray

Jika TModel adalah objek yang tidak dititik, array untyped Jika tidak, bidang yang dibatasi garis miring TModel.

SearchFieldDataType

Menentukan nilai untuk SearchFieldDataType.

Nilai yang diketahui didukung oleh layanan:

Edm.String: Menunjukkan bahwa bidang berisi string.

Edm.Int32: Menunjukkan bahwa bidang berisi bilangan bulat bertanda tangan 32-bit.

Edm.Int64: Menunjukkan bahwa bidang berisi bilangan bulat bertanda tangan 64-bit.

Edm.Double: Menunjukkan bahwa bidang berisi nomor titik mengambang presisi ganda IEEE.

Edm.Boolean: Menunjukkan bahwa bidang berisi nilai Boolean (benar atau salah).

Edm.DateTimeOffset: Menunjukkan bahwa bidang berisi nilai tanggal/waktu, termasuk informasi zona waktu.

Edm.GeographyPoint: Menunjukkan bahwa bidang berisi lokasi geografis dalam hal garis bujur dan lintang.

Edm.ComplexType: Menunjukkan bahwa bidang berisi satu atau beberapa objek kompleks yang pada gilirannya memiliki sub-bidang dari jenis lain.

Edm.Single: Menunjukkan bahwa bidang berisi angka titik mengambang presisi tunggal. Ini hanya valid ketika digunakan sebagai bagian dari jenis koleksi, yaitu Collection(Edm.Single).

Edm.Half: Menunjukkan bahwa bidang berisi angka titik mengambang setengah presisi. Ini hanya valid ketika digunakan sebagai bagian dari jenis koleksi, yaitu Collection(Edm.Half).

Edm.Int16: Menunjukkan bahwa bidang berisi bilangan bulat bertanda 16-bit. Ini hanya valid ketika digunakan sebagai bagian dari jenis koleksi, yaitu Collection(Edm.Int16).

Edm.SByte: Menunjukkan bahwa bidang berisi bilangan bulat bertanda tangan 8-bit. Ini hanya valid ketika digunakan sebagai bagian dari jenis koleksi, yaitu Collection(Edm.SByte).

Edm.Byte: Menunjukkan bahwa bidang berisi bilangan bulat yang tidak ditandatangani 8-bit. Ini hanya valid ketika digunakan sebagai bagian dari jenis koleksi, yaitu Collection(Edm.Byte).

SearchIndexerDataIdentity

Berisi kemungkinan kasus untuk SearchIndexerDataIdentity.

SearchIndexerDataSourceType
SearchIndexerSkill

Berisi kemungkinan kasus untuk Keterampilan.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opsi untuk SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opsi untuk SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opsi untuk SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opsi untuk SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opsi untuk SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Iterator untuk hasil pencarian kueri paticular. Akan membuat permintaan sesuai kebutuhan selama iterasi. Gunakan .byPage() untuk membuat satu permintaan ke server per iterasi.

SearchMode

Menentukan nilai untuk SearchMode.

SearchOptions

Opsi untuk menerapkan permintaan pencarian lengkap.

SearchPick

Pilih bidang T dengan mendalam menggunakan jalur $select OData Cognitive Search yang valid.

SearchRequestOptions

Parameter untuk pemfilteran, pengurutan, faset, penomoran halaman, dan perilaku kueri pencarian lainnya.

SearchRequestQueryTypeOptions
SearchResult

Berisi dokumen yang ditemukan oleh kueri pencarian, ditambah metadata terkait.

SelectArray

Jika TFields tidak pernah, array string yang tidak diketik Jika tidak, jenis Fields[] yang dipersempit untuk digunakan di tempat lain dalam jenis penggunaan.

SelectFields

Menghasilkan penyatuan jalur $select OData Cognitive Search yang valid untuk T menggunakan traversal pasca-urutan pohon bidang yang berakar pada T.

SemanticErrorMode
SemanticErrorReason
SemanticSearchResultsType
SentimentSkillLanguage
SimilarityAlgorithm

Berisi kemungkinan kasus untuk Kesamaan.

SnowballTokenFilterLanguage

Menentukan nilai untuk SnowballTokenFilterLanguage.

SplitSkillLanguage
StemmerTokenFilterLanguage

Menentukan nilai untuk StemmerTokenFilterLanguage.

StopwordsList

Menentukan nilai untuk StopwordsList.

SuggestNarrowedModel
SuggestOptions

Opsi untuk mengambil saran berdasarkan searchText.

SuggestResult

Hasil yang berisi dokumen yang ditemukan oleh kueri saran, ditambah metadata terkait.

TextSplitMode
TextTranslationSkillLanguage
TokenCharacterKind

Menentukan nilai untuk TokenCharacterKind.

TokenFilter

Berisi kemungkinan kasus untuk TokenFilter.

TokenFilterName

Menentukan nilai untuk TokenFilterName.
<xref:KnownTokenFilterName> dapat digunakan secara bergantian dengan TokenFilterName, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

arabic_normalization: Filter token yang menerapkan normalizer Arab untuk menormalkan ortografi. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrof: Strip semua karakter setelah apostrof (termasuk apostrof itu sendiri). Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding : Mengonversi karakter Unicode alfabet, numerik, dan simbolis yang tidak ada dalam 127 karakter ASCII pertama (blok Unicode "Dasar Latin") ke dalam ekuivalen ASCII mereka, jika setara tersebut ada. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: Membentuk bigram istilah CJK yang dihasilkan dari tokenizer standar. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: Menormalkan perbedaan lebar CJK. Melipat varian ASCII fullwidth ke dalam varian Katakana dasar yang setara, dan Katakana lebar setengah ke dalam Kana yang setara. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
klasik: Menghilangkan posesif bahasa Inggris, dan titik-titik dari akronim. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: Buat bigram untuk istilah yang sering terjadi saat pengindeksan. Istilah tunggal masih diindeks juga, dengan bigram dilapisi. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: Menghasilkan n-gram dari ukuran yang diberikan mulai dari depan atau belakang token input. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elisi : Menghapus elisi. Misalnya, "l'avion" (bidang) akan dikonversi menjadi "avion" (bidang). Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Menormalkan karakter Jerman sesuai dengan heuristik algoritma bola salju Jerman2. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: Menormalkan teks dalam bahasa Hindi untuk menghapus beberapa perbedaan dalam variasi ejaan. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: Menormalkan representasi Unicode teks dalam bahasa India. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: Memancarkan setiap token masuk dua kali, sekali sebagai kata kunci dan sekali sebagai non-kata kunci. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: Filter kstem berkinerja tinggi untuk bahasa Inggris. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
panjang: Menghapus kata-kata yang terlalu panjang atau terlalu pendek. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
batas: Membatasi jumlah token saat mengindeks. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
huruf kecil : Menormalkan teks token ke huruf kecil. Lihat https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html
nGram_v2: Menghasilkan n-gram dari ukuran yang diberikan. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Menerapkan normalisasi untuk Persia. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetik: Buat token untuk kecocokan fonetik. Lihat https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: Menggunakan algoritma stemming Porter untuk mengubah aliran token. Lihat http://tartarus.org/~martin/PorterStemmer
terbalik : Membalikkan string token. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Menormalkan penggunaan karakter Skandinavia yang dapat dipertukarkan. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Melipat karakter Skandinavia åÅäæÄÆ->dan öÖøØ->o. Ini juga mendiskriminasi penggunaan vokal ganda aa, ae, ao, oe dan oo, hanya meninggalkan yang pertama. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle : Membuat kombinasi token sebagai token tunggal. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
bola salju: Filter yang membendung kata-kata menggunakan stemmer yang dihasilkan Snowball. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: Menormalkan representasi Unicode dari teks Sorani. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: Filter stemming khusus bahasa. Lihat https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
stopwords: Menghapus kata berhenti dari aliran token. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
pangkas: Memangkas spasi putih di depan dan di belakang dari token. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
memotong: Memotong istilah ke panjang tertentu. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unik : Memfilter token dengan teks yang sama dengan token sebelumnya. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
huruf besar : Menormalkan teks token ke huruf besar. Lihat https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: Membagi kata menjadi subkata dan melakukan transformasi opsional pada grup subkata.

UnionToIntersection
UploadDocumentsOptions

Opsi untuk operasi unggah dokumen.

VectorEncodingFormat

Menentukan nilai untuk VectorEncodingFormat.
KnownVectorEncodingFormat dapat digunakan secara bergantian dengan VectorEncodingFormat, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

packedBit: Format pengodean yang mewakili bit yang dikemas ke dalam jenis data yang lebih luas.

VectorFilterMode
VectorQuery

Parameter kueri untuk kueri pencarian vektor dan hibrid.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Berisi opsi konfigurasi khusus untuk algoritma yang digunakan selama pengindeksan dan/atau kueri.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric
VectorSearchCompression

Berisi opsi konfigurasi khusus untuk metode pemadatan yang digunakan selama pengindeksan atau kueri.

VectorSearchCompressionKind

Menentukan nilai untuk VectorSearchCompressionKind.
KnownVectorSearchCompressionKind dapat digunakan secara bergantian dengan VectorSearchCompressionKind, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

skalarQuantization: Kuantisasi Skalar, jenis metode kompresi. Dalam kuantisasi skalar, nilai vektor asli dikompresi ke jenis yang lebih sempit dengan membedakan dan mewakili setiap komponen vektor menggunakan sekumpulan nilai terkuantisasi yang dikurangi, sehingga mengurangi ukuran data keseluruhan.
binaryQuantization: Kuantisasi Biner, jenis metode kompresi. Dalam kuantisasi biner, nilai vektor asli dikompresi ke jenis biner yang lebih sempit dengan membedakan dan mewakili setiap komponen vektor menggunakan nilai biner, sehingga mengurangi ukuran data keseluruhan.

VectorSearchCompressionTarget

Menentukan nilai untuk VectorSearchCompressionTarget.
KnownVectorSearchCompressionTarget dapat digunakan secara bergantian dengan VectorSearchCompressionTarget, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

int8

VectorSearchVectorizer

Berisi opsi konfigurasi tentang cara mem-vektorisasi kueri vektor teks.

VectorSearchVectorizerKind

Menentukan nilai untuk VectorSearchVectorizerKind.
KnownVectorSearchVectorizerKind dapat digunakan secara bergantian dengan VectorSearchVectorizerKind, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

azureOpenAI: Hasilkan penyematan menggunakan sumber daya Azure OpenAI pada waktu kueri.
customWebApi: Hasilkan penyematan menggunakan titik akhir web kustom pada waktu kueri.

VisualFeature

Enum

KnownAnalyzerNames

Menentukan nilai untuk AnalyzerName. Lihat https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownAzureOpenAIModelName

Nilai yang diketahui dari AzureOpenAIModelName yang diterima layanan.

KnownBlobIndexerDataToExtract

Nilai blobIndexerDataToExtract yang diterima layanan.

KnownBlobIndexerImageAction

Nilai yang diketahui dari BlobIndexerImageAction yang diterima layanan.

KnownBlobIndexerPDFTextRotationAlgorithm

Nilai yang diketahui dari BlobIndexerPDFTextRotationAlgorithm yang diterima layanan.

KnownBlobIndexerParsingMode

Nilai blobIndexerParsingMode yang diketahui yang diterima layanan.

KnownCharFilterNames

Nilai yang diketahui dari CharFilterName yang diterima layanan.

KnownCustomEntityLookupSkillLanguage

Nilai yang diketahui dari CustomEntityLookupSkillLanguage yang diterima layanan.

KnownEntityCategory

Nilai yang diketahui dari EntityCategory yang diterima layanan.

KnownEntityRecognitionSkillLanguage

Nilai yang diketahui dari EntityRecognitionSkillLanguage yang diterima layanan.

KnownImageAnalysisSkillLanguage

Nilai yang diketahui dari ImageAnalysisSkillLanguage yang diterima layanan.

KnownImageDetail

Nilai yang diketahui dari ImageDetail yang diterima layanan.

KnownIndexProjectionMode

Nilai yang diketahui dari IndexProjectionMode yang diterima layanan.

KnownIndexerExecutionEnvironment

Nilai yang diketahui dari IndexerExecutionEnvironment yang diterima layanan.

KnownKeyPhraseExtractionSkillLanguage

Nilai yang diketahui dari KeyPhraseExtractionSkillLanguage yang diterima layanan.

KnownOcrLineEnding

Nilai yang diketahui OcrLineEnding yang diterima layanan.

KnownOcrSkillLanguage

Nilai yang diketahui dari OcrSkillLanguage yang diterima layanan.

KnownPIIDetectionSkillMaskingMode

Nilai yang diketahui dari PIIDetectionSkillMaskingMode yang diterima layanan.

KnownRegexFlags

Nilai yang diketahui dari RegexFlags yang diterima layanan.

KnownSearchAudience

Nilai yang diketahui untuk Audiens Pencarian

KnownSearchFieldDataType

Nilai yang diketahui dari SearchFieldDataType yang diterima layanan.

KnownSearchIndexerDataSourceType

Nilai yang diketahui dari SearchIndexerDataSourceType yang diterima layanan.

KnownSemanticErrorMode

Nilai SemanticErrorMode yang diketahui yang diterima layanan.

KnownSemanticErrorReason

Nilai yang diketahui dari SemanticErrorReason yang diterima layanan.

KnownSemanticSearchResultsType

Nilai yang diketahui dari SemanticSearchResultsType yang diterima layanan.

KnownSentimentSkillLanguage

Nilai yang diketahui dari SentimentSkillLanguage yang diterima layanan.

KnownSplitSkillLanguage

Nilai yang diketahui dari SplitSkillLanguage yang diterima layanan.

KnownTextSplitMode

Nilai yang diketahui dari TextSplitMode yang diterima layanan.

KnownTextTranslationSkillLanguage

Nilai yang diketahui dari TextTranslationSkillLanguage yang diterima layanan.

KnownTokenFilterNames

Nilai yang diketahui dari TokenFilterName yang diterima layanan.

KnownTokenizerNames

Nilai yang diketahui dari LexicalTokenizerName yang diterima layanan.

KnownVectorEncodingFormat

Nilai yang diketahui dari VectorEncodingFormat yang diterima layanan.

KnownVectorFilterMode

Nilai yang diketahui dari VectorFilterMode yang diterima layanan.

KnownVectorQueryKind

Nilai yang diketahui dari VectorQueryKind yang diterima layanan.

KnownVectorSearchAlgorithmKind

Nilai yang diketahui dari VectorSearchAlgorithmKind yang diterima layanan.

KnownVectorSearchAlgorithmMetric

Nilai yang diketahui dari VectorSearchAlgorithmMetric yang diterima layanan.

KnownVectorSearchCompressionKind

Nilai yang diketahui dari VectorSearchCompressionKind yang diterima layanan.

KnownVectorSearchCompressionTarget

Nilai yang diketahui dari VectorSearchCompressionTarget yang diterima layanan.

KnownVectorSearchVectorizerKind

Nilai yang diketahui dari VectorSearchVectorizerKind yang diterima layanan.

KnownVisualFeature

Nilai yang diketahui dari VisualFeature yang diterima layanan.

Fungsi

createSynonymMapFromFile(string, string)

Metode pembantu untuk membuat objek SynonymMap. Ini adalah metode khusus NodeJS.

odata(TemplateStringsArray, unknown[])

Lolos dari ekspresi filter odata untuk menghindari kesalahan dengan mengutip literal string. Contoh penggunaan:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Untuk informasi selengkapnya tentang sintaks yang didukung, lihat: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Detail Fungsi

createSynonymMapFromFile(string, string)

Metode pembantu untuk membuat objek SynonymMap. Ini adalah metode khusus NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parameter

name

string

Nama SynonymMap.

filePath

string

Jalur file yang berisi Sinonim (dipisahkan oleh baris baru)

Mengembalikan

Promise<SynonymMap>

Objek SynonymMap

odata(TemplateStringsArray, unknown[])

Lolos dari ekspresi filter odata untuk menghindari kesalahan dengan mengutip literal string. Contoh penggunaan:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Untuk informasi selengkapnya tentang sintaks yang didukung, lihat: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parameter

strings

TemplateStringsArray

Array string untuk ekspresi

values

unknown[]

Array nilai untuk ekspresi

Mengembalikan

string