Bagikan melalui


Indexes - Create Or Update

Membuat indeks pencarian baru atau memperbarui indeks jika sudah ada.

PUT {endpoint}/indexes('{indexName}')?api-version=2023-11-01
PUT {endpoint}/indexes('{indexName}')?allowIndexDowntime={allowIndexDowntime}&api-version=2023-11-01

Parameter URI

Nama Dalam Diperlukan Jenis Deskripsi
endpoint
path True

string

URL titik akhir layanan pencarian.

indexName
path True

string

Definisi indeks yang akan dibuat atau diperbarui.

api-version
query True

string

Versi Api Klien.

allowIndexDowntime
query

boolean

Memungkinkan penganalisis, tokenizer, filter token, atau filter karakter baru ditambahkan ke indeks dengan membuat indeks offline setidaknya selama beberapa detik. Ini untuk sementara menyebabkan pengindeksan dan permintaan kueri gagal. Performa dan ketersediaan tulis indeks dapat terganggu selama beberapa menit setelah indeks diperbarui, atau lebih lama untuk indeks yang sangat besar.

Header Permintaan

Nama Diperlukan Jenis Deskripsi
x-ms-client-request-id

string (uuid)

ID pelacakan yang dikirim dengan permintaan untuk membantu penelusuran kesalahan.

If-Match

string

Menentukan kondisi If-Match. Operasi akan dilakukan hanya jika ETag pada server cocok dengan nilai ini.

If-None-Match

string

Menentukan kondisi If-None-Match. Operasi akan dilakukan hanya jika ETag pada server tidak cocok dengan nilai ini.

Prefer True

string

Untuk permintaan HTTP PUT, menginstruksikan layanan untuk mengembalikan sumber daya yang dibuat/diperbarui saat berhasil.

Isi Permintaan

Nama Diperlukan Jenis Deskripsi
fields True

SearchField[]

Bidang indeks.

name True

string

Nama indeks.

@odata.etag

string

ETag indeks.

analyzers LexicalAnalyzer[]:

Penganalisis untuk indeks.

charFilters CharFilter[]:

Karakter memfilter indeks.

corsOptions

CorsOptions

Opsi untuk mengontrol Berbagi Sumber Daya Lintas Asal (CORS) untuk indeks.

defaultScoringProfile

string

Nama profil penilaian yang akan digunakan jika tidak ada yang ditentukan dalam kueri. Jika properti ini tidak diatur dan tidak ada profil penilaian yang ditentukan dalam kueri, maka penilaian default (tf-idf) akan digunakan.

encryptionKey

SearchResourceEncryptionKey

Deskripsi kunci enkripsi yang Anda buat di Azure Key Vault. Kunci ini digunakan untuk menyediakan tingkat enkripsi-tidak aktif tambahan untuk data Anda ketika Anda menginginkan jaminan penuh bahwa tidak ada yang, bahkan Microsoft, dapat mendekripsi data Anda. Setelah Anda mengenkripsi data Anda, data tersebut akan selalu tetap dienkripsi. Layanan pencarian akan mengabaikan upaya untuk mengatur properti ini ke null. Anda dapat mengubah properti ini sesuai kebutuhan jika Anda ingin memutar kunci enkripsi; Data Anda tidak akan terpengaruh. Enkripsi dengan kunci yang dikelola pelanggan tidak tersedia untuk layanan pencarian gratis, dan hanya tersedia untuk layanan berbayar yang dibuat pada atau setelah 1 Januari 2019.

scoringProfiles

ScoringProfile[]

Profil penilaian untuk indeks.

semantic

SemanticSettings

Menentukan parameter untuk indeks pencarian yang memengaruhi kemampuan semantik.

similarity Similarity:

Jenis algoritma kesamaan yang akan digunakan saat menilai dan memberi peringkat dokumen yang cocok dengan kueri pencarian. Algoritma kesamaan hanya dapat ditentukan pada waktu pembuatan indeks dan tidak dapat dimodifikasi pada indeks yang ada. Jika null, algoritma ClassicSimilarity digunakan.

suggesters

Suggester[]

Pemberi saran untuk indeks.

tokenFilters TokenFilter[]:

Token memfilter indeks.

tokenizers LexicalTokenizer[]:

Tokenizer untuk indeks.

vectorSearch

VectorSearch

Berisi opsi konfigurasi yang terkait dengan pencarian vektor.

Respons

Nama Jenis Deskripsi
200 OK

SearchIndex

201 Created

SearchIndex

Other Status Codes

SearchError

Respons kesalahan.

Contoh

SearchServiceCreateOrUpdateIndex

Permintaan sampel

PUT https://myservice.search.windows.net/indexes('hotels')?allowIndexDowntime=False&api-version=2023-11-01


{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "key": true,
      "searchable": false
    },
    {
      "name": "baseRate",
      "type": "Edm.Double"
    },
    {
      "name": "description",
      "type": "Edm.String",
      "filterable": false,
      "sortable": false,
      "facetable": false
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile",
      "searchable": true,
      "retrievable": true
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "filterable": false,
      "sortable": false,
      "facetable": false,
      "analyzer": "fr.lucene"
    },
    {
      "name": "hotelName",
      "type": "Edm.String"
    },
    {
      "name": "category",
      "type": "Edm.String"
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "analyzer": "tagsAnalyzer"
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean"
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean"
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset"
    },
    {
      "name": "rating",
      "type": "Edm.Int32"
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint"
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "type": "distance",
          "boost": 5,
          "fieldName": "location",
          "interpolation": "logarithmic",
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2"
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": null
  },
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.ClassicSimilarity"
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myExhaustive"
      }
    ],
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "m": 4,
          "metric": "cosine"
        }
      },
      {
        "name": "myExhaustive",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ]
  }
}

Respon sampel

{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "baseRate",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile",
      "synonymMaps": []
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "fr.lucene",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "hotelName",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": false,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "tagsAnalyzer",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "rating",
      "type": "Edm.Int32",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "type": "distance",
          "boost": 5,
          "fieldName": "location",
          "interpolation": "logarithmic",
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2"
    }
  ],
  "tokenizers": [],
  "tokenFilters": [],
  "charFilters": [],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": null
  },
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.ClassicSimilarity"
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "myExhaustive",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ],
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myExhaustive"
      }
    ]
  }
}
{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "baseRate",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile",
      "synonymMaps": []
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "fr.lucene",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "hotelName",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": false,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "tagsAnalyzer",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "rating",
      "type": "Edm.Int32",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "type": "distance",
          "boost": 5,
          "fieldName": "location",
          "interpolation": "logarithmic",
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2"
    }
  ],
  "tokenizers": [],
  "tokenFilters": [],
  "charFilters": [],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": null
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "myExhaustive",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ],
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myExhaustive"
      }
    ]
  }
}

Definisi

Nama Deskripsi
AsciiFoldingTokenFilter

Mengonversi karakter Unicode alfabet, numerik, dan simbolis yang tidak berada dalam 127 karakter ASCII pertama (blok Unicode "Latin Dasar" ke dalam setara ASCII mereka, jika setara tersebut ada. Filter token ini diimplementasikan menggunakan Apache Lucene.

AzureActiveDirectoryApplicationCredentials

Kredensial aplikasi terdaftar yang dibuat untuk layanan pencarian Anda, digunakan untuk akses terautentikasi ke kunci enkripsi yang disimpan di Azure Key Vault.

BM25Similarity

Fungsi peringkat berdasarkan algoritma kesamaan Okapi BM25. BM25 adalah algoritma seperti TF-IDF yang mencakup normalisasi panjang (dikontrol oleh parameter 'b') serta saturasi frekuensi istilah (dikontrol oleh parameter 'k1').

CharFilterName

Menentukan nama semua filter karakter yang didukung oleh mesin pencari.

CjkBigramTokenFilter

Membentuk bigram istilah CJK yang dihasilkan dari tokenizer standar. Filter token ini diimplementasikan menggunakan Apache Lucene.

CjkBigramTokenFilterScripts

Skrip yang dapat diabaikan oleh CjkBigramTokenFilter.

ClassicSimilarity

Algoritma kesamaan warisan yang menggunakan implementasi Lucene TFIDFSimilarity dari TF-IDF. Variasi TF-IDF ini memperkenalkan normalisasi panjang dokumen statis serta faktor koordinasi yang mengharuskan dokumen yang hanya sebagian cocok dengan kueri yang dicari.

ClassicTokenizer

Tokenizer berbasis tata bahasa yang cocok untuk memproses sebagian besar dokumen berbahasa Eropa. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

CommonGramTokenFilter

Buat bigram untuk istilah yang sering terjadi saat mengindeks. Istilah tunggal masih diindeks juga, dengan bigram dilapisi. Filter token ini diimplementasikan menggunakan Apache Lucene.

CorsOptions

Menentukan opsi untuk mengontrol Berbagi Sumber Daya Lintas Asal (CORS) untuk indeks.

CustomAnalyzer

Memungkinkan Anda mengambil kontrol atas proses konversi teks menjadi token yang dapat diindeks/dapat dicari. Ini adalah konfigurasi yang ditentukan pengguna yang terdiri dari satu tokenizer yang telah ditentukan sebelumnya dan satu atau beberapa filter. Tokenizer bertanggung jawab untuk memecah teks menjadi token, dan filter untuk memodifikasi token yang dipancarkan oleh tokenizer.

DictionaryDecompounderTokenFilter

Menguraikan kata-kata manyawa yang ditemukan dalam banyak bahasa Jermanik. Filter token ini diimplementasikan menggunakan Apache Lucene.

DistanceScoringFunction

Menentukan fungsi yang meningkatkan skor berdasarkan jarak dari lokasi geografis.

DistanceScoringParameters

Menyediakan nilai parameter ke fungsi penilaian jarak.

EdgeNGramTokenFilter

Menghasilkan n-gram dari ukuran yang diberikan mulai dari depan atau belakang token input. Filter token ini diimplementasikan menggunakan Apache Lucene.

EdgeNGramTokenFilterSide

Menentukan sisi input mana yang harus dihasilkan oleh n-gram.

EdgeNGramTokenFilterV2

Menghasilkan n-gram dari ukuran yang diberikan mulai dari depan atau belakang token input. Filter token ini diimplementasikan menggunakan Apache Lucene.

EdgeNGramTokenizer

Tokenisasi input dari tepi ke dalam n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

ElisionTokenFilter

Menghapus elisi. Misalnya, "l'avion" (bidang) akan dikonversi menjadi "avion" (bidang). Filter token ini diimplementasikan menggunakan Apache Lucene.

ExhaustiveKnnParameters

Berisi parameter khusus untuk algoritma KNN lengkap.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Berisi opsi konfigurasi khusus untuk algoritma KNN lengkap yang digunakan selama kueri, yang akan melakukan pencarian brute-force di seluruh indeks vektor.

FreshnessScoringFunction

Menentukan fungsi yang meningkatkan skor berdasarkan nilai bidang tanggal-waktu.

FreshnessScoringParameters

Menyediakan nilai parameter ke fungsi penilaian kesegaran.

HnswParameters

Berisi parameter khusus untuk algoritma HNSW.

HnswVectorSearchAlgorithmConfiguration

Berisi opsi konfigurasi khusus untuk HNSW perkiraan algoritma tetangga terdekat yang digunakan selama pengindeksan dan kueri. Algoritma HNSW menawarkan trade-off yang dapat disesuaikan antara kecepatan pencarian dan akurasi.

KeepTokenFilter

Filter token yang hanya menyimpan token dengan teks yang terkandung dalam daftar kata tertentu. Filter token ini diimplementasikan menggunakan Apache Lucene.

KeywordMarkerTokenFilter

Menandai istilah sebagai kata kunci. Filter token ini diimplementasikan menggunakan Apache Lucene.

KeywordTokenizer

Memancarkan seluruh input sebagai token tunggal. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

KeywordTokenizerV2

Memancarkan seluruh input sebagai token tunggal. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

LengthTokenFilter

Menghapus kata-kata yang terlalu panjang atau terlalu pendek. Filter token ini diimplementasikan menggunakan Apache Lucene.

LexicalAnalyzerName

Menentukan nama semua penganalisis teks yang didukung oleh mesin pencari.

LexicalTokenizerName

Menentukan nama semua tokenizer yang didukung oleh mesin pencari.

LimitTokenFilter

Membatasi jumlah token saat mengindeks. Filter token ini diimplementasikan menggunakan Apache Lucene.

LuceneStandardAnalyzer

Penganalisis Apache Lucene Standar; Terdiri dari tokenizer standar, filter huruf kecil, dan filter berhenti.

LuceneStandardTokenizer

Hentian teks mengikuti aturan Segmentasi Teks Unicode. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

LuceneStandardTokenizerV2

Hentian teks mengikuti aturan Segmentasi Teks Unicode. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

MagnitudeScoringFunction

Menentukan fungsi yang meningkatkan skor berdasarkan besarnya bidang numerik.

MagnitudeScoringParameters

Menyediakan nilai parameter ke fungsi penilaian besaran.

MappingCharFilter

Filter karakter yang menerapkan pemetaan yang ditentukan dengan opsi pemetaan. Pencocokan serakah (pencocokan pola terpanjang pada poin tertentu menang). Penggantian diperbolehkan menjadi string kosong. Filter karakter ini diimplementasikan menggunakan Apache Lucene.

MicrosoftLanguageStemmingTokenizer

Membagi teks menggunakan aturan khusus bahasa dan mengurangi kata-kata ke formulir dasarnya.

MicrosoftLanguageTokenizer

Membagi teks menggunakan aturan khusus bahasa.

MicrosoftStemmingTokenizerLanguage

Mencantumkan bahasa yang didukung oleh tokenizer stemming bahasa Microsoft.

MicrosoftTokenizerLanguage

Mencantumkan bahasa yang didukung oleh tokenizer bahasa Microsoft.

NGramTokenFilter

Menghasilkan n-gram dari ukuran yang diberikan. Filter token ini diimplementasikan menggunakan Apache Lucene.

NGramTokenFilterV2

Menghasilkan n-gram dari ukuran yang diberikan. Filter token ini diimplementasikan menggunakan Apache Lucene.

NGramTokenizer

Tokenisasi input ke dalam n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

PathHierarchyTokenizerV2

Tokenizer untuk hierarki seperti jalur. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

PatternAnalyzer

Secara fleksibel memisahkan teks menjadi istilah melalui pola ekspresi reguler. Penganalisis ini diimplementasikan menggunakan Apache Lucene.

PatternCaptureTokenFilter

Menggunakan regex Java untuk memancarkan beberapa token - satu untuk setiap grup pengambilan dalam satu atau beberapa pola. Filter token ini diimplementasikan menggunakan Apache Lucene.

PatternReplaceCharFilter

Filter karakter yang menggantikan karakter dalam string input. Ini menggunakan ekspresi reguler untuk mengidentifikasi urutan karakter untuk mempertahankan dan pola penggantian untuk mengidentifikasi karakter yang akan diganti. Misalnya, mengingat teks input "aa bb aa bb", pola "(aa)\s+(bb)", dan penggantian "$1#$2", hasilnya adalah "aa#bb aa#bb". Filter karakter ini diimplementasikan menggunakan Apache Lucene.

PatternReplaceTokenFilter

Filter karakter yang menggantikan karakter dalam string input. Ini menggunakan ekspresi reguler untuk mengidentifikasi urutan karakter untuk mempertahankan dan pola penggantian untuk mengidentifikasi karakter yang akan diganti. Misalnya, mengingat teks input "aa bb aa bb", pola "(aa)\s+(bb)", dan penggantian "$1#$2", hasilnya adalah "aa#bb aa#bb". Filter token ini diimplementasikan menggunakan Apache Lucene.

PatternTokenizer

Tokenizer yang menggunakan pencocokan pola regex untuk membangun token yang berbeda. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

PhoneticEncoder

Mengidentifikasi jenis encoder fonetik untuk digunakan dengan PhoneticTokenFilter.

PhoneticTokenFilter

Buat token untuk kecocokan fonetik. Filter token ini diimplementasikan menggunakan Apache Lucene.

PrioritizedFields

Menjelaskan bidang judul, konten, dan kata kunci yang akan digunakan untuk peringkat, keterangan, sorotan, dan jawaban semantik.

RegexFlags

Menentukan bendera yang dapat digabungkan untuk mengontrol bagaimana ekspresi reguler digunakan dalam penganalisis pola dan tokenizer pola.

ScoringFunctionAggregation

Menentukan fungsi agregasi yang digunakan untuk menggabungkan hasil semua fungsi penilaian dalam profil penilaian.

ScoringFunctionInterpolation

Menentukan fungsi yang digunakan untuk menginterpolasi peningkatan skor di berbagai dokumen.

ScoringProfile

Menentukan parameter untuk indeks pencarian yang memengaruhi penilaian dalam kueri pencarian.

SearchError

Menjelaskan kondisi kesalahan untuk API.

SearchField

Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang.

SearchFieldDataType

Menentukan tipe data bidang dalam indeks pencarian.

SearchIndex

Mewakili definisi indeks pencarian, yang menjelaskan bidang dan perilaku pencarian indeks.

SearchResourceEncryptionKey

Kunci enkripsi yang dikelola pelanggan di Azure Key Vault. Kunci yang Anda buat dan kelola dapat digunakan untuk mengenkripsi atau mendekripsi data tidak aktif di layanan pencarian Anda, seperti indeks dan peta sinonim.

SemanticConfiguration

Menentukan konfigurasi tertentu yang akan digunakan dalam konteks kemampuan semantik.

SemanticField

Bidang yang digunakan sebagai bagian dari konfigurasi semantik.

SemanticSettings

Menentukan parameter untuk indeks pencarian yang memengaruhi kemampuan semantik.

ShingleTokenFilter

Membuat kombinasi token sebagai token tunggal. Filter token ini diimplementasikan menggunakan Apache Lucene.

SnowballTokenFilter

Filter yang membendung kata-kata menggunakan stemmer yang dihasilkan Snowball. Filter token ini diimplementasikan menggunakan Apache Lucene.

SnowballTokenFilterLanguage

Bahasa yang digunakan untuk filter token Snowball.

StemmerOverrideTokenFilter

Menyediakan kemampuan untuk mengambil alih filter stemming lain dengan stemming berbasis kamus kustom. Istilah apa pun yang bertangkai kamus akan ditandai sebagai kata kunci sehingga tidak akan dibendung dengan stemmer di bawah rantai. Harus ditempatkan sebelum filter stemming. Filter token ini diimplementasikan menggunakan Apache Lucene.

StemmerTokenFilter

Filter stemming khusus bahasa. Filter token ini diimplementasikan menggunakan Apache Lucene.

StemmerTokenFilterLanguage

Bahasa yang digunakan untuk filter token stemmer.

StopAnalyzer

Membagi teks pada non-huruf; Menerapkan filter token huruf kecil dan stopword. Penganalisis ini diimplementasikan menggunakan Apache Lucene.

StopwordsList

Mengidentifikasi daftar stopword khusus bahasa yang telah ditentukan sebelumnya.

StopwordsTokenFilter

Menghapus kata berhenti dari aliran token. Filter token ini diimplementasikan menggunakan Apache Lucene.

Suggester

Menentukan bagaimana SUGGEST API harus berlaku untuk sekelompok bidang dalam indeks.

SuggesterSearchMode

Nilai yang menunjukkan kemampuan pemberi saran.

SynonymTokenFilter

Cocok dengan sinonim tunggal atau multi-kata dalam aliran token. Filter token ini diimplementasikan menggunakan Apache Lucene.

TagScoringFunction

Menentukan fungsi yang meningkatkan skor dokumen dengan nilai string yang cocok dengan daftar tag tertentu.

TagScoringParameters

Menyediakan nilai parameter ke fungsi penilaian tag.

TextWeights

Menentukan bobot pada bidang indeks yang kecocokannya harus meningkatkan penilaian dalam kueri pencarian.

TokenCharacterKind

Mewakili kelas karakter tempat filter token dapat beroperasi.

TokenFilterName

Menentukan nama semua filter token yang didukung oleh mesin pencari.

TruncateTokenFilter

Memotong istilah ke panjang tertentu. Filter token ini diimplementasikan menggunakan Apache Lucene.

UaxUrlEmailTokenizer

Tokenisasi url dan email sebagai satu token. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

UniqueTokenFilter

Memfilter token dengan teks yang sama dengan token sebelumnya. Filter token ini diimplementasikan menggunakan Apache Lucene.

VectorSearch

Berisi opsi konfigurasi yang terkait dengan pencarian vektor.

VectorSearchAlgorithmKind

Algoritma yang digunakan untuk pengindeksan dan kueri.

VectorSearchAlgorithmMetric

Metrik kesamaan yang digunakan untuk perbandingan vektor.

VectorSearchProfile

Menentukan kombinasi konfigurasi yang akan digunakan dengan pencarian vektor.

WordDelimiterTokenFilter

Membagi kata menjadi subkata dan melakukan transformasi opsional pada grup subkata. Filter token ini diimplementasikan menggunakan Apache Lucene.

AsciiFoldingTokenFilter

Mengonversi karakter Unicode alfabet, numerik, dan simbolis yang tidak berada dalam 127 karakter ASCII pertama (blok Unicode "Latin Dasar" ke dalam setara ASCII mereka, jika setara tersebut ada. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

Fragmen URI yang menentukan jenis filter token.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

preserveOriginal

boolean

False

Nilai yang menunjukkan apakah token asli akan disimpan. Defaultnya adalah false.

AzureActiveDirectoryApplicationCredentials

Kredensial aplikasi terdaftar yang dibuat untuk layanan pencarian Anda, digunakan untuk akses terautentikasi ke kunci enkripsi yang disimpan di Azure Key Vault.

Nama Jenis Deskripsi
applicationId

string

ID Aplikasi AAD yang diberikan izin akses yang diperlukan ke Azure Key Vault yang akan digunakan saat mengenkripsi data Anda tidak aktif. ID Aplikasi tidak boleh bingung dengan ID Objek untuk Aplikasi AAD Anda.

applicationSecret

string

Kunci autentikasi aplikasi AAD yang ditentukan.

BM25Similarity

Fungsi peringkat berdasarkan algoritma kesamaan Okapi BM25. BM25 adalah algoritma seperti TF-IDF yang mencakup normalisasi panjang (dikontrol oleh parameter 'b') serta saturasi frekuensi istilah (dikontrol oleh parameter 'k1').

Nama Jenis Deskripsi
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

b

number (double)

Properti ini mengontrol bagaimana panjang dokumen memengaruhi skor relevansi. Secara default, nilai 0,75 digunakan. Nilai 0,0 berarti tidak ada normalisasi panjang yang diterapkan, sementara nilai 1,0 berarti skor sepenuhnya dinormalisasi dengan panjang dokumen.

k1

number (double)

Properti ini mengontrol fungsi penskalaan antara frekuensi istilah setiap istilah yang cocok dan skor relevansi akhir pasangan kueri dokumen. Secara default, nilai 1.2 digunakan. Nilai 0,0 berarti skor tidak diskalakan dengan peningkatan frekuensi istilah.

CharFilterName

Menentukan nama semua filter karakter yang didukung oleh mesin pencari.

Nilai Deskripsi
html_strip

Filter karakter yang mencoba menghapus konstruksi HTML. Lihat https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilter

Membentuk bigram istilah CJK yang dihasilkan dari tokenizer standar. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

Fragmen URI yang menentukan jenis filter token.

ignoreScripts

CjkBigramTokenFilterScripts[]

Skrip yang akan diabaikan.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

outputUnigrams

boolean

False

Nilai yang menunjukkan apakah akan menghasilkan unigram dan bigram (jika benar), atau hanya bigram (jika salah). Defaultnya adalah false.

CjkBigramTokenFilterScripts

Skrip yang dapat diabaikan oleh CjkBigramTokenFilter.

Nilai Deskripsi
han

Abaikan skrip Han saat membentuk bigram istilah CJK.

hiragana

Abaikan skrip Hiragana saat membentuk bigram istilah CJK.

katakana

Abaikan skrip Katakana saat membentuk bigram istilah CJK.

hangul

Abaikan skrip Hangul saat membentuk bigram istilah CJK.

ClassicSimilarity

Algoritma kesamaan warisan yang menggunakan implementasi Lucene TFIDFSimilarity dari TF-IDF. Variasi TF-IDF ini memperkenalkan normalisasi panjang dokumen statis serta faktor koordinasi yang mengharuskan dokumen yang hanya sebagian cocok dengan kueri yang dicari.

Nama Jenis Deskripsi
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

ClassicTokenizer

Tokenizer berbasis tata bahasa yang cocok untuk memproses sebagian besar dokumen berbahasa Eropa. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

Fragmen URI yang menentukan jenis tokenizer.

maxTokenLength

integer (int32)

maximum: 300
255

Panjang token maksimum. Defaultnya adalah 255. Token yang lebih panjang dari panjang maksimum dibagi. Panjang token maksimum yang dapat digunakan adalah 300 karakter.

name

string

Nama tokenizer. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

CommonGramTokenFilter

Buat bigram untuk istilah yang sering terjadi saat mengindeks. Istilah tunggal masih diindeks juga, dengan bigram dilapisi. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

Fragmen URI yang menentukan jenis filter token.

commonWords

string[]

Kumpulan kata-kata umum.

ignoreCase

boolean

False

Nilai yang menunjukkan apakah pencocokan kata umum akan tidak peka huruf besar/kecil. Defaultnya adalah false.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

queryMode

boolean

False

Nilai yang menunjukkan apakah filter token berada dalam mode kueri. Saat dalam mode kueri, filter token menghasilkan bigram lalu menghapus kata-kata umum dan istilah tunggal diikuti dengan kata umum. Defaultnya adalah false.

CorsOptions

Menentukan opsi untuk mengontrol Berbagi Sumber Daya Lintas Asal (CORS) untuk indeks.

Nama Jenis Deskripsi
allowedOrigins

string[]

Daftar asal dari mana kode JavaScript akan diberikan akses ke indeks Anda. Dapat berisi daftar host formulir {protocol}://{fully-qualified-domain-name}[:{port#}], atau satu * untuk mengizinkan semua asal (tidak disarankan).

maxAgeInSeconds

integer (int64)

Durasi browser mana yang harus men-cache respons preflight CORS. Default ke 5 menit.

CustomAnalyzer

Memungkinkan Anda mengambil kontrol atas proses konversi teks menjadi token yang dapat diindeks/dapat dicari. Ini adalah konfigurasi yang ditentukan pengguna yang terdiri dari satu tokenizer yang telah ditentukan sebelumnya dan satu atau beberapa filter. Tokenizer bertanggung jawab untuk memecah teks menjadi token, dan filter untuk memodifikasi token yang dipancarkan oleh tokenizer.

Nama Jenis Deskripsi
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

Fragmen URI yang menentukan jenis penganalisis.

charFilters

CharFilterName[]

Daftar filter karakter yang digunakan untuk menyiapkan teks input sebelum diproses oleh tokenizer. Misalnya, mereka dapat menggantikan karakter atau simbol tertentu. Filter dijalankan dalam urutan di mana filter tersebut tercantum.

name

string

Nama penganalisis. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

tokenFilters

TokenFilterName[]

Daftar filter token yang digunakan untuk memfilter atau mengubah token yang dihasilkan oleh tokenizer. Misalnya, Anda dapat menentukan filter huruf kecil yang mengonversi semua karakter menjadi huruf kecil. Filter dijalankan dalam urutan di mana filter tersebut tercantum.

tokenizer

LexicalTokenizerName

Nama tokenizer yang digunakan untuk membagi teks berkelanjutan menjadi urutan token, seperti memecah kalimat menjadi kata-kata.

DictionaryDecompounderTokenFilter

Menguraikan kata-kata manyawa yang ditemukan dalam banyak bahasa Jermanik. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

Fragmen URI yang menentukan jenis filter token.

maxSubwordSize

integer (int32)

maximum: 300
15

Ukuran subkata maksimum. Hanya subkata yang lebih pendek dari ini yang dihasilkan. Defaultnya adalah 15. Maksimum adalah 300.

minSubwordSize

integer (int32)

maximum: 300
2

Ukuran subkata minimum. Hanya subkata yang lebih panjang dari ini yang dihasilkan. Defaultnya adalah 2. Maksimum adalah 300.

minWordSize

integer (int32)

maximum: 300
5

Ukuran kata minimum. Hanya kata-kata yang lebih panjang dari ini yang diproses. Defaultnya adalah 5. Maksimum adalah 300.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

onlyLongestMatch

boolean

False

Nilai yang menunjukkan apakah hanya menambahkan subword yang cocok terpanjang ke output. Defaultnya adalah false.

wordList

string[]

Daftar kata yang cocok dengan.

DistanceScoringFunction

Menentukan fungsi yang meningkatkan skor berdasarkan jarak dari lokasi geografis.

Nama Jenis Deskripsi
boost

number (double)

Pengali untuk skor mentah. Harus berupa angka positif yang tidak sama dengan 1,0.

distance

DistanceScoringParameters

Nilai parameter untuk fungsi penilaian jarak.

fieldName

string

Nama bidang yang digunakan sebagai input ke fungsi penilaian.

interpolation

ScoringFunctionInterpolation

Nilai yang menunjukkan bagaimana peningkatan akan diinterpolasi di seluruh skor dokumen; default ke "Linear".

type string:

distance

Menunjukkan jenis fungsi yang akan digunakan. Nilai yang valid termasuk besaran, kesegaran, jarak, dan tag. Jenis fungsi harus huruf kecil.

DistanceScoringParameters

Menyediakan nilai parameter ke fungsi penilaian jarak.

Nama Jenis Deskripsi
boostingDistance

number (double)

Jarak dalam kilometer dari lokasi referensi tempat rentang peningkatan berakhir.

referencePointParameter

string

Nama parameter yang diteruskan dalam kueri pencarian untuk menentukan lokasi referensi.

EdgeNGramTokenFilter

Menghasilkan n-gram dari ukuran yang diberikan mulai dari depan atau belakang token input. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

Fragmen URI yang menentukan jenis filter token.

maxGram

integer (int32)

2

Panjang n-gram maksimum. Defaultnya adalah 2.

minGram

integer (int32)

1

Panjang n-gram minimum. Defaultnya adalah 1. Harus kurang dari nilai maxGram.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

side

EdgeNGramTokenFilterSide

front

Menentukan sisi input mana yang harus dihasilkan oleh n-gram. Defaultnya adalah "front".

EdgeNGramTokenFilterSide

Menentukan sisi input mana yang harus dihasilkan oleh n-gram.

Nilai Deskripsi
front

Menentukan bahwa n-gram harus dihasilkan dari bagian depan input.

back

Menentukan bahwa n-gram harus dihasilkan dari bagian belakang input.

EdgeNGramTokenFilterV2

Menghasilkan n-gram dari ukuran yang diberikan mulai dari depan atau belakang token input. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

Fragmen URI yang menentukan jenis filter token.

maxGram

integer (int32)

maximum: 300
2

Panjang n-gram maksimum. Defaultnya adalah 2. Maksimum adalah 300.

minGram

integer (int32)

maximum: 300
1

Panjang n-gram minimum. Defaultnya adalah 1. Maksimum adalah 300. Harus kurang dari nilai maxGram.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

side

EdgeNGramTokenFilterSide

front

Menentukan sisi input mana yang harus dihasilkan oleh n-gram. Defaultnya adalah "front".

EdgeNGramTokenizer

Tokenisasi input dari tepi ke dalam n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

Fragmen URI yang menentukan jenis tokenizer.

maxGram

integer (int32)

maximum: 300
2

Panjang n-gram maksimum. Defaultnya adalah 2. Maksimum adalah 300.

minGram

integer (int32)

maximum: 300
1

Panjang n-gram minimum. Defaultnya adalah 1. Maksimum adalah 300. Harus kurang dari nilai maxGram.

name

string

Nama tokenizer. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

tokenChars

TokenCharacterKind[]

Kelas karakter untuk disimpan dalam token.

ElisionTokenFilter

Menghapus elisi. Misalnya, "l'avion" (bidang) akan dikonversi menjadi "avion" (bidang). Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Deskripsi
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

Fragmen URI yang menentukan jenis filter token.

articles

string[]

Kumpulan artikel yang akan dihapus.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

ExhaustiveKnnParameters

Berisi parameter khusus untuk algoritma KNN lengkap.

Nama Jenis Deskripsi
metric

VectorSearchAlgorithmMetric

Metrik kesamaan yang digunakan untuk perbandingan vektor.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Berisi opsi konfigurasi khusus untuk algoritma KNN lengkap yang digunakan selama kueri, yang akan melakukan pencarian brute-force di seluruh indeks vektor.

Nama Jenis Deskripsi
exhaustiveKnnParameters

ExhaustiveKnnParameters

Berisi parameter khusus untuk algoritma KNN lengkap.

kind string:

exhaustiveKnn

Nama jenis algoritma yang dikonfigurasi untuk digunakan dengan pencarian vektor.

name

string

Nama yang akan dikaitkan dengan konfigurasi khusus ini.

FreshnessScoringFunction

Menentukan fungsi yang meningkatkan skor berdasarkan nilai bidang tanggal-waktu.

Nama Jenis Deskripsi
boost

number (double)

Pengali untuk skor mentah. Harus berupa angka positif yang tidak sama dengan 1,0.

fieldName

string

Nama bidang yang digunakan sebagai input ke fungsi penilaian.

freshness

FreshnessScoringParameters

Nilai parameter untuk fungsi penilaian kesegaran.

interpolation

ScoringFunctionInterpolation

Nilai yang menunjukkan bagaimana peningkatan akan diinterpolasi di seluruh skor dokumen; default ke "Linear".

type string:

freshness

Menunjukkan jenis fungsi yang akan digunakan. Nilai yang valid termasuk besaran, kesegaran, jarak, dan tag. Jenis fungsi harus huruf kecil.

FreshnessScoringParameters

Menyediakan nilai parameter ke fungsi penilaian kesegaran.

Nama Jenis Deskripsi
boostingDuration

string (duration)

Periode kedaluwarsa setelah peningkatan akan berhenti untuk dokumen tertentu.

HnswParameters

Berisi parameter khusus untuk algoritma HNSW.

Nama Jenis Nilai default Deskripsi
efConstruction

integer (int32)

minimum: 100
maximum: 1000
400

Ukuran daftar dinamis yang berisi tetangga terdekat, yang digunakan selama waktu indeks. Meningkatkan parameter ini dapat meningkatkan kualitas indeks, dengan mengorbankan peningkatan waktu pengindeksan. Pada titik tertentu, meningkatkan parameter ini menyebabkan berkurangnya pengembalian.

efSearch

integer (int32)

minimum: 100
maximum: 1000
500

Ukuran daftar dinamis yang berisi tetangga terdekat, yang digunakan selama waktu pencarian. Meningkatkan parameter ini dapat meningkatkan hasil pencarian, dengan mengorbankan pencarian yang lebih lambat. Pada titik tertentu, meningkatkan parameter ini menyebabkan berkurangnya pengembalian.

m

integer (int32)

minimum: 4
maximum: 10
4

Jumlah tautan dua arah yang dibuat untuk setiap elemen baru selama konstruksi. Meningkatkan nilai parameter ini dapat meningkatkan pengenalan dan mengurangi waktu pengambilan untuk himpunan data dengan dimensi intrinsik tinggi dengan mengorbankan peningkatan konsumsi memori dan waktu pengindeksan yang lebih lama.

metric

VectorSearchAlgorithmMetric

Metrik kesamaan yang digunakan untuk perbandingan vektor.

HnswVectorSearchAlgorithmConfiguration

Berisi opsi konfigurasi khusus untuk HNSW perkiraan algoritma tetangga terdekat yang digunakan selama pengindeksan dan kueri. Algoritma HNSW menawarkan trade-off yang dapat disesuaikan antara kecepatan pencarian dan akurasi.

Nama Jenis Deskripsi
hnswParameters

HnswParameters

Berisi parameter khusus untuk algoritma HNSW.

kind string:

hnsw

Nama jenis algoritma yang dikonfigurasi untuk digunakan dengan pencarian vektor.

name

string

Nama yang akan dikaitkan dengan konfigurasi khusus ini.

KeepTokenFilter

Filter token yang hanya menyimpan token dengan teks yang terkandung dalam daftar kata tertentu. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

Fragmen URI yang menentukan jenis filter token.

keepWords

string[]

Daftar kata yang harus disimpan.

keepWordsCase

boolean

False

Nilai yang menunjukkan apakah akan menurunkan huruf besar/kecil semua kata terlebih dahulu. Defaultnya adalah false.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

KeywordMarkerTokenFilter

Menandai istilah sebagai kata kunci. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

Fragmen URI yang menentukan jenis filter token.

ignoreCase

boolean

False

Nilai yang menunjukkan apakah akan mengabaikan kasus. Jika true, semua kata dikonversi ke huruf kecil terlebih dahulu. Defaultnya adalah false.

keywords

string[]

Daftar kata untuk ditandai sebagai kata kunci.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

KeywordTokenizer

Memancarkan seluruh input sebagai token tunggal. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

Fragmen URI yang menentukan jenis tokenizer.

bufferSize

integer (int32)

256

Ukuran buffer baca dalam byte. Defaultnya adalah 256.

name

string

Nama tokenizer. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

KeywordTokenizerV2

Memancarkan seluruh input sebagai token tunggal. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

Fragmen URI yang menentukan jenis tokenizer.

maxTokenLength

integer (int32)

maximum: 300
256

Panjang token maksimum. Defaultnya adalah 256. Token yang lebih panjang dari panjang maksimum dibagi. Panjang token maksimum yang dapat digunakan adalah 300 karakter.

name

string

Nama tokenizer. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

LengthTokenFilter

Menghapus kata-kata yang terlalu panjang atau terlalu pendek. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

Fragmen URI yang menentukan jenis filter token.

max

integer (int32)

maximum: 300
300

Panjang maksimum dalam karakter. Default dan maksimum adalah 300.

min

integer (int32)

maximum: 300
0

Panjang minimum dalam karakter. Defaultnya adalah 0. Maksimum adalah 300. Harus kurang dari nilai maks.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

LexicalAnalyzerName

Menentukan nama semua penganalisis teks yang didukung oleh mesin pencari.

Nilai Deskripsi
ar.microsoft

Penganalisis Microsoft untuk bahasa Arab.

ar.lucene

Penganalisis Lucene untuk bahasa Arab.

hy.lucene

Penganalisis Lucene untuk Armenia.

bn.microsoft

Penganalisis Microsoft untuk Bangla.

eu.lucene

Penganalisis Lucene untuk Basque.

bg.microsoft

Penganalisis Microsoft untuk bahasa Bulgaria.

bg.lucene

Penganalisis Lucene untuk bahasa Bulgaria.

ca.microsoft

Penganalisis Microsoft untuk Catalan.

ca.lucene

Penganalisis Lucene untuk Bahasa Catalan.

zh-Hans.microsoft

Penganalisis Microsoft untuk Bahasa Tionghoa (Disederhanakan).

zh-Hans.lucene

Penganalisis Lucene untuk Bahasa Tionghoa (Sederhana).

zh-Hant.microsoft

Penganalisis Microsoft untuk Bahasa Tionghoa (Tradisional).

zh-Hant.lucene

Penganalisis Lucene untuk Bahasa Tionghoa (Tradisional).

hr.microsoft

Penganalisis Microsoft untuk bahasa Kroasia.

cs.microsoft

Penganalisis Microsoft untuk Ceko.

cs.lucene

Penganalisis Lucene untuk Ceko.

da.microsoft

Penganalisis Microsoft untuk Bahasa Denmark.

da.lucene

Penganalisis Lucene untuk Denmark.

nl.microsoft

Penganalisis Microsoft untuk Bahasa Belanda.

nl.lucene

Penganalisis Lucene untuk Belanda.

en.microsoft

Penganalisis Microsoft untuk bahasa Inggris.

en.lucene

Penganalisis Lucene untuk bahasa Inggris.

et.microsoft

Penganalisis Microsoft untuk Bahasa Estonia.

fi.microsoft

Penganalisis Microsoft untuk bahasa Finlandia.

fi.lucene

Penganalisis Lucene untuk bahasa Finlandia.

fr.microsoft

Penganalisis Microsoft untuk bahasa Prancis.

fr.lucene

Penganalisis Lucene untuk bahasa Prancis.

gl.lucene

Penganalisis Lucene untuk Galician.

de.microsoft

Penganalisis Microsoft untuk bahasa Jerman.

de.lucene

Penganalisis Lucene untuk bahasa Jerman.

el.microsoft

Penganalisis Microsoft untuk bahasa Yunani.

el.lucene

Penganalisis Lucene untuk bahasa Yunani.

gu.microsoft

Penganalisis Microsoft untuk Gujarati.

he.microsoft

Penganalisis Microsoft untuk Bahasa Ibrani.

hi.microsoft

Penganalisis Microsoft untuk Hindi.

hi.lucene

Penganalisis Lucene untuk Bahasa Hindi.

hu.microsoft

Penganalisis Microsoft untuk Hungaria.

hu.lucene

Penganalisis Lucene untuk Hungaria.

is.microsoft

Penganalisis Microsoft untuk Islandia.

id.microsoft

Penganalisis Microsoft untuk Bahasa Indonesia (Bahasa Indonesia).

id.lucene

Penganalisis Lucene untuk bahasa Indonesia.

ga.lucene

Penganalisis Lucene untuk Irlandia.

it.microsoft

Penganalisis Microsoft untuk bahasa Italia.

it.lucene

Penganalisis Lucene untuk bahasa Italia.

ja.microsoft

Penganalisis Microsoft untuk bahasa Jepang.

ja.lucene

Penganalisis Lucene untuk bahasa Jepang.

kn.microsoft

Penganalisis Microsoft untuk Kannada.

ko.microsoft

Penganalisis Microsoft untuk bahasa Korea.

ko.lucene

Penganalisis Lucene untuk bahasa Korea.

lv.microsoft

Penganalisis Microsoft untuk Latvia.

lv.lucene

Penganalisis Lucene untuk bahasa Latvia.

lt.microsoft

Penganalisis Microsoft untuk Bahasa Lithuania.

ml.microsoft

Penganalisis Microsoft untuk Malayalam.

ms.microsoft

Penganalisis Microsoft untuk Bahasa Melayu (Latin).

mr.microsoft

Penganalisis Microsoft untuk Marathi.

nb.microsoft

Penganalisis Microsoft untuk Norwegia (Bokmål).

no.lucene

Penganalisis Lucene untuk Norwegia.

fa.lucene

Penganalisis Lucene untuk Persia.

pl.microsoft

Penganalisis Microsoft untuk Polandia.

pl.lucene

Penganalisis Lucene untuk Polandia.

pt-BR.microsoft

Penganalisis Microsoft untuk Bahasa Portugis (Brasil).

pt-BR.lucene

Penganalisis Lucene untuk Bahasa Portugis (Brasil).

pt-PT.microsoft

Penganalisis Microsoft untuk Bahasa Portugis (Portugal).

pt-PT.lucene

Penganalisis Lucene untuk Bahasa Portugis (Portugal).

pa.microsoft

Penganalisis Microsoft untuk Punjabi.

ro.microsoft

Penganalisis Microsoft untuk Rumania.

ro.lucene

Penganalisis Lucene untuk rumania.

ru.microsoft

Penganalisis Microsoft untuk bahasa Rusia.

ru.lucene

Penganalisis Lucene untuk bahasa Rusia.

sr-cyrillic.microsoft

Penganalisis Microsoft untuk Bahasa Serbia (Sirilik).

sr-latin.microsoft

Penganalisis Microsoft untuk Bahasa Serbia (Latin).

sk.microsoft

Penganalisis Microsoft untuk Slovakia.

sl.microsoft

Penganalisis Microsoft untuk Slovenia.

es.microsoft

Penganalisis Microsoft untuk bahasa Spanyol.

es.lucene

Penganalisis Lucene untuk bahasa Spanyol.

sv.microsoft

Penganalisis Microsoft untuk Swedia.

sv.lucene

Penganalisis Lucene untuk Swedia.

ta.microsoft

Penganalisis Microsoft untuk Tamil.

te.microsoft

Penganalisis Microsoft untuk Telugu.

th.microsoft

Penganalisis Microsoft untuk Bahasa Thailand.

th.lucene

Penganalisis Lucene untuk Thai.

tr.microsoft

Penganalisis Microsoft untuk Turki.

tr.lucene

Penganalisis Lucene untuk Turki.

uk.microsoft

Penganalisis Microsoft untuk Ukraina.

ur.microsoft

Penganalisis Microsoft untuk Urdu.

vi.microsoft

Penganalisis Microsoft untuk bahasa Vietnam.

standard.lucene

Penganalisis Lucene Standar.

standardasciifolding.lucene

Penganalisis Lucene Lipat ASCII Standar. Lihat https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers

keyword

Memperlakukan seluruh konten bidang sebagai token tunggal. Ini berguna untuk data seperti kode pos, id, dan beberapa nama produk. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html

pattern

Secara fleksibel memisahkan teks menjadi istilah melalui pola ekspresi reguler. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

simple

Membagi teks pada non-huruf dan mengonversinya menjadi huruf kecil. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html

stop

Membagi teks pada non-huruf; Menerapkan filter token huruf kecil dan stopword. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

whitespace

Penganalisis yang menggunakan tokenizer spasi putih. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizerName

Menentukan nama semua tokenizer yang didukung oleh mesin pencari.

Nilai Deskripsi
classic

Tokenizer berbasis tata bahasa yang cocok untuk memproses sebagian besar dokumen berbahasa Eropa. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

edgeNGram

Tokenisasi input dari tepi ke dalam n-gram dari ukuran yang diberikan. Lihat https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

keyword_v2

Memancarkan seluruh input sebagai token tunggal. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

letter

Membagi teks pada non-huruf. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

lowercase

Membagi teks pada non-huruf dan mengonversinya menjadi huruf kecil. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

microsoft_language_tokenizer

Membagi teks menggunakan aturan khusus bahasa.

microsoft_language_stemming_tokenizer

Membagi teks menggunakan aturan khusus bahasa dan mengurangi kata-kata ke formulir dasarnya.

nGram

Tokenisasi input ke dalam n-gram dari ukuran yang diberikan. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

path_hierarchy_v2

Tokenizer untuk hierarki seperti jalur. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

pattern

Tokenizer yang menggunakan pencocokan pola regex untuk membangun token yang berbeda. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

standard_v2

Penganalisis Lucene Standar; Terdiri dari tokenizer standar, filter huruf kecil, dan filter berhenti. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

uax_url_email

Tokenisasi url dan email sebagai satu token. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

whitespace

Membagi teks di spasi kosong. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

LimitTokenFilter

Membatasi jumlah token saat mengindeks. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

Fragmen URI yang menentukan jenis filter token.

consumeAllTokens

boolean

False

Nilai yang menunjukkan apakah semua token dari input harus digunakan bahkan jika maxTokenCount tercapai. Defaultnya adalah false.

maxTokenCount

integer (int32)

1

Jumlah maksimum token yang akan dihasilkan. Defaultnya adalah 1.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

LuceneStandardAnalyzer

Penganalisis Apache Lucene Standar; Terdiri dari tokenizer standar, filter huruf kecil, dan filter berhenti.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

Fragmen URI yang menentukan jenis penganalisis.

maxTokenLength

integer (int32)

maximum: 300
255

Panjang token maksimum. Defaultnya adalah 255. Token yang lebih panjang dari panjang maksimum dibagi. Panjang token maksimum yang dapat digunakan adalah 300 karakter.

name

string

Nama penganalisis. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

stopwords

string[]

Daftar kata henti.

LuceneStandardTokenizer

Hentian teks mengikuti aturan Segmentasi Teks Unicode. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

Fragmen URI yang menentukan jenis tokenizer.

maxTokenLength

integer (int32)

255

Panjang token maksimum. Defaultnya adalah 255. Token yang lebih panjang dari panjang maksimum dibagi.

name

string

Nama tokenizer. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

LuceneStandardTokenizerV2

Hentian teks mengikuti aturan Segmentasi Teks Unicode. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

Fragmen URI yang menentukan jenis tokenizer.

maxTokenLength

integer (int32)

maximum: 300
255

Panjang token maksimum. Defaultnya adalah 255. Token yang lebih panjang dari panjang maksimum dibagi. Panjang token maksimum yang dapat digunakan adalah 300 karakter.

name

string

Nama tokenizer. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

MagnitudeScoringFunction

Menentukan fungsi yang meningkatkan skor berdasarkan besarnya bidang numerik.

Nama Jenis Deskripsi
boost

number (double)

Pengali untuk skor mentah. Harus berupa angka positif yang tidak sama dengan 1,0.

fieldName

string

Nama bidang yang digunakan sebagai input ke fungsi penilaian.

interpolation

ScoringFunctionInterpolation

Nilai yang menunjukkan bagaimana peningkatan akan diinterpolasi di seluruh skor dokumen; default ke "Linear".

magnitude

MagnitudeScoringParameters

Nilai parameter untuk fungsi penilaian besar.

type string:

magnitude

Menunjukkan jenis fungsi yang akan digunakan. Nilai yang valid termasuk besaran, kesegaran, jarak, dan tag. Jenis fungsi harus huruf kecil.

MagnitudeScoringParameters

Menyediakan nilai parameter ke fungsi penilaian besaran.

Nama Jenis Deskripsi
boostingRangeEnd

number (double)

Nilai bidang di mana peningkatan berakhir.

boostingRangeStart

number (double)

Nilai bidang di mana peningkatan dimulai.

constantBoostBeyondRange

boolean

Nilai yang menunjukkan apakah akan menerapkan peningkatan konstanta untuk nilai bidang di luar nilai akhir rentang; defaultnya adalah false.

MappingCharFilter

Filter karakter yang menerapkan pemetaan yang ditentukan dengan opsi pemetaan. Pencocokan serakah (pencocokan pola terpanjang pada poin tertentu menang). Penggantian diperbolehkan menjadi string kosong. Filter karakter ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Deskripsi
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

Fragmen URI yang menentukan jenis filter karakter.

mappings

string[]

Daftar pemetaan format berikut: "a=>b" (semua kemunculan karakter "a" akan diganti dengan karakter "b").

name

string

Nama filter karakter. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

MicrosoftLanguageStemmingTokenizer

Membagi teks menggunakan aturan khusus bahasa dan mengurangi kata-kata ke formulir dasarnya.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

Fragmen URI yang menentukan jenis tokenizer.

isSearchTokenizer

boolean

False

Nilai yang menunjukkan bagaimana tokenizer digunakan. Atur ke true jika digunakan sebagai tokenizer pencarian, atur ke false jika digunakan sebagai tokenizer pengindeksan. Defaultnya adalah false.

language

MicrosoftStemmingTokenizerLanguage

Bahasa yang digunakan. Defaultnya adalah bahasa Inggris.

maxTokenLength

integer (int32)

maximum: 300
255

Panjang token maksimum. Token yang lebih panjang dari panjang maksimum dibagi. Panjang token maksimum yang dapat digunakan adalah 300 karakter. Token yang lebih panjang dari 300 karakter pertama kali dibagi menjadi token dengan panjang 300 dan kemudian masing-masing token tersebut dibagi berdasarkan panjang token maksimum yang ditetapkan. Defaultnya adalah 255.

name

string

Nama tokenizer. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

MicrosoftLanguageTokenizer

Membagi teks menggunakan aturan khusus bahasa.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

Fragmen URI yang menentukan jenis tokenizer.

isSearchTokenizer

boolean

False

Nilai yang menunjukkan bagaimana tokenizer digunakan. Atur ke true jika digunakan sebagai tokenizer pencarian, atur ke false jika digunakan sebagai tokenizer pengindeksan. Defaultnya adalah false.

language

MicrosoftTokenizerLanguage

Bahasa yang digunakan. Defaultnya adalah bahasa Inggris.

maxTokenLength

integer (int32)

maximum: 300
255

Panjang token maksimum. Token yang lebih panjang dari panjang maksimum dibagi. Panjang token maksimum yang dapat digunakan adalah 300 karakter. Token yang lebih panjang dari 300 karakter pertama kali dibagi menjadi token dengan panjang 300 dan kemudian masing-masing token tersebut dibagi berdasarkan panjang token maksimum yang ditetapkan. Defaultnya adalah 255.

name

string

Nama tokenizer. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

MicrosoftStemmingTokenizerLanguage

Mencantumkan bahasa yang didukung oleh tokenizer stemming bahasa Microsoft.

Nilai Deskripsi
arabic

Memilih tokenizer stemming Microsoft untuk Bahasa Arab.

bangla

Memilih tokenizer stemming Microsoft untuk Bangla.

bulgarian

Memilih tokenizer stemming Microsoft untuk Bulgaria.

catalan

Memilih tokenizer stemming Microsoft untuk Catalan.

croatian

Memilih tokenizer stemming Microsoft untuk bahasa Kroasia.

czech

Memilih tokenizer stemming Microsoft untuk Ceko.

danish

Memilih tokenizer stemming Microsoft untuk Denmark.

dutch

Memilih tokenizer stemming Microsoft untuk Bahasa Belanda.

english

Memilih tokenizer stemming Microsoft untuk bahasa Inggris.

estonian

Memilih tokenizer stemming Microsoft untuk Estonia.

finnish

Memilih tokenizer stemming Microsoft untuk Finlandia.

french

Memilih tokenizer stemming Microsoft untuk bahasa Prancis.

german

Memilih tokenizer stemming Microsoft untuk bahasa Jerman.

greek

Memilih tokenizer stemming Microsoft untuk bahasa Yunani.

gujarati

Memilih tokenizer stemming Microsoft untuk Gujarati.

hebrew

Memilih tokenizer stemming Microsoft untuk Ibrani.

hindi

Memilih tokenizer stemming Microsoft untuk Hindi.

hungarian

Memilih tokenizer stemming Microsoft untuk Hungaria.

icelandic

Memilih tokenizer stemming Microsoft untuk Islandia.

indonesian

Memilih tokenizer stemming Microsoft untuk bahasa Indonesia.

italian

Memilih tokenizer stemming Microsoft untuk bahasa Italia.

kannada

Memilih tokenizer stemming Microsoft untuk Kannada.

latvian

Memilih tokenizer stemming Microsoft untuk Latvia.

lithuanian

Memilih tokenizer stemming Microsoft untuk Lithuania.

malay

Memilih tokenizer stemming Microsoft untuk Melayu.

malayalam

Memilih tokenizer stemming Microsoft untuk Malayalam.

marathi

Memilih tokenizer stemming Microsoft untuk Marathi.

norwegianBokmaal

Memilih tokenizer stemming Microsoft untuk Norwegia (Bokmål).

polish

Memilih tokenizer stemming Microsoft untuk Polandia.

portuguese

Memilih tokenizer stemming Microsoft untuk Portugis.

portugueseBrazilian

Memilih tokenizer stemming Microsoft untuk Portugis (Brasil).

punjabi

Memilih tokenizer stemming Microsoft untuk Punjabi.

romanian

Memilih tokenizer stemming Microsoft untuk Rumania.

russian

Memilih tokenizer stemming Microsoft untuk bahasa Rusia.

serbianCyrillic

Memilih tokenizer stemming Microsoft untuk Serbia (Sirilik).

serbianLatin

Memilih tokenizer stemming Microsoft untuk Serbia (Latin).

slovak

Memilih tokenizer stemming Microsoft untuk Slovakia.

slovenian

Memilih tokenizer stemming Microsoft untuk Slovenia.

spanish

Memilih tokenizer stemming Microsoft untuk Bahasa Spanyol.

swedish

Memilih tokenizer stemming Microsoft untuk Swedia.

tamil

Memilih tokenizer stemming Microsoft untuk Tamil.

telugu

Memilih tokenizer stemming Microsoft untuk Telugu.

turkish

Memilih tokenizer stemming Microsoft untuk Turki.

ukrainian

Memilih tokenizer stemming Microsoft untuk Ukraina.

urdu

Memilih tokenizer stemming Microsoft untuk Urdu.

MicrosoftTokenizerLanguage

Mencantumkan bahasa yang didukung oleh tokenizer bahasa Microsoft.

Nilai Deskripsi
bangla

Memilih tokenizer Microsoft untuk Bangla.

bulgarian

Memilih tokenizer Microsoft untuk Bulgaria.

catalan

Memilih tokenizer Microsoft untuk Catalan.

chineseSimplified

Memilih tokenizer Microsoft untuk Bahasa Tionghoa (Disederhanakan).

chineseTraditional

Memilih tokenizer Microsoft untuk Bahasa Tionghoa (Tradisional).

croatian

Memilih tokenizer Microsoft untuk Kroasia.

czech

Memilih tokenizer Microsoft untuk Ceko.

danish

Memilih tokenizer Microsoft untuk Denmark.

dutch

Memilih tokenizer Microsoft untuk Bahasa Belanda.

english

Memilih tokenizer Microsoft untuk bahasa Inggris.

french

Memilih tokenizer Microsoft untuk bahasa Prancis.

german

Memilih tokenizer Microsoft untuk bahasa Jerman.

greek

Memilih tokenizer Microsoft untuk bahasa Yunani.

gujarati

Memilih tokenizer Microsoft untuk Gujarati.

hindi

Memilih tokenizer Microsoft untuk Hindi.

icelandic

Memilih tokenizer Microsoft untuk Islandia.

indonesian

Memilih tokenizer Microsoft untuk bahasa Indonesia.

italian

Memilih tokenizer Microsoft untuk bahasa Italia.

japanese

Memilih tokenizer Microsoft untuk bahasa Jepang.

kannada

Memilih tokenizer Microsoft untuk Kannada.

korean

Memilih tokenizer Microsoft untuk Bahasa Korea.

malay

Memilih tokenizer Microsoft untuk Melayu.

malayalam

Memilih tokenizer Microsoft untuk Malayalam.

marathi

Memilih tokenizer Microsoft untuk Marathi.

norwegianBokmaal

Memilih tokenizer Microsoft untuk Norwegia (Bokmål).

polish

Memilih tokenizer Microsoft untuk Polandia.

portuguese

Memilih tokenizer Microsoft untuk Bahasa Portugis.

portugueseBrazilian

Memilih tokenizer Microsoft untuk Portugis (Brasil).

punjabi

Memilih tokenizer Microsoft untuk Punjabi.

romanian

Memilih tokenizer Microsoft untuk Rumania.

russian

Memilih tokenizer Microsoft untuk bahasa Rusia.

serbianCyrillic

Memilih tokenizer Microsoft untuk Serbia (Sirilik).

serbianLatin

Memilih tokenizer Microsoft untuk Serbia (Latin).

slovenian

Memilih tokenizer Microsoft untuk Slovenia.

spanish

Memilih tokenizer Microsoft untuk Bahasa Spanyol.

swedish

Memilih tokenizer Microsoft untuk Swedia.

tamil

Memilih tokenizer Microsoft untuk Tamil.

telugu

Memilih tokenizer Microsoft untuk Telugu.

thai

Memilih tokenizer Microsoft untuk Thailand.

ukrainian

Memilih tokenizer Microsoft untuk Ukraina.

urdu

Memilih tokenizer Microsoft untuk Urdu.

vietnamese

Memilih tokenizer Microsoft untuk Vietnam.

NGramTokenFilter

Menghasilkan n-gram dari ukuran yang diberikan. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

Fragmen URI yang menentukan jenis filter token.

maxGram

integer (int32)

2

Panjang n-gram maksimum. Defaultnya adalah 2.

minGram

integer (int32)

1

Panjang n-gram minimum. Defaultnya adalah 1. Harus kurang dari nilai maxGram.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

NGramTokenFilterV2

Menghasilkan n-gram dari ukuran yang diberikan. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

Fragmen URI yang menentukan jenis filter token.

maxGram

integer (int32)

maximum: 300
2

Panjang n-gram maksimum. Defaultnya adalah 2. Maksimum adalah 300.

minGram

integer (int32)

maximum: 300
1

Panjang n-gram minimum. Defaultnya adalah 1. Maksimum adalah 300. Harus kurang dari nilai maxGram.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

NGramTokenizer

Tokenisasi input ke dalam n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

Fragmen URI yang menentukan jenis tokenizer.

maxGram

integer (int32)

maximum: 300
2

Panjang n-gram maksimum. Defaultnya adalah 2. Maksimum adalah 300.

minGram

integer (int32)

maximum: 300
1

Panjang n-gram minimum. Defaultnya adalah 1. Maksimum adalah 300. Harus kurang dari nilai maxGram.

name

string

Nama tokenizer. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

tokenChars

TokenCharacterKind[]

Kelas karakter untuk disimpan dalam token.

PathHierarchyTokenizerV2

Tokenizer untuk hierarki seperti jalur. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

Fragmen URI yang menentukan jenis tokenizer.

delimiter

string (char)

/

Karakter pemisah yang akan digunakan. Defaultnya adalah "/".

maxTokenLength

integer (int32)

maximum: 300
300

Panjang token maksimum. Default dan maksimum adalah 300.

name

string

Nama tokenizer. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

replacement

string (char)

/

Nilai yang, jika diatur, menggantikan karakter pemisah. Defaultnya adalah "/".

reverse

boolean

False

Nilai yang menunjukkan apakah akan menghasilkan token dalam urutan terbalik. Defaultnya adalah false.

skip

integer (int32)

0

Jumlah token awal yang akan dilewati. Defaultnya adalah 0.

PatternAnalyzer

Secara fleksibel memisahkan teks menjadi istilah melalui pola ekspresi reguler. Penganalisis ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

Fragmen URI yang menentukan jenis penganalisis.

flags

RegexFlags

Bendera ekspresi reguler.

lowercase

boolean

True

Nilai yang menunjukkan apakah istilah harus lebih rendah huruf besar/kecil. Defaultnya adalah true.

name

string

Nama penganalisis. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

pattern

string

\W+

Pola ekspresi reguler untuk mencocokkan pemisah token. Defaultnya adalah ekspresi yang cocok dengan satu atau beberapa karakter non-kata.

stopwords

string[]

Daftar kata henti.

PatternCaptureTokenFilter

Menggunakan regex Java untuk memancarkan beberapa token - satu untuk setiap grup pengambilan dalam satu atau beberapa pola. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

Fragmen URI yang menentukan jenis filter token.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

patterns

string[]

Daftar pola yang cocok dengan setiap token.

preserveOriginal

boolean

True

Nilai yang menunjukkan apakah akan mengembalikan token asli meskipun salah satu pola cocok. Defaultnya adalah true.

PatternReplaceCharFilter

Filter karakter yang menggantikan karakter dalam string input. Ini menggunakan ekspresi reguler untuk mengidentifikasi urutan karakter untuk mempertahankan dan pola penggantian untuk mengidentifikasi karakter yang akan diganti. Misalnya, mengingat teks input "aa bb aa bb", pola "(aa)\s+(bb)", dan penggantian "$1#$2", hasilnya adalah "aa#bb aa#bb". Filter karakter ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Deskripsi
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

Fragmen URI yang menentukan jenis filter karakter.

name

string

Nama filter karakter. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

pattern

string

Pola ekspresi reguler.

replacement

string

Teks pengganti.

PatternReplaceTokenFilter

Filter karakter yang menggantikan karakter dalam string input. Ini menggunakan ekspresi reguler untuk mengidentifikasi urutan karakter untuk mempertahankan dan pola penggantian untuk mengidentifikasi karakter yang akan diganti. Misalnya, mengingat teks input "aa bb aa bb", pola "(aa)\s+(bb)", dan penggantian "$1#$2", hasilnya adalah "aa#bb aa#bb". Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Deskripsi
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

Fragmen URI yang menentukan jenis filter token.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

pattern

string

Pola ekspresi reguler.

replacement

string

Teks pengganti.

PatternTokenizer

Tokenizer yang menggunakan pencocokan pola regex untuk membangun token yang berbeda. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

Fragmen URI yang menentukan jenis tokenizer.

flags

RegexFlags

Bendera ekspresi reguler.

group

integer (int32)

-1

Ordinal berbasis nol dari grup yang cocok dalam pola ekspresi reguler untuk mengekstrak ke dalam token. Gunakan -1 jika Anda ingin menggunakan seluruh pola untuk membagi input menjadi token, terlepas dari grup yang cocok. Defaultnya adalah -1.

name

string

Nama tokenizer. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

pattern

string

\W+

Pola ekspresi reguler untuk mencocokkan pemisah token. Defaultnya adalah ekspresi yang cocok dengan satu atau beberapa karakter non-kata.

PhoneticEncoder

Mengidentifikasi jenis encoder fonetik untuk digunakan dengan PhoneticTokenFilter.

Nilai Deskripsi
metaphone

Mengodekan token ke dalam nilai Metaphone.

doubleMetaphone

Mengodekan token ke dalam nilai metaphone ganda.

soundex

Mengodekan token ke dalam nilai Soundex.

refinedSoundex

Mengodekan token ke dalam nilai Soundex Yang Disempurnakan.

caverphone1

Mengodekan token ke dalam nilai Caverphone 1.0.

caverphone2

Mengodekan token ke dalam nilai Caverphone 2.0.

cologne

Mengodekan token ke dalam nilai Fonetik Cologne.

nysiis

Mengodekan token ke dalam nilai NYSIIS.

koelnerPhonetik

Mengodekan token menggunakan algoritma Kölner Phonetik.

haasePhonetik

Mengodekan token menggunakan penyempurnaan Haase dari algoritma Kölner Phonetik.

beiderMorse

Mengodekan token ke dalam nilai Beider-Morse.

PhoneticTokenFilter

Buat token untuk kecocokan fonetik. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

Fragmen URI yang menentukan jenis filter token.

encoder

PhoneticEncoder

metaphone

Encoder fonetik yang akan digunakan. Defaultnya adalah "metaphone".

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

replace

boolean

True

Nilai yang menunjukkan apakah token yang dikodekan harus menggantikan token asli. Jika false, token yang dikodekan ditambahkan sebagai sinonim. Defaultnya adalah true.

PrioritizedFields

Menjelaskan bidang judul, konten, dan kata kunci yang akan digunakan untuk peringkat, keterangan, sorotan, dan jawaban semantik.

Nama Jenis Deskripsi
prioritizedContentFields

SemanticField[]

Menentukan bidang konten yang akan digunakan untuk peringkat semantik, keterangan, sorotan, dan jawaban. Untuk hasil terbaik, bidang yang dipilih harus berisi teks dalam bentuk bahasa alami. Urutan bidang dalam array mewakili prioritasnya. Bidang dengan prioritas yang lebih rendah mungkin terpotong jika kontennya panjang.

prioritizedKeywordsFields

SemanticField[]

Menentukan bidang kata kunci yang akan digunakan untuk peringkat semantik, keterangan, sorotan, dan jawaban. Untuk hasil terbaik, bidang yang dipilih harus berisi daftar kata kunci. Urutan bidang dalam array mewakili prioritasnya. Bidang dengan prioritas yang lebih rendah mungkin terpotong jika kontennya panjang.

titleField

SemanticField

Menentukan bidang judul yang akan digunakan untuk peringkat semantik, keterangan, sorotan, dan jawaban. Jika Anda tidak memiliki bidang judul dalam indeks Anda, biarkan bidang ini kosong.

RegexFlags

Menentukan bendera yang dapat digabungkan untuk mengontrol bagaimana ekspresi reguler digunakan dalam penganalisis pola dan tokenizer pola.

Nilai Deskripsi
CANON_EQ

Mengaktifkan kesetaraan kanonis.

CASE_INSENSITIVE

Mengaktifkan pencocokan yang tidak peka huruf besar/kecil.

COMMENTS

Mengizinkan spasi kosong dan komentar dalam pola.

DOTALL

Mengaktifkan mode dotall.

LITERAL

Memungkinkan penguraian harfiah pola.

MULTILINE

Mengaktifkan mode multibaris.

UNICODE_CASE

Mengaktifkan pelipatan kasus sadar Unicode.

UNIX_LINES

Mengaktifkan mode garis Unix.

ScoringFunctionAggregation

Menentukan fungsi agregasi yang digunakan untuk menggabungkan hasil semua fungsi penilaian dalam profil penilaian.

Nilai Deskripsi
sum

Tingkatkan skor dengan jumlah semua hasil fungsi penilaian.

average

Tingkatkan skor dengan rata-rata semua hasil fungsi penilaian.

minimum

Tingkatkan skor dengan minimal semua hasil fungsi penilaian.

maximum

Tingkatkan skor dengan maksimum semua hasil fungsi penilaian.

firstMatching

Tingkatkan skor menggunakan fungsi penilaian pertama yang berlaku di profil penilaian.

ScoringFunctionInterpolation

Menentukan fungsi yang digunakan untuk menginterpolasi peningkatan skor di berbagai dokumen.

Nilai Deskripsi
linear

Meningkatkan skor dengan jumlah yang menurun secara linier. Ini adalah interpolasi default untuk fungsi penilaian.

constant

Meningkatkan skor dengan faktor konstanta.

quadratic

Meningkatkan skor dengan jumlah yang menurun secara kuadrat. Peningkatan menurun perlahan untuk skor yang lebih tinggi, dan lebih cepat saat skor menurun. Opsi interpolasi ini tidak diperbolehkan dalam fungsi penilaian tag.

logarithmic

Meningkatkan skor dengan jumlah yang menurun secara logaritma. Peningkatan menurun dengan cepat untuk skor yang lebih tinggi, dan lebih lambat saat skor menurun. Opsi interpolasi ini tidak diperbolehkan dalam fungsi penilaian tag.

ScoringProfile

Menentukan parameter untuk indeks pencarian yang memengaruhi penilaian dalam kueri pencarian.

Nama Jenis Deskripsi
functionAggregation

ScoringFunctionAggregation

Nilai yang menunjukkan bagaimana hasil fungsi penilaian individu harus digabungkan. Default ke "Jumlah". Diabaikan jika tidak ada fungsi penilaian.

functions ScoringFunction[]:

Kumpulan fungsi yang memengaruhi penilaian dokumen.

name

string

Nama profil penilaian.

text

TextWeights

Parameter yang meningkatkan penilaian berdasarkan kecocokan teks di bidang indeks tertentu.

SearchError

Menjelaskan kondisi kesalahan untuk API.

Nama Jenis Deskripsi
code

string

Salah satu sekumpulan kode kesalahan yang ditentukan server.

details

SearchError[]

Array detail tentang kesalahan tertentu yang menyebabkan kesalahan yang dilaporkan ini.

message

string

Representasi kesalahan yang dapat dibaca manusia.

SearchField

Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang.

Nama Jenis Deskripsi
analyzer

LexicalAnalyzerName

Nama penganalisis yang digunakan untuk bidang . Opsi ini hanya dapat digunakan dengan bidang yang dapat dicari dan tidak dapat diatur bersama dengan searchAnalyzer atau indexAnalyzer. Setelah penganalisis dipilih, penganalisis tidak dapat diubah untuk bidang . Harus null untuk bidang kompleks.

dimensions

integer (int32)

minimum: 2
maximum: 2048

Dimensi bidang vektor.

facetable

boolean

Nilai yang menunjukkan apakah akan mengaktifkan bidang yang akan direferensikan dalam kueri faset. Biasanya digunakan dalam presentasi hasil pencarian yang mencakup hit hit berdasarkan kategori (misalnya, mencari kamera digital dan melihat hit berdasarkan merek, berdasarkan megapiksel, berdasarkan harga, dan sebagainya). Properti ini harus null untuk bidang kompleks. Bidang tipe Edm.GeographyPoint atau Collection(Edm.GeographyPoint) tidak dapat difaset. Default berlaku untuk semua bidang sederhana lainnya.

fields

SearchField[]

Daftar sub-bidang jika ini adalah bidang tipe Edm.ComplexType atau Collection(Edm.ComplexType). Harus null atau kosong untuk bidang sederhana.

filterable

boolean

Nilai yang menunjukkan apakah akan mengaktifkan bidang yang akan direferensikan dalam kueri $filter. dapat difilter berbeda dari yang dapat dicari dalam bagaimana string ditangani. Bidang tipe Edm.String atau Collection(Edm.String) yang dapat difilter tidak mengalami pemecahan kata, sehingga perbandingan hanya untuk kecocokan yang tepat. Misalnya, jika Anda mengatur bidang f seperti itu ke "hari cerah", $filter=f eq 'cerah' tidak akan menemukan kecocokan, tetapi $filter=f eq 'hari cerah' akan. Properti ini harus null untuk bidang kompleks. Default berlaku untuk bidang sederhana dan null untuk bidang kompleks.

indexAnalyzer

LexicalAnalyzerName

Nama penganalisis yang digunakan pada waktu pengindeksan untuk bidang . Opsi ini hanya dapat digunakan dengan bidang yang dapat dicari. Ini harus diatur bersama dengan searchAnalyzer dan tidak dapat diatur bersama dengan opsi penganalisis. Properti ini tidak dapat diatur ke nama penganalisis bahasa; gunakan properti penganalisis sebagai gantinya jika Anda memerlukan penganalisis bahasa. Setelah penganalisis dipilih, penganalisis tidak dapat diubah untuk bidang . Harus null untuk bidang kompleks.

key

boolean

Nilai yang menunjukkan apakah bidang secara unik mengidentifikasi dokumen dalam indeks. Tepat satu bidang tingkat atas di setiap indeks harus dipilih sebagai bidang kunci dan harus berjenis Edm.String. Bidang kunci dapat digunakan untuk mencari dokumen secara langsung dan memperbarui atau menghapus dokumen tertentu. Defaultnya adalah false untuk bidang sederhana dan null untuk bidang kompleks.

name

string

Nama bidang, yang harus unik dalam kumpulan bidang indeks atau bidang induk.

retrievable

boolean

Nilai yang menunjukkan apakah bidang dapat dikembalikan dalam hasil pencarian. Anda dapat menonaktifkan opsi ini jika Anda ingin menggunakan bidang (misalnya, margin) sebagai mekanisme filter, pengurutan, atau penilaian tetapi tidak ingin bidang terlihat oleh pengguna akhir. Properti ini harus benar untuk bidang kunci, dan harus null untuk bidang kompleks. Properti ini dapat diubah pada bidang yang ada. Mengaktifkan properti ini tidak menyebabkan peningkatan persyaratan penyimpanan indeks. Default berlaku untuk bidang sederhana dan null untuk bidang kompleks.

searchAnalyzer

LexicalAnalyzerName

Nama penganalisis yang digunakan pada waktu pencarian untuk bidang . Opsi ini hanya dapat digunakan dengan bidang yang dapat dicari. Ini harus diatur bersama dengan indexAnalyzer dan tidak dapat diatur bersama dengan opsi penganalisis. Properti ini tidak dapat diatur ke nama penganalisis bahasa; gunakan properti penganalisis sebagai gantinya jika Anda memerlukan penganalisis bahasa. Penganalisis ini dapat diperbarui pada bidang yang ada. Harus null untuk bidang kompleks.

searchable

boolean

Nilai yang menunjukkan apakah bidang dapat dicari teks lengkap. Ini berarti ia akan menjalani analisis seperti pemecahan kata selama pengindeksan. Jika Anda mengatur bidang yang dapat dicari ke nilai seperti "hari cerah", secara internal akan dibagi menjadi token individu "cerah" dan "hari". Ini memungkinkan pencarian teks lengkap untuk istilah-istilah ini. Bidang tipe Edm.String atau Collection(Edm.String) dapat dicari secara default. Properti ini harus salah untuk bidang sederhana dari jenis data non-string lainnya, dan harus null untuk bidang kompleks. Catatan: bidang yang dapat dicari menggunakan ruang ekstra dalam indeks Anda untuk mengakomodasi versi token tambahan dari nilai bidang untuk pencarian teks lengkap. Jika Anda ingin menghemat ruang dalam indeks Dan Anda tidak memerlukan bidang untuk disertakan dalam pencarian, atur dapat dicari ke false.

sortable

boolean

Nilai yang menunjukkan apakah akan mengaktifkan bidang yang akan direferensikan dalam ekspresi $orderby. Secara default, mesin pencari mengurutkan hasil menurut skor, tetapi dalam banyak pengalaman pengguna akan ingin mengurutkan menurut bidang dalam dokumen. Bidang sederhana hanya dapat diurutkan jika bernilai tunggal (memiliki nilai tunggal dalam cakupan dokumen induk). Bidang koleksi sederhana tidak dapat diurutkan, karena bernilai multinilai. Sub-bidang sederhana dari koleksi kompleks juga multinilai, dan karenanya tidak dapat diurutkan. Ini benar apakah itu bidang induk langsung, atau bidang leluhur, itulah koleksi kompleks. Bidang kompleks tidak dapat diurutkan dan properti yang dapat diurutkan harus null untuk bidang tersebut. Default untuk dapat diurutkan adalah true untuk bidang sederhana bernilai tunggal, false untuk bidang sederhana multinilai, dan null untuk bidang kompleks.

synonymMaps

string[]

Daftar nama peta sinonim untuk dikaitkan dengan bidang ini. Opsi ini hanya dapat digunakan dengan bidang yang dapat dicari. Saat ini hanya satu peta sinonim per bidang yang didukung. Menetapkan peta sinonim ke bidang memastikan bahwa istilah kueri yang menargetkan bidang tersebut diperluas pada waktu kueri menggunakan aturan di peta sinonim. Atribut ini dapat diubah pada bidang yang ada. Harus null atau koleksi kosong untuk bidang kompleks.

type

SearchFieldDataType

Jenis data bidang.

vectorSearchProfile

string

Nama profil pencarian vektor yang menentukan algoritma yang akan digunakan saat mencari bidang vektor.

SearchFieldDataType

Menentukan tipe data bidang dalam indeks pencarian.

Nilai Deskripsi
Edm.String

Menunjukkan bahwa bidang berisi string.

Edm.Int32

Menunjukkan bahwa bidang berisi bilangan bulat bertanda tangan 32-bit.

Edm.Int64

Menunjukkan bahwa bidang berisi bilangan bulat bertanda tangan 64-bit.

Edm.Double

Menunjukkan bahwa bidang berisi nomor titik mengambang presisi ganda IEEE.

Edm.Boolean

Menunjukkan bahwa bidang berisi nilai Boolean (benar atau salah).

Edm.DateTimeOffset

Menunjukkan bahwa bidang berisi nilai tanggal/waktu, termasuk informasi zona waktu.

Edm.GeographyPoint

Menunjukkan bahwa bidang berisi lokasi geografis dalam hal garis bujur dan lintang.

Edm.ComplexType

Menunjukkan bahwa bidang berisi satu atau beberapa objek kompleks yang pada gilirannya memiliki sub-bidang jenis lain.

Edm.Single

Menunjukkan bahwa bidang berisi angka titik mengambang presisi tunggal. Ini hanya valid ketika digunakan dengan Collection(Edm.Single).

SearchIndex

Mewakili definisi indeks pencarian, yang menjelaskan bidang dan perilaku pencarian indeks.

Nama Jenis Deskripsi
@odata.etag

string

ETag indeks.

analyzers LexicalAnalyzer[]:

Penganalisis untuk indeks.

charFilters CharFilter[]:

Karakter memfilter indeks.

corsOptions

CorsOptions

Opsi untuk mengontrol Berbagi Sumber Daya Lintas Asal (CORS) untuk indeks.

defaultScoringProfile

string

Nama profil penilaian yang akan digunakan jika tidak ada yang ditentukan dalam kueri. Jika properti ini tidak diatur dan tidak ada profil penilaian yang ditentukan dalam kueri, maka penilaian default (tf-idf) akan digunakan.

encryptionKey

SearchResourceEncryptionKey

Deskripsi kunci enkripsi yang Anda buat di Azure Key Vault. Kunci ini digunakan untuk menyediakan tingkat enkripsi-tidak aktif tambahan untuk data Anda ketika Anda menginginkan jaminan penuh bahwa tidak ada yang, bahkan Microsoft, dapat mendekripsi data Anda. Setelah Anda mengenkripsi data Anda, data tersebut akan selalu tetap dienkripsi. Layanan pencarian akan mengabaikan upaya untuk mengatur properti ini ke null. Anda dapat mengubah properti ini sesuai kebutuhan jika Anda ingin memutar kunci enkripsi; Data Anda tidak akan terpengaruh. Enkripsi dengan kunci yang dikelola pelanggan tidak tersedia untuk layanan pencarian gratis, dan hanya tersedia untuk layanan berbayar yang dibuat pada atau setelah 1 Januari 2019.

fields

SearchField[]

Bidang indeks.

name

string

Nama indeks.

scoringProfiles

ScoringProfile[]

Profil penilaian untuk indeks.

semantic

SemanticSettings

Menentukan parameter untuk indeks pencarian yang memengaruhi kemampuan semantik.

similarity Similarity:

Jenis algoritma kesamaan yang akan digunakan saat menilai dan memberi peringkat dokumen yang cocok dengan kueri pencarian. Algoritma kesamaan hanya dapat ditentukan pada waktu pembuatan indeks dan tidak dapat dimodifikasi pada indeks yang ada. Jika null, algoritma ClassicSimilarity digunakan.

suggesters

Suggester[]

Pemberi saran untuk indeks.

tokenFilters TokenFilter[]:

Token memfilter indeks.

tokenizers LexicalTokenizer[]:

Tokenizer untuk indeks.

vectorSearch

VectorSearch

Berisi opsi konfigurasi yang terkait dengan pencarian vektor.

SearchResourceEncryptionKey

Kunci enkripsi yang dikelola pelanggan di Azure Key Vault. Kunci yang Anda buat dan kelola dapat digunakan untuk mengenkripsi atau mendekripsi data tidak aktif di layanan pencarian Anda, seperti indeks dan peta sinonim.

Nama Jenis Deskripsi
accessCredentials

AzureActiveDirectoryApplicationCredentials

Kredensial Azure Active Directory opsional yang digunakan untuk mengakses Azure Key Vault Anda. Tidak diperlukan jika menggunakan identitas terkelola sebagai gantinya.

keyVaultKeyName

string

Nama kunci Azure Key Vault Anda yang akan digunakan untuk mengenkripsi data Anda saat tidak aktif.

keyVaultKeyVersion

string

Versi kunci Azure Key Vault Anda yang akan digunakan untuk mengenkripsi data Anda saat tidak aktif.

keyVaultUri

string

URI Azure Key Vault Anda, juga disebut sebagai nama DNS, yang berisi kunci yang akan digunakan untuk mengenkripsi data Anda saat tidak aktif. Contoh URI mungkin https://my-keyvault-name.vault.azure.net.

SemanticConfiguration

Menentukan konfigurasi tertentu yang akan digunakan dalam konteks kemampuan semantik.

Nama Jenis Deskripsi
name

string

Nama konfigurasi semantik.

prioritizedFields

PrioritizedFields

Menjelaskan bidang judul, konten, dan kata kunci yang akan digunakan untuk peringkat, keterangan, sorotan, dan jawaban semantik. Setidaknya salah satu dari tiga sub properti (titleField, prioritizedKeywordsFields dan prioritizedContentFields) perlu diatur.

SemanticField

Bidang yang digunakan sebagai bagian dari konfigurasi semantik.

Nama Jenis Deskripsi
fieldName

string

SemanticSettings

Menentukan parameter untuk indeks pencarian yang memengaruhi kemampuan semantik.

Nama Jenis Deskripsi
configurations

SemanticConfiguration[]

Konfigurasi semantik untuk indeks.

defaultConfiguration

string

Memungkinkan Anda mengatur nama konfigurasi semantik default dalam indeks Anda, membuatnya opsional untuk meneruskannya sebagai parameter kueri setiap saat.

ShingleTokenFilter

Membuat kombinasi token sebagai token tunggal. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

Fragmen URI yang menentukan jenis filter token.

filterToken

string

_

String yang akan disisipkan untuk setiap posisi di mana tidak ada token. Defaultnya adalah garis bawah ("_").

maxShingleSize

integer (int32)

minimum: 2
2

Ukuran shingle maksimum. Nilai default dan minimum adalah 2.

minShingleSize

integer (int32)

minimum: 2
2

Ukuran shingle minimum. Nilai default dan minimum adalah 2. Harus kurang dari nilai maxShingleSize.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

outputUnigrams

boolean

True

Nilai yang menunjukkan apakah aliran output akan berisi token input (unigram) serta shingle. Defaultnya adalah true.

outputUnigramsIfNoShingles

boolean

False

Nilai yang menunjukkan apakah akan menghasilkan unigram untuk waktu tersebut ketika tidak ada shingle yang tersedia. Properti ini lebih diutamakan ketika outputUnigram diatur ke false. Defaultnya adalah false.

tokenSeparator

string

String yang digunakan saat menggabungkan token yang berdekatan untuk membentuk shingle. Defaultnya adalah spasi tunggal (" ").

SnowballTokenFilter

Filter yang membendung kata-kata menggunakan stemmer yang dihasilkan Snowball. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Deskripsi
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

Fragmen URI yang menentukan jenis filter token.

language

SnowballTokenFilterLanguage

Bahasa yang digunakan.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

SnowballTokenFilterLanguage

Bahasa yang digunakan untuk filter token Snowball.

Nilai Deskripsi
armenian

Memilih tokenizer stemming Lucene Snowball untuk Armenia.

basque

Memilih tokenizer stemming Lucene Snowball untuk Basque.

catalan

Memilih tokenizer stemming Lucene Snowball untuk Catalan.

danish

Memilih tokenizer stemming Lucene Snowball untuk Denmark.

dutch

Memilih tokenizer stemming Lucene Snowball untuk Belanda.

english

Memilih tokenizer stemming Lucene Snowball untuk bahasa Inggris.

finnish

Memilih tokenizer stemming Lucene Snowball untuk Finlandia.

french

Memilih tokenizer stemming Lucene Snowball untuk bahasa Prancis.

german

Memilih tokenizer stemming Lucene Snowball untuk bahasa Jerman.

german2

Memilih tokenizer stemming Lucene Snowball yang menggunakan algoritma varian Jerman.

hungarian

Memilih tokenizer stemming Lucene Snowball untuk Hungaria.

italian

Memilih tokenizer stemming Lucene Snowball untuk bahasa Italia.

kp

Memilih tokenizer stemming Lucene Snowball untuk Belanda yang menggunakan algoritma stemming Kraaij-Pohlmann.

lovins

Memilih tokenizer stemming Lucene Snowball untuk bahasa Inggris yang menggunakan algoritma stemming Lovins.

norwegian

Memilih tokenizer stemming Lucene Snowball untuk Norwegia.

porter

Memilih tokenizer stemming Lucene Snowball untuk bahasa Inggris yang menggunakan algoritma stemming Porter.

portuguese

Memilih tokenizer stemming Lucene Snowball untuk Bahasa Portugis.

romanian

Memilih tokenizer stemming Lucene Snowball untuk rumania.

russian

Memilih tokenizer stemming Lucene Snowball untuk bahasa Rusia.

spanish

Memilih tokenizer stemming Lucene Snowball untuk Bahasa Spanyol.

swedish

Memilih tokenizer stemming Lucene Snowball untuk Swedia.

turkish

Memilih tokenizer stemming Lucene Snowball untuk Turki.

StemmerOverrideTokenFilter

Menyediakan kemampuan untuk mengambil alih filter stemming lain dengan stemming berbasis kamus kustom. Istilah apa pun yang bertangkai kamus akan ditandai sebagai kata kunci sehingga tidak akan dibendung dengan stemmer di bawah rantai. Harus ditempatkan sebelum filter stemming. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Deskripsi
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

Fragmen URI yang menentukan jenis filter token.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

rules

string[]

Daftar aturan stemming dalam format berikut: "word => stem", misalnya: "ran => run".

StemmerTokenFilter

Filter stemming khusus bahasa. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Deskripsi
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

Fragmen URI yang menentukan jenis filter token.

language

StemmerTokenFilterLanguage

Bahasa yang digunakan.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

StemmerTokenFilterLanguage

Bahasa yang digunakan untuk filter token stemmer.

Nilai Deskripsi
arabic

Memilih tokenizer stemming Lucene untuk bahasa Arab.

armenian

Memilih tokenizer stemming Lucene untuk Armenia.

basque

Memilih tokenizer stemming Lucene untuk Basque.

brazilian

Memilih tokenizer stemming Lucene untuk Portugis (Brasil).

bulgarian

Memilih tokenizer stemming Lucene untuk Bulgaria.

catalan

Memilih tokenizer stemming Lucene untuk Catalan.

czech

Memilih tokenizer stemming Lucene untuk Ceko.

danish

Memilih tokenizer stemming Lucene untuk Denmark.

dutch

Memilih tokenizer stemming Lucene untuk Belanda.

dutchKp

Memilih tokenizer stemming Lucene untuk Bahasa Belanda yang menggunakan algoritma stemming Kraaij-Pohlmann.

english

Memilih tokenizer stemming Lucene untuk bahasa Inggris.

lightEnglish

Memilih tokenizer stemming Lucene untuk bahasa Inggris yang melakukan stemming ringan.

minimalEnglish

Memilih tokenizer stemming Lucene untuk bahasa Inggris yang melakukan stemming minimal.

possessiveEnglish

Memilih tokenizer stemming Lucene untuk bahasa Inggris yang menghapus posesif berikutnya dari kata-kata.

porter2

Memilih tokenizer stemming Lucene untuk bahasa Inggris yang menggunakan algoritma stemming Porter2.

lovins

Memilih tokenizer stemming Lucene untuk bahasa Inggris yang menggunakan algoritma stemming Lovins.

finnish

Memilih tokenizer stemming Lucene untuk Finlandia.

lightFinnish

Memilih tokenizer stemming Lucene untuk Finlandia yang melakukan stemming ringan.

french

Memilih tokenizer stemming Lucene untuk bahasa Prancis.

lightFrench

Memilih tokenizer stemming Lucene untuk bahasa Prancis yang melakukan stemming ringan.

minimalFrench

Memilih tokenizer stemming Lucene untuk bahasa Prancis yang melakukan stemming minimal.

galician

Memilih tokenizer stemming Lucene untuk Galician.

minimalGalician

Memilih tokenizer stemming Lucene untuk Galician yang melakukan stemming minimal.

german

Memilih tokenizer stemming Lucene untuk bahasa Jerman.

german2

Memilih tokenizer stemming Lucene yang menggunakan algoritma varian Jerman.

lightGerman

Memilih tokenizer stemming Lucene untuk bahasa Jerman yang melakukan stemming ringan.

minimalGerman

Memilih tokenizer stemming Lucene untuk bahasa Jerman yang melakukan stemming minimal.

greek

Memilih tokenizer stemming Lucene untuk bahasa Yunani.

hindi

Memilih tokenizer stemming Lucene untuk Hindi.

hungarian

Memilih tokenizer stemming Lucene untuk Hungaria.

lightHungarian

Memilih tokenizer stemming Lucene untuk Hungaria yang melakukan stemming ringan.

indonesian

Memilih tokenizer stemming Lucene untuk bahasa Indonesia.

irish

Memilih tokenizer stemming Lucene untuk Irlandia.

italian

Memilih tokenizer stemming Lucene untuk Bahasa Italia.

lightItalian

Memilih tokenizer stemming Lucene untuk Italia yang melakukan stemming ringan.

sorani

Memilih tokenizer stemming Lucene untuk Sorani.

latvian

Memilih tokenizer stemming Lucene untuk Latvia.

norwegian

Memilih tokenizer stemming Lucene untuk Norwegia (Bokmål).

lightNorwegian

Memilih tokenizer stemming Lucene untuk Norwegia (Bokmål) yang melakukan stemming ringan.

minimalNorwegian

Memilih tokenizer stemming Lucene untuk Norwegia (Bokmål) yang melakukan stemming minimal.

lightNynorsk

Memilih tokenizer stemming Lucene untuk Norwegia (Nynorsk) yang melakukan stemming ringan.

minimalNynorsk

Memilih tokenizer stemming Lucene untuk Norwegia (Nynorsk) yang melakukan stemming minimal.

portuguese

Memilih tokenizer stemming Lucene untuk Bahasa Portugis.

lightPortuguese

Memilih tokenizer stemming Lucene untuk bahasa Portugis yang melakukan stemming ringan.

minimalPortuguese

Memilih tokenizer stemming Lucene untuk Portugis yang melakukan stemming minimal.

portugueseRslp

Memilih tokenizer stemming Lucene untuk Bahasa Portugis yang menggunakan algoritma stemming RSLP.

romanian

Memilih tokenizer stemming Lucene untuk Rumania.

russian

Memilih tokenizer stemming Lucene untuk Rusia.

lightRussian

Memilih tokenizer stemming Lucene untuk Rusia yang melakukan stemming ringan.

spanish

Memilih tokenizer stemming Lucene untuk Bahasa Spanyol.

lightSpanish

Memilih tokenizer stemming Lucene untuk Spanyol yang melakukan stemming ringan.

swedish

Memilih tokenizer stemming Lucene untuk Swedia.

lightSwedish

Memilih tokenizer stemming Lucene untuk Swedia yang melakukan stemming ringan.

turkish

Memilih tokenizer stemming Lucene untuk Turki.

StopAnalyzer

Membagi teks pada non-huruf; Menerapkan filter token huruf kecil dan stopword. Penganalisis ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Deskripsi
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

Fragmen URI yang menentukan jenis penganalisis.

name

string

Nama penganalisis. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

stopwords

string[]

Daftar kata henti.

StopwordsList

Mengidentifikasi daftar stopword khusus bahasa yang telah ditentukan sebelumnya.

Nilai Deskripsi
arabic

Memilih daftar stopword untuk Bahasa Arab.

armenian

Memilih daftar stopword untuk Armenia.

basque

Memilih daftar stopword untuk Basque.

brazilian

Memilih daftar stopword untuk Bahasa Portugis (Brasil).

bulgarian

Memilih daftar stopword untuk bahasa Bulgaria.

catalan

Memilih daftar stopword untuk Catalan.

czech

Memilih daftar stopword untuk Ceko.

danish

Memilih daftar stopword untuk Bahasa Denmark.

dutch

Memilih daftar stopword untuk Bahasa Belanda.

english

Memilih daftar stopword untuk bahasa Inggris.

finnish

Memilih daftar stopword untuk bahasa Finlandia.

french

Memilih daftar stopword untuk bahasa Prancis.

galician

Memilih daftar stopword untuk Galician.

german

Memilih daftar stopword untuk bahasa Jerman.

greek

Memilih daftar stopword untuk bahasa Yunani.

hindi

Memilih daftar stopword untuk Hindi.

hungarian

Memilih daftar stopword untuk Hungaria.

indonesian

Memilih daftar stopword untuk bahasa Indonesia.

irish

Memilih daftar stopword untuk Irlandia.

italian

Memilih daftar stopword untuk bahasa Italia.

latvian

Memilih daftar stopword untuk bahasa Latvia.

norwegian

Memilih daftar stopword untuk Bahasa Norwegia.

persian

Memilih daftar stopword untuk Persia.

portuguese

Memilih daftar stopword untuk Bahasa Portugis.

romanian

Memilih daftar stopword untuk Rumania.

russian

Memilih daftar stopword untuk bahasa Rusia.

sorani

Memilih daftar stopword untuk Sorani.

spanish

Memilih daftar stopword untuk bahasa Spanyol.

swedish

Memilih daftar stopword untuk Swedia.

thai

Memilih daftar stopword untuk Bahasa Thailand.

turkish

Memilih daftar stopword untuk Turki.

StopwordsTokenFilter

Menghapus kata berhenti dari aliran token. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

Fragmen URI yang menentukan jenis filter token.

ignoreCase

boolean

False

Nilai yang menunjukkan apakah akan mengabaikan kasus. Jika true, semua kata dikonversi ke huruf kecil terlebih dahulu. Defaultnya adalah false.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

removeTrailing

boolean

True

Nilai yang menunjukkan apakah akan mengabaikan istilah pencarian terakhir jika itu adalah kata berhenti. Defaultnya adalah true.

stopwords

string[]

Daftar stopwords. Properti ini dan properti daftar stopwords tidak dapat disetel keduanya.

stopwordsList

StopwordsList

english

Daftar stopword yang telah ditentukan sebelumnya untuk digunakan. Properti ini dan properti stopwords tidak dapat keduanya diatur. Defaultnya adalah bahasa Inggris.

Suggester

Menentukan bagaimana SUGGEST API harus berlaku untuk sekelompok bidang dalam indeks.

Nama Jenis Deskripsi
name

string

Nama pemberi saran.

searchMode

SuggesterSearchMode

Nilai yang menunjukkan kemampuan pemberi saran.

sourceFields

string[]

Daftar nama bidang yang diterapkan pemberi saran. Setiap bidang harus dapat dicari.

SuggesterSearchMode

Nilai yang menunjukkan kemampuan pemberi saran.

Nilai Deskripsi
analyzingInfixMatching

Cocok dengan seluruh istilah dan awalan berturut-turut dalam bidang. Misalnya, untuk bidang 'Rubah coklat tercepat', kueri 'cepat' dan 'penjelajahan tercepat' keduanya akan cocok.

SynonymTokenFilter

Cocok dengan sinonim tunggal atau multi-kata dalam aliran token. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

Fragmen URI yang menentukan jenis filter token.

expand

boolean

True

Nilai yang menunjukkan apakah semua kata dalam daftar sinonim (jika => notasi tidak digunakan) akan memetakan satu sama lain. Jika true, semua kata dalam daftar sinonim (jika => notasi tidak digunakan) akan memetakan satu sama lain. Daftar berikut: luar biasa, luar biasa, luar biasa, luar biasa, luar biasa setara dengan: luar biasa, luar biasa, luar biasa, menakjubkan => luar biasa, luar biasa, luar biasa, luar biasa, luar biasa, luar biasa. Jika false, daftar berikut: luar biasa, luar biasa, luar biasa, luar biasa, luar biasa akan setara dengan: luar biasa, luar biasa, luar biasa, menakjubkan => luar biasa. Defaultnya adalah true.

ignoreCase

boolean

False

Nilai yang menunjukkan apakah akan memasukkan lipatan huruf besar/kecil untuk pencocokan. Defaultnya adalah false.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

synonyms

string[]

Daftar sinonim dalam salah satu dari dua format berikut: 1. luar biasa, luar biasa, luar biasa => menakjubkan - semua istilah di sisi kiri = simbol> akan diganti dengan semua istilah di sisi kanannya; 2. luar biasa, tidak dapat dipercaya, luar biasa, menakjubkan - daftar kata-kata yang dipisahkan koma yang setara. Atur opsi perluas untuk mengubah bagaimana daftar ini ditafsirkan.

TagScoringFunction

Menentukan fungsi yang meningkatkan skor dokumen dengan nilai string yang cocok dengan daftar tag tertentu.

Nama Jenis Deskripsi
boost

number (double)

Pengali untuk skor mentah. Harus berupa angka positif yang tidak sama dengan 1,0.

fieldName

string

Nama bidang yang digunakan sebagai input ke fungsi penilaian.

interpolation

ScoringFunctionInterpolation

Nilai yang menunjukkan bagaimana peningkatan akan diinterpolasi di seluruh skor dokumen; default ke "Linear".

tag

TagScoringParameters

Nilai parameter untuk fungsi penilaian tag.

type string:

tag

Menunjukkan jenis fungsi yang akan digunakan. Nilai yang valid termasuk besaran, kesegaran, jarak, dan tag. Jenis fungsi harus huruf kecil.

TagScoringParameters

Menyediakan nilai parameter ke fungsi penilaian tag.

Nama Jenis Deskripsi
tagsParameter

string

Nama parameter yang diteruskan dalam kueri pencarian untuk menentukan daftar tag yang akan dibandingkan dengan bidang target.

TextWeights

Menentukan bobot pada bidang indeks yang kecocokannya harus meningkatkan penilaian dalam kueri pencarian.

Nama Jenis Deskripsi
weights

object

Kamus bobot per bidang untuk meningkatkan penilaian dokumen. Kuncinya adalah nama bidang dan nilainya adalah bobot untuk setiap bidang.

TokenCharacterKind

Mewakili kelas karakter tempat filter token dapat beroperasi.

Nilai Deskripsi
letter

Menyimpan huruf dalam token.

digit

Menyimpan digit dalam token.

whitespace

Menyimpan spasi kosong dalam token.

punctuation

Menyimpan tanda baca dalam token.

symbol

Menyimpan simbol dalam token.

TokenFilterName

Menentukan nama semua filter token yang didukung oleh mesin pencari.

Nilai Deskripsi
arabic_normalization

Filter token yang menerapkan normalizer Arab untuk menormalkan ortografi. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html

apostrophe

Menghapus semua karakter setelah apostrof (termasuk apostrof itu sendiri). Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html

asciifolding

Mengonversi karakter Unicode alfabet, numerik, dan simbolis yang tidak berada dalam 127 karakter ASCII pertama (blok Unicode "Latin Dasar" ke dalam setara ASCII mereka, jika setara tersebut ada. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

cjk_bigram

Membentuk bigram istilah CJK yang dihasilkan dari tokenizer standar. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

cjk_width

Menormalkan perbedaan lebar CJK. Melipat varian ASCII fullwidth ke dalam varian Katakana dasar yang setara, dan Katakana lebar setengah ke dalam Kana yang setara. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html

classic

Menghilangkan posesif bahasa Inggris, dan titik-titik dari akronim. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html

common_grams

Buat bigram untuk istilah yang sering terjadi saat mengindeks. Istilah tunggal masih diindeks juga, dengan bigram dilapisi. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

edgeNGram_v2

Menghasilkan n-gram dari ukuran yang diberikan mulai dari depan atau belakang token input. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

elision

Menghapus elisi. Misalnya, "l'avion" (bidang) akan dikonversi menjadi "avion" (bidang). Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

german_normalization

Menormalkan karakter Jerman sesuai dengan heuristik algoritma bola salju Jerman2. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html

hindi_normalization

Menormalkan teks dalam bahasa Hindi untuk menghapus beberapa perbedaan dalam variasi ejaan. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html

indic_normalization

Menormalkan representasi Unicode teks dalam bahasa India. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html

keyword_repeat

Memancarkan setiap token masuk dua kali, sekali sebagai kata kunci dan sekali sebagai non-kata kunci. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html

kstem

Filter kstem berkinerja tinggi untuk bahasa Inggris. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html

length

Menghapus kata-kata yang terlalu panjang atau terlalu pendek. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

limit

Membatasi jumlah token saat mengindeks. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

lowercase

Menormalkan teks token ke huruf kecil. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm

nGram_v2

Menghasilkan n-gram dari ukuran yang diberikan. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

persian_normalization

Menerapkan normalisasi untuk Persia. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html

phonetic

Buat token untuk kecocokan fonetik. Lihat https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

porter_stem

Menggunakan algoritma stemming Porter untuk mengubah aliran token. Lihat http://tartarus.org/~martin/PorterStemmer

reverse

Membalikkan string token. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

scandinavian_normalization

Menormalkan penggunaan karakter Skandinavia yang dapat dipertukarkan. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html

scandinavian_folding

Lipat karakter Skandinavia åÅäæÄÆ->dan öÖøØ->o. Ini juga mendiskriminasi penggunaan vokal ganda aa, ae, ao, oe dan oo, hanya meninggalkan yang pertama. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html

shingle

Membuat kombinasi token sebagai token tunggal. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

snowball

Filter yang membendung kata-kata menggunakan stemmer yang dihasilkan Snowball. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

sorani_normalization

Menormalkan representasi Unicode dari teks Sorani. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html

stemmer

Filter stemming khusus bahasa. Lihat https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

stopwords

Menghapus kata berhenti dari aliran token. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

trim

Memangkas spasi kosong di depan dan di belakang dari token. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html

truncate

Memotong istilah ke panjang tertentu. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

unique

Memfilter token dengan teks yang sama dengan token sebelumnya. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

uppercase

Menormalkan teks token ke huruf besar. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

word_delimiter

Membagi kata menjadi subkata dan melakukan transformasi opsional pada grup subkata.

TruncateTokenFilter

Memotong istilah ke panjang tertentu. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

Fragmen URI yang menentukan jenis filter token.

length

integer (int32)

maximum: 300
300

Panjang istilah yang akan dipotong. Default dan maksimum adalah 300.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

UaxUrlEmailTokenizer

Tokenisasi url dan email sebagai satu token. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

Fragmen URI yang menentukan jenis tokenizer.

maxTokenLength

integer (int32)

maximum: 300
255

Panjang token maksimum. Defaultnya adalah 255. Token yang lebih panjang dari panjang maksimum dibagi. Panjang token maksimum yang dapat digunakan adalah 300 karakter.

name

string

Nama tokenizer. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

UniqueTokenFilter

Memfilter token dengan teks yang sama dengan token sebelumnya. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

Fragmen URI yang menentukan jenis filter token.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

onlyOnSamePosition

boolean

False

Nilai yang menunjukkan apakah akan menghapus duplikat hanya pada posisi yang sama. Defaultnya adalah false.

VectorSearch

Berisi opsi konfigurasi yang terkait dengan pencarian vektor.

Nama Jenis Deskripsi
algorithms VectorSearchAlgorithmConfiguration[]:

Berisi opsi konfigurasi khusus untuk algoritma yang digunakan selama pengindeksan atau kueri.

profiles

VectorSearchProfile[]

Menentukan kombinasi konfigurasi yang akan digunakan dengan pencarian vektor.

VectorSearchAlgorithmKind

Algoritma yang digunakan untuk pengindeksan dan kueri.

Nilai Deskripsi
hnsw

HNSW (Hierarkis Navigable Small World), jenis sekitar algoritma tetangga terdekat.

exhaustiveKnn

Algoritma KNN lengkap yang akan melakukan pencarian brute-force.

VectorSearchAlgorithmMetric

Metrik kesamaan yang digunakan untuk perbandingan vektor.

Nilai Deskripsi
cosine
euclidean
dotProduct

VectorSearchProfile

Menentukan kombinasi konfigurasi yang akan digunakan dengan pencarian vektor.

Nama Jenis Deskripsi
algorithm

string

Nama konfigurasi algoritma pencarian vektor yang menentukan algoritma dan parameter opsional.

name

string

Nama yang akan dikaitkan dengan profil pencarian vektor tertentu ini.

WordDelimiterTokenFilter

Membagi kata menjadi subkata dan melakukan transformasi opsional pada grup subkata. Filter token ini diimplementasikan menggunakan Apache Lucene.

Nama Jenis Nilai default Deskripsi
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

Fragmen URI yang menentukan jenis filter token.

catenateAll

boolean

False

Nilai yang menunjukkan apakah semua bagian subkata akan diukur. Misalnya, jika ini diatur ke true, "Azure-Search-1" menjadi "AzureSearch1". Defaultnya adalah false.

catenateNumbers

boolean

False

Nilai yang menunjukkan apakah eksekusi maksimum bagian angka akan di catenated. Misalnya, jika ini diatur ke true, "1-2" menjadi "12". Defaultnya adalah false.

catenateWords

boolean

False

Nilai yang menunjukkan apakah eksekusi maksimum bagian kata akan diukur. Misalnya, jika ini diatur ke true, "Azure-Search" menjadi "AzureSearch". Defaultnya adalah false.

generateNumberParts

boolean

True

Nilai yang menunjukkan apakah akan menghasilkan subkata angka. Defaultnya adalah true.

generateWordParts

boolean

True

Nilai yang menunjukkan apakah akan menghasilkan kata-kata bagian. Jika diatur, menyebabkan bagian kata dihasilkan; misalnya "AzureSearch" menjadi "Azure" "Search". Defaultnya adalah true.

name

string

Nama filter token. Ini hanya boleh berisi huruf, digit, spasi, tanda hubung atau garis bawah, hanya dapat dimulai dan diakhir dengan karakter alfanumerik, dan dibatasi hingga 128 karakter.

preserveOriginal

boolean

False

Nilai yang menunjukkan apakah kata asli akan dipertahankan dan ditambahkan ke daftar subkata. Defaultnya adalah false.

protectedWords

string[]

Daftar token yang akan dilindungi agar tidak dibatasi.

splitOnCaseChange

boolean

True

Nilai yang menunjukkan apakah akan membagi kata pada caseChange. Misalnya, jika ini diatur ke true, "AzureSearch" menjadi "Azure" "Search". Defaultnya adalah true.

splitOnNumerics

boolean

True

Nilai yang menunjukkan apakah akan memisahkan angka. Misalnya, jika ini diatur ke true, "Azure1Search" menjadi "Azure" "1" "Search". Defaultnya adalah true.

stemEnglishPossessive

boolean

True

Nilai yang menunjukkan apakah akan menghapus "'s" berikutnya untuk setiap subkata. Defaultnya adalah true.