Indexes - Create Or Update

Erstellt einen neuen Suchindex oder aktualisiert einen Index, sofern er bereits vorhanden ist.

PUT {endpoint}/indexes('{indexName}')?api-version=2023-11-01
PUT {endpoint}/indexes('{indexName}')?allowIndexDowntime={allowIndexDowntime}&api-version=2023-11-01

URI-Parameter

Name In Erforderlich Typ Beschreibung
endpoint
path True

string

Die Endpunkt-URL des Suchdiensts.

indexName
path True

string

Die Definition des zu erstellenden oder zu aktualisierenden Indexes.

api-version
query True

string

Client-API-Version.

allowIndexDowntime
query

boolean

Ermöglicht das Hinzufügen neuer Analysetools, Tokenizer, Tokenfilter oder Zeichenfilter zu einem Index, indem der Index für mindestens einige Sekunden offline geschaltet wird. Dies führt vorübergehend zu Fehlern bei Indizierungs- und Abfrageanforderungen. Leistung und Schreibverfügbarkeit des Indexes können nach der Indexaktualisierung mehrere Minuten lang eingeschränkt sein, bei sehr großen Indizes auch länger.

Anforderungsheader

Name Erforderlich Typ Beschreibung
x-ms-client-request-id

string

uuid

Die Verfolgungs-ID, die mit der Anforderung gesendet wurde, um beim Debuggen zu helfen.

If-Match

string

Definiert die If-Match Bedingung. Der Vorgang wird nur ausgeführt, wenn das ETag auf dem Server mit diesem Wert übereinstimmt.

If-None-Match

string

Definiert die Bedingung If-None-Match. Der Vorgang wird nur ausgeführt, wenn das ETag auf dem Server nicht mit diesem Wert übereinstimmt.

Prefer True

string

Weist den Dienst bei HTTP PUT-Anforderungen an, die erstellte/aktualisierte Ressource bei Erfolg zurückzugeben.

Anforderungstext

Name Erforderlich Typ Beschreibung
fields True

SearchField[]

Die Felder des Indexes.

name True

string

Der Name des Index.

@odata.etag

string

Das ETag des Indexes.

analyzers LexicalAnalyzer[]:

Die Analysetools für den Index.

charFilters CharFilter[]:

Das Zeichen filtert nach dem Index.

corsOptions

CorsOptions

Optionen zum Steuern der ressourcenübergreifenden Ressourcenfreigabe (Cross-Origin Resource Sharing, CORS) für den Index.

defaultScoringProfile

string

Der Name des Bewertungsprofils, das verwendet werden soll, wenn in der Abfrage keiner angegeben ist. Wenn diese Eigenschaft nicht festgelegt ist und kein Bewertungsprofil in der Abfrage angegeben ist, wird die Standardbewertung (tf-idf) verwendet.

encryptionKey

SearchResourceEncryptionKey

Eine Beschreibung eines Verschlüsselungsschlüssels, den Sie in Azure Key Vault erstellen. Dieser Schlüssel wird verwendet, um eine zusätzliche Ebene der Verschlüsselung ruhender Daten bereitzustellen, wenn Sie die volle Gewissheit haben möchten, dass niemand, nicht einmal Microsoft, Ihre Daten entschlüsseln kann. Sobald Sie Ihre Daten verschlüsselt haben, bleiben sie immer verschlüsselt. Der Suchdienst ignoriert Versuche, diese Eigenschaft auf NULL festzulegen. Sie können diese Eigenschaft bei Bedarf ändern, wenn Sie Ihren Verschlüsselungsschlüssel rotieren möchten. Ihre Daten bleiben unberührt. Die Verschlüsselung mit kundenseitig verwalteten Schlüsseln ist für kostenlose Suchdienste nicht verfügbar und nur für kostenpflichtige Dienste verfügbar, die am oder nach dem 1. Januar 2019 erstellt wurden.

scoringProfiles

ScoringProfile[]

Die Bewertungsprofile für den Index.

semantic

SemanticSettings

Definiert Parameter für einen Suchindex, die semantische Funktionen beeinflussen.

similarity Similarity:

Der Typ des Ähnlichkeitsalgorithmus, der bei der Bewertung und Rangfolge der Dokumente verwendet werden soll, die einer Suchabfrage entsprechen. Der Ähnlichkeitsalgorithmus kann nur zum Zeitpunkt der Indexerstellung definiert werden und kann nicht für vorhandene Indizes geändert werden. Bei NULL wird der ClassicSimilarity-Algorithmus verwendet.

suggesters

Suggester[]

Die Vorschlagsfunktion für den Index.

tokenFilters TokenFilter[]:

Das Token filtert nach dem Index.

tokenizers LexicalTokenizer[]:

Die Tokenizer für den Index.

vectorSearch

VectorSearch

Enthält Konfigurationsoptionen im Zusammenhang mit der Vektorsuche.

Antworten

Name Typ Beschreibung
200 OK

SearchIndex

201 Created

SearchIndex

Other Status Codes

SearchError

Fehlerantwort.

Beispiele

SearchServiceCreateOrUpdateIndex

Sample Request

PUT https://myservice.search.windows.net/indexes('hotels')?allowIndexDowntime=False&api-version=2023-11-01


{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "key": true,
      "searchable": false
    },
    {
      "name": "baseRate",
      "type": "Edm.Double"
    },
    {
      "name": "description",
      "type": "Edm.String",
      "filterable": false,
      "sortable": false,
      "facetable": false
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile",
      "searchable": true,
      "retrievable": true
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "filterable": false,
      "sortable": false,
      "facetable": false,
      "analyzer": "fr.lucene"
    },
    {
      "name": "hotelName",
      "type": "Edm.String"
    },
    {
      "name": "category",
      "type": "Edm.String"
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "analyzer": "tagsAnalyzer"
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean"
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean"
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset"
    },
    {
      "name": "rating",
      "type": "Edm.Int32"
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint"
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "type": "distance",
          "boost": 5,
          "fieldName": "location",
          "interpolation": "logarithmic",
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2"
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": null
  },
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.ClassicSimilarity"
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myExhaustive"
      }
    ],
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "m": 4,
          "metric": "cosine"
        }
      },
      {
        "name": "myExhaustive",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ]
  }
}

Sample Response

{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "baseRate",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile",
      "synonymMaps": []
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "fr.lucene",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "hotelName",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": false,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "tagsAnalyzer",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "rating",
      "type": "Edm.Int32",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "type": "distance",
          "boost": 5,
          "fieldName": "location",
          "interpolation": "logarithmic",
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2"
    }
  ],
  "tokenizers": [],
  "tokenFilters": [],
  "charFilters": [],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": null
  },
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.ClassicSimilarity"
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "myExhaustive",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ],
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myExhaustive"
      }
    ]
  }
}
{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "baseRate",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile",
      "synonymMaps": []
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "fr.lucene",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "hotelName",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": false,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "tagsAnalyzer",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "rating",
      "type": "Edm.Int32",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "type": "distance",
          "boost": 5,
          "fieldName": "location",
          "interpolation": "logarithmic",
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2"
    }
  ],
  "tokenizers": [],
  "tokenFilters": [],
  "charFilters": [],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": null
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "myExhaustive",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ],
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myExhaustive"
      }
    ]
  }
}

Definitionen

Name Beschreibung
AsciiFoldingTokenFilter

Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, sofern solche Entsprechungen vorhanden sind. Dieser Tokenfilter wird mit Apache Lucene implementiert.

AzureActiveDirectoryApplicationCredentials

Anmeldeinformationen einer registrierten Anwendung, die für Ihren Suchdienst erstellt wurde und für den authentifizierten Zugriff auf die in Azure Key Vault gespeicherten Verschlüsselungsschlüssel verwendet wird.

BM25Similarity

Rangfolgefunktion basierend auf dem Okapi BM25-Ähnlichkeitsalgorithmus. BM25 ist ein TF-IDF-ähnlicher Algorithmus, der die Längennormalisierung (gesteuert durch den Parameter "b") sowie die Begriffsfrequenzsättigung (gesteuert durch den Parameter "k1") umfasst.

CharFilterName

Definiert die Namen aller Zeichenfilter, die von der Suchmaschine unterstützt werden.

CjkBigramTokenFilter

Bildet bigrams von CJK-Begriffen, die aus dem Standardtokenizer generiert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert.

CjkBigramTokenFilterScripts

Skripts, die von CjkBigramTokenFilter ignoriert werden können.

ClassicSimilarity

Legacy-Ähnlichkeitsalgorithmus, der die Lucene TFIDFSimilarity-Implementierung von TF-IDF verwendet. Diese Variante von TF-IDF führt eine Normalisierung der statischen Dokumentlänge ein sowie koordinierende Faktoren, die Dokumente bestrafen, die nur teilweise mit den durchsuchten Abfragen übereinstimmen.

ClassicTokenizer

Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente in europäischer Sprache geeignet ist. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

CommonGramTokenFilter

Konstruiert Bigramme für häufig vorkommende Begriffe während der Indexierung. Einzelne Begriffe werden ebenfalls indexiert und mit Bigrammen überlagert. Dieser Tokenfilter wird mit Apache Lucene implementiert.

CorsOptions

Definiert Optionen zum Steuern der ressourcenübergreifenden Ressourcenfreigabe (Cross-Origin Resource Sharing, CORS) für einen Index.

CustomAnalyzer

Ermöglicht Es Ihnen, die Kontrolle über den Prozess der Konvertierung von Text in indizierbare/durchsuchbare Token zu übernehmen. Es handelt sich um eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für das Aufteilen von Text in Token und die Filter zum Ändern von Token verantwortlich, die vom Tokenizer ausgegeben werden.

DictionaryDecompounderTokenFilter

Zerlegt zusammengesetzte Wörter, die in vielen germanischen Sprachen vorkommen. Dieser Tokenfilter wird mit Apache Lucene implementiert.

DistanceScoringFunction

Definiert eine Funktion, die die Bewertungen basierend auf der Entfernung von einem geografischen Standort erhöht.

DistanceScoringParameters

Stellt Parameterwerte für eine Entfernungsbewertungsfunktion bereit.

EdgeNGramTokenFilter

Generiert n-Gramm der angegebenen Größe(n), beginnend von der Vorder- oder Rückseite eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert.

EdgeNGramTokenFilterSide

Gibt an, von welcher Seite der Eingabe ein n-Gramm generiert werden soll.

EdgeNGramTokenFilterV2

Generiert n-Gramm der angegebenen Größe(n), beginnend von der Vorder- oder Rückseite eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert.

EdgeNGramTokenizer

Tokenisiert die Eingabe von einer Kante in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

ElisionTokenFilter

Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Dieser Tokenfilter wird mit Apache Lucene implementiert.

ExhaustiveKnnParameters

Enthält die spezifischen Parameter für den vollständigen KNN-Algorithmus.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Enthält Konfigurationsoptionen speziell für den vollständigen KNN-Algorithmus, der während der Abfrage verwendet wird, der Brute-Force-Suche für den gesamten Vektorindex ausführt.

FreshnessScoringFunction

Definiert eine Funktion, die die Bewertungen basierend auf dem Wert eines Datums-Uhrzeit-Felds erhöht.

FreshnessScoringParameters

Stellt Parameterwerte für eine Aktualitätsbewertungsfunktion bereit.

HnswParameters

Enthält die spezifischen Parameter für den HNSW-Algorithmus.

HnswVectorSearchAlgorithmConfiguration

Enthält Konfigurationsoptionen, die speziell für den HNSW-Algorithmus für näher nächste Nachbarn gelten, der während der Indizierung und Abfrage verwendet wird. Der HNSW-Algorithmus bietet einen abstimmbaren Kompromiss zwischen Suchgeschwindigkeit und Genauigkeit.

KeepTokenFilter

Ein Tokenfilter, der nur Token mit Text in einer angegebenen Liste von Wörtern speichert. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

KeywordMarkerTokenFilter

Begriffe werden als Schlüsselwörter gekennzeichnet. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

KeywordTokenizer

Gibt die gesamte Eingabe als ein einzelnes Token aus. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

KeywordTokenizerV2

Gibt die gesamte Eingabe als ein einzelnes Token aus. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

LengthTokenFilter

Entfernt die Wörter, die zu lang oder zu kurz sind. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

LexicalAnalyzerName

Definiert die Namen aller Textanalysetools, die von der Suchmaschine unterstützt werden.

LexicalTokenizerName

Definiert die Namen aller Tokenizer, die von der Suchmaschine unterstützt werden.

LimitTokenFilter

Beschränkt die Anzahl der Token während der Indizierung. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

LuceneStandardAnalyzer

Apache Lucene-Standardanalyse; Besteht aus dem Standardtokenizer, Kleinbuchstabenfilter und Stoppfilter.

LuceneStandardTokenizer

Teilt Text gemäß den Regeln für Unicode-Textsegmentierung auf. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

LuceneStandardTokenizerV2

Teilt Text gemäß den Regeln für Unicode-Textsegmentierung auf. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

MagnitudeScoringFunction

Definiert eine Funktion, die die Bewertungen basierend auf der Größe eines numerischen Felds erhöht.

MagnitudeScoringParameters

Stellt Parameterwerte für eine Größenbewertungsfunktion bereit.

MappingCharFilter

Ein Zeichenfilter, der zuordnungsdefinierte Zuordnungen anwendet, die mit der Zuordnungsoption definiert sind. Der Abgleich ist umfangreich (der längste Musterabgleich an einem bestimmten Punkt wird verwendet). Eine Ersetzung kann eine leere Zeichenfolge sein. Dieser Zeichenfilter wird mit Apache Lucene implementiert.

MicrosoftLanguageStemmingTokenizer

Teilt Text nach sprachspezifischen Regeln auf und reduziert Wörter auf deren Grundformen.

MicrosoftLanguageTokenizer

Teilt Text mit sprachspezifische Regeln auf.

MicrosoftStemmingTokenizerLanguage

Listen die Sprachen, die vom Microsoft Language Stemming-Tokenizer unterstützt werden.

MicrosoftTokenizerLanguage

Listen die Sprachen, die vom Microsoft-Sprachtokenprogramm unterstützt werden.

NGramTokenFilter

Generiert N-Gramme einer festgelegten Größe. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

NGramTokenFilterV2

Generiert N-Gramme einer festgelegten Größe. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

NGramTokenizer

Tokenisiert die Eingabe in N-Gramme einer festgelegten Größe. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

PathHierarchyTokenizerV2

Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

PatternAnalyzer

Trennt Text flexibel über ein reguläres Ausdrucksmuster in Begriffe. Dieses Analysetool wird mit Apache Lucene implementiert.

PatternCaptureTokenFilter

Verwendet Java-Regexes zum Ausgeben mehrerer Token – eines für jede Erfassungsgruppe in einem oder mehreren Mustern. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

PatternReplaceCharFilter

Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Angesichts des Eingabetexts "aa bb aa bb", des Musters "(aa)\s+(bb)" und des Ersatzes "$1#$2" wäre das Ergebnis beispielsweise "aa#bb aa#bb". Dieser Zeichenfilter wird mit Apache Lucene implementiert.

PatternReplaceTokenFilter

Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Wenn sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" verwenden, würde das Ergebnis "aa#bb aa#bb". Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

PatternTokenizer

Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

PhoneticEncoder

Gibt den Typ des phonetischen Encoders an, der mit einem PhoneticTokenFilter verwendet werden soll.

PhoneticTokenFilter

Erstellt Token für phonetische Übereinstimmungen. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

PrioritizedFields

Beschreibt die Felder für Titel, Inhalt und Schlüsselwörter, die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen.

RegexFlags

Definiert Flags, die kombiniert werden können, um zu steuern, wie reguläre Ausdrücke im Musteranalyse- und Mustertokenprogramm verwendet werden.

ScoringFunctionAggregation

Definiert die Aggregationsfunktion, die verwendet wird, um die Ergebnisse aller Bewertungsfunktionen in einem Bewertungsprofil zu kombinieren.

ScoringFunctionInterpolation

Definiert die Funktion, die verwendet wird, um die Bewertungserhöhung für eine Reihe von Dokumenten zu interpolieren.

ScoringProfile

Definiert Parameter für einen Suchindex, der die Bewertung in Suchabfragen beeinflusst.

SearchError

Beschreibt eine Fehlerbedingung für die API.

SearchField

Stellt ein Feld in einer Indexdefinition dar, die den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt.

SearchFieldDataType

Definiert den Datentyp eines Felds in einem Suchindex.

SearchIndex

Stellt eine Suchindexdefinition dar, die die Felder und das Suchverhalten eines Indexes beschreibt.

SearchResourceEncryptionKey

Ein kundenseitig verwalteter Verschlüsselungsschlüssel in Azure Key Vault. Schlüssel, die Sie erstellen und verwalten, können zum Verschlüsseln oder Entschlüsseln ruhender Daten in Ihrem Suchdienst verwendet werden, z. B. Indizes und Synonymzuordnungen.

SemanticConfiguration

Definiert eine bestimmte Konfiguration, die im Kontext semantischer Funktionen verwendet werden soll.

SemanticField

Ein Feld, das als Teil der semantischen Konfiguration verwendet wird.

SemanticSettings

Definiert Parameter für einen Suchindex, die semantische Funktionen beeinflussen.

ShingleTokenFilter

Kombiniert Token zu einem einzelnen Token. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

SnowballTokenFilter

Ein Filter, der Wörter mithilfe eines von Snowball generierten Stemmers vorgibt. Dieser Tokenfilter wird mit Apache Lucene implementiert.

SnowballTokenFilterLanguage

Die Sprache, die für einen Snowballtokenfilter verwendet werden soll.

StemmerOverrideTokenFilter

Bietet die Möglichkeit, andere Stemmingfilter mit benutzerwörterbuchbasiertem Stemming zu überschreiben. Alle wörterstammigen Begriffe werden als Schlüsselwörter markiert, sodass sie nicht mit Stemmeren in der Kette eingestammt werden. Muss vor dem Filter für die Wortstammerkennung platziert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert.

StemmerTokenFilter

Sprachspezifischer Stammfilter. Dieser Tokenfilter wird mit Apache Lucene implementiert.

StemmerTokenFilterLanguage

Die Sprache, die für einen Stemmertokenfilter verwendet werden soll.

StopAnalyzer

Unterteilt Text in Nicht-Buchstaben; Wendet die Kleinbuchstaben- und Stoppworttokenfilter an. Dieses Analysetool wird mit Apache Lucene implementiert.

StopwordsList

Identifiziert eine vordefinierte Liste sprachspezifischer Stoppwörter.

StopwordsTokenFilter

Entfernt Stoppwörter aus einem Tokenstream. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Suggester

Definiert, wie die Vorschlags-API auf eine Gruppe von Feldern im Index angewendet werden soll.

SuggesterSearchMode

Ein Wert, der die Funktionen des Vorschlags angibt.

SynonymTokenFilter

Entspricht Synonymen mit einzelnen oder mehreren Wörtern in einem Tokenstream. Dieser Tokenfilter wird mit Apache Lucene implementiert.

TagScoringFunction

Definiert eine Funktion, die die Bewertungen von Dokumenten mit Zeichenfolgenwerten erhöht, die einer angegebenen Liste von Tags entsprechen.

TagScoringParameters

Stellt Parameterwerte für eine Tagbewertungsfunktion bereit.

TextWeights

Definiert Gewichtungen für Indexfelder, für die Übereinstimmungen die Bewertung in Suchabfragen erhöhen sollen.

TokenCharacterKind

Stellt Klassen von Zeichen dar, für die ein Tokenfilter ausgeführt werden kann.

TokenFilterName

Definiert die Namen aller Tokenfilter, die von der Suchmaschine unterstützt werden.

TruncateTokenFilter

Schneidet die Begriffe auf eine bestimmte Länge ab. Dieser Tokenfilter wird mit Apache Lucene implementiert.

UaxUrlEmailTokenizer

Tokenisiert URLs und E-Mails als ein Token. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

UniqueTokenFilter

Filtert Token mit dem gleichen Text wie das vorherige Token heraus. Dieser Tokenfilter wird mit Apache Lucene implementiert.

VectorSearch

Enthält Konfigurationsoptionen im Zusammenhang mit der Vektorsuche.

VectorSearchAlgorithmKind

Der Algorithmus, der für die Indizierung und Abfrage verwendet wird.

VectorSearchAlgorithmMetric

Die Ähnlichkeitsmetrik, die für Vektorvergleiche verwendet werden soll.

VectorSearchProfile

Definiert eine Kombination von Konfigurationen, die mit der Vektorsuche verwendet werden sollen.

WordDelimiterTokenFilter

Unterteilt Wörter in Teilwörter und führt optionale Transformationen in Teilwortgruppen durch. Dieser Tokenfilter wird mit Apache Lucene implementiert.

AsciiFoldingTokenFilter

Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, sofern solche Entsprechungen vorhanden sind. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

preserveOriginal

boolean

False

Ein Wert, der angibt, ob das ursprüngliche Token beibehalten wird. Der Standardwert ist "false".

AzureActiveDirectoryApplicationCredentials

Anmeldeinformationen einer registrierten Anwendung, die für Ihren Suchdienst erstellt wurde und für den authentifizierten Zugriff auf die in Azure Key Vault gespeicherten Verschlüsselungsschlüssel verwendet wird.

Name Typ Beschreibung
applicationId

string

Eine AAD-Anwendungs-ID, der die erforderlichen Zugriffsberechtigungen für die Azure-Key Vault erteilt wurden, die beim Verschlüsseln ruhender Daten verwendet werden sollen. Die Anwendungs-ID sollte nicht mit der Objekt-ID für Ihre AAD-Anwendung verwechselt werden.

applicationSecret

string

Der Authentifizierungsschlüssel der angegebenen AAD-Anwendung.

BM25Similarity

Rangfolgefunktion basierend auf dem Okapi BM25-Ähnlichkeitsalgorithmus. BM25 ist ein TF-IDF-ähnlicher Algorithmus, der die Längennormalisierung (gesteuert durch den Parameter "b") sowie die Begriffsfrequenzsättigung (gesteuert durch den Parameter "k1") umfasst.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

b

number

Diese Eigenschaft steuert, wie sich die Länge eines Dokuments auf die Relevanzbewertung auswirkt. Standardmäßig wird der Wert 0,75 verwendet. Ein Wert von 0,0 bedeutet, dass keine Längennormalisierung angewendet wird, während der Wert 1,0 bedeutet, dass die Bewertung vollständig durch die Länge des Dokuments normalisiert wird.

k1

number

Diese Eigenschaft steuert die Skalierungsfunktion zwischen der Begriffshäufigkeit der einzelnen übereinstimmenden Begriffe und der endgültigen Relevanzbewertung eines Dokument-Abfrage-Paars. Standardmäßig wird der Wert 1,2 verwendet. Ein Wert von 0,0 bedeutet, dass die Bewertung nicht mit einer Erhöhung der Laufzeithäufigkeit skaliert wird.

CharFilterName

Definiert die Namen aller Zeichenfilter, die von der Suchmaschine unterstützt werden.

Name Typ Beschreibung
html_strip

string

Ein Zeichenfilter, der versucht, HTML-Konstrukte zu entfernen. Siehe https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html.

CjkBigramTokenFilter

Bildet bigrams von CJK-Begriffen, die aus dem Standardtokenizer generiert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

ignoreScripts

CjkBigramTokenFilterScripts[]

Die zu ignorierenden Skripts.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

outputUnigrams

boolean

False

Ein Wert, der angibt, ob sowohl Unigramme als auch Bigrams (wenn true) oder nur Bigrams (wenn false) ausgegeben werden sollen. Der Standardwert ist "false".

CjkBigramTokenFilterScripts

Skripts, die von CjkBigramTokenFilter ignoriert werden können.

Name Typ Beschreibung
han

string

Ignorieren Sie das Han-Skript beim Erstellen von Bigrams von CJK-Begriffen.

hangul

string

Ignorieren Sie das Hangul-Skript beim Erstellen von Bigrams von CJK-Begriffen.

hiragana

string

Ignorieren Sie das Hiragana-Skript beim Erstellen von Bigrams von CJK-Begriffen.

katakana

string

Ignorieren Sie das Katakana-Skript beim Erstellen von Bigrams von CJK-Begriffen.

ClassicSimilarity

Legacy-Ähnlichkeitsalgorithmus, der die Lucene TFIDFSimilarity-Implementierung von TF-IDF verwendet. Diese Variante von TF-IDF führt eine Normalisierung der statischen Dokumentlänge ein sowie koordinierende Faktoren, die Dokumente bestrafen, die nur teilweise mit den durchsuchten Abfragen übereinstimmen.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

ClassicTokenizer

Grammatikbasierter Tokenizer, der für die Verarbeitung der meisten dokumente in europäischer Sprache geeignet ist. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

Ein URI-Fragment, das den Tokenizertyp angibt.

maxTokenLength

integer

255

Die maximale Tokenlänge. Der Standardwert ist 255. Token, die die maximale Länge überschreiten, werden geteilt. Die maximale Tokenlänge, die verwendet werden kann, beträgt 300 Zeichen.

name

string

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

CommonGramTokenFilter

Konstruiert Bigramme für häufig vorkommende Begriffe während der Indexierung. Einzelne Begriffe werden ebenfalls indexiert und mit Bigrammen überlagert. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

commonWords

string[]

Der Satz von allgemeinen Wörtern.

ignoreCase

boolean

False

Ein -Wert, der angibt, ob bei allgemeinen Wörtern die Groß-/Kleinschreibung nicht beachtet wird. Der Standardwert ist "false".

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

queryMode

boolean

False

Ein -Wert, der angibt, ob sich der Tokenfilter im Abfragemodus befindet. Im Abfragemodus generiert der Tokenfilter Bigrams und entfernt dann allgemeine Wörter und einzelne Begriffe, gefolgt von einem allgemeinen Wort. Der Standardwert ist "false".

CorsOptions

Definiert Optionen zum Steuern der ressourcenübergreifenden Ressourcenfreigabe (Cross-Origin Resource Sharing, CORS) für einen Index.

Name Typ Beschreibung
allowedOrigins

string[]

Die Liste der Ursprünge, aus denen JavaScript-Code Zugriff auf Ihren Index erhält. Kann eine Liste von Hosts der Form {protocol}://{fully-qualified-domain-name}[:{port#}] oder eine einzelne * enthalten, um alle Ursprünge zuzulassen (nicht empfohlen).

maxAgeInSeconds

integer

Die Dauer, für die Browser CORS-Preflight-Antworten zwischenspeichern sollen. Die Standardwerte sind 5 Minuten.

CustomAnalyzer

Ermöglicht Es Ihnen, die Kontrolle über den Prozess der Konvertierung von Text in indizierbare/durchsuchbare Token zu übernehmen. Es handelt sich um eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für das Aufteilen von Text in Token und die Filter zum Ändern von Token verantwortlich, die vom Tokenizer ausgegeben werden.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

Ein URI-Fragment, das den Typ des Analysetools angibt.

charFilters

CharFilterName[]

Eine Liste von Zeichenfiltern, die zum Vorbereiten von Eingabetext verwendet werden, bevor er vom Tokenizer verarbeitet wird. Beispielsweise kann er bestimmte Zeichen oder Symbole ersetzen. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet sind.

name

string

Der Name des Analysetools. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

tokenFilters

TokenFilterName[]

Eine Liste von Tokenfiltern, die zum Herausfiltern oder Ändern der von einem Tokenizer generierten Token verwendet werden. Sie können beispielsweise einen Filter für Kleinbuchstaben angeben, mit dem alle Zeichen in Kleinbuchstaben konvertiert werden. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet sind.

tokenizer

LexicalTokenizerName

Der Name des Tokenizers, der verwendet werden soll, um fortlaufenden Text in eine Sequenz von Token zu unterteilen, z. B. einen Satz in Wörter aufzuteilen.

DictionaryDecompounderTokenFilter

Zerlegt zusammengesetzte Wörter, die in vielen germanischen Sprachen vorkommen. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

maxSubwordSize

integer

15

Die maximale Unterwortgröße. Es werden nur Unterwörter ausgegeben, die kürzer sind. Der Standardwert ist 15. Der Höchstwert ist 300.

minSubwordSize

integer

2

Die minimale Unterwortgröße. Es werden nur Unterwörter ausgegeben, die länger sind. Standard ist 2. Der Höchstwert ist 300.

minWordSize

integer

5

Die minimale Wortgröße. Nur Wörter, die länger sind, werden verarbeitet. Der Standardwert ist 5. Der Höchstwert ist 300.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

onlyLongestMatch

boolean

False

Ein Wert, der angibt, ob der Ausgabe nur das längste übereinstimmende Unterwort hinzugefügt werden soll. Der Standardwert ist "false".

wordList

string[]

Die Liste der Wörter, mit der abgeglichen werden soll.

DistanceScoringFunction

Definiert eine Funktion, die die Bewertungen basierend auf der Entfernung von einem geografischen Standort erhöht.

Name Typ Beschreibung
boost

number

Ein Multiplikator für die Rohbewertung. Muss eine positive Zahl sein, die nicht gleich 1,0 ist.

distance

DistanceScoringParameters

Parameterwerte für die Entfernungsbewertungsfunktion.

fieldName

string

Der Name des Felds, das als Eingabe für die Bewertungsfunktion verwendet wird.

interpolation

ScoringFunctionInterpolation

Ein Wert, der angibt, wie die Verstärkung über Dokumentbewertungen hinweg interpoliert wird; wird standardmäßig auf "Linear" festgelegt.

type string:

distance

Gibt den Typ der zu verwendenden Funktion an. Gültige Werte sind „magnitude“, „freshness“, „distance“ und „tag“. Der Funktionstyp muss klein geschrieben werden.

DistanceScoringParameters

Stellt Parameterwerte für eine Entfernungsbewertungsfunktion bereit.

Name Typ Beschreibung
boostingDistance

number

Die Entfernung in Kilometern vom Referenzort, an dem der Verstärkungsbereich endet.

referencePointParameter

string

Der Name des Parameters, der in Suchabfragen übergeben wird, um den Verweisspeicherort anzugeben.

EdgeNGramTokenFilter

Generiert n-Gramm der angegebenen Größe(n), beginnend von der Vorder- oder Rückseite eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

maxGram

integer

2

Die maximale Länge von n Gramm. Standard ist 2.

minGram

integer

1

Die mindeste n-Gramm-Länge. Der Standardwert ist 1. Muss kleiner als der Wert von maxGram sein.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

side

EdgeNGramTokenFilterSide

front

Gibt an, von welcher Seite der Eingabe das n-Gramm generiert werden soll. Der Standardwert ist "front".

EdgeNGramTokenFilterSide

Gibt an, von welcher Seite der Eingabe ein n-Gramm generiert werden soll.

Name Typ Beschreibung
back

string

Gibt an, dass das n-Gramm von der Rückseite der Eingabe generiert werden soll.

front

string

Gibt an, dass das n-Gramm von der Vorderseite der Eingabe generiert werden soll.

EdgeNGramTokenFilterV2

Generiert n-Gramm der angegebenen Größe(n), beginnend von der Vorder- oder Rückseite eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

maxGram

integer

2

Die maximale Länge von n Gramm. Standard ist 2. Der Höchstwert ist 300.

minGram

integer

1

Die mindeste n-Gramm-Länge. Der Standardwert ist 1. Der Höchstwert ist 300. Muss kleiner als der Wert von maxGram sein.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

side

EdgeNGramTokenFilterSide

front

Gibt an, von welcher Seite der Eingabe das n-Gramm generiert werden soll. Der Standardwert ist "front".

EdgeNGramTokenizer

Tokenisiert die Eingabe von einer Kante in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

Ein URI-Fragment, das den Tokenizertyp angibt.

maxGram

integer

2

Die maximale Länge von n Gramm. Standard ist 2. Maximum ist 300.

minGram

integer

1

Die Mindestlänge von n-Gramm. Der Standardwert ist 1. Maximum ist 300. Muss kleiner als der Wert von maxGram sein.

name

string

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

tokenChars

TokenCharacterKind[]

Zeichenklassen, die in den Token beibehalten werden sollen.

ElisionTokenFilter

Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

articles

string[]

Der Satz der zu entfernenden Artikel.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

ExhaustiveKnnParameters

Enthält die spezifischen Parameter für den vollständigen KNN-Algorithmus.

Name Typ Beschreibung
metric

VectorSearchAlgorithmMetric

Die Ähnlichkeitsmetrik, die für Vektorvergleiche verwendet werden soll.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Enthält Konfigurationsoptionen speziell für den vollständigen KNN-Algorithmus, der während der Abfrage verwendet wird, der Brute-Force-Suche für den gesamten Vektorindex ausführt.

Name Typ Beschreibung
exhaustiveKnnParameters

ExhaustiveKnnParameters

Enthält die spezifischen Parameter für den vollständigen KNN-Algorithmus.

kind string:

exhaustiveKnn

Der Name des Algorithmustyps, der für die Verwendung mit der Vektorsuche konfiguriert wird.

name

string

Der Name, der dieser bestimmten Konfiguration zugeordnet werden soll.

FreshnessScoringFunction

Definiert eine Funktion, die die Bewertungen basierend auf dem Wert eines Datums-Uhrzeit-Felds erhöht.

Name Typ Beschreibung
boost

number

Ein Multiplikator für die Rohbewertung. Muss eine positive Zahl sein, die nicht gleich 1,0 ist.

fieldName

string

Der Name des Felds, das als Eingabe für die Bewertungsfunktion verwendet wird.

freshness

FreshnessScoringParameters

Parameterwerte für die Freshness-Bewertungsfunktion.

interpolation

ScoringFunctionInterpolation

Ein Wert, der angibt, wie die Verstärkung über Dokumentbewertungen hinweg interpoliert wird; wird standardmäßig auf "Linear" festgelegt.

type string:

freshness

Gibt den Typ der zu verwendenden Funktion an. Gültige Werte sind „magnitude“, „freshness“, „distance“ und „tag“. Der Funktionstyp muss klein geschrieben werden.

FreshnessScoringParameters

Stellt Parameterwerte für eine Aktualitätsbewertungsfunktion bereit.

Name Typ Beschreibung
boostingDuration

string

Der Ablaufzeitraum, nach dem das Boosten für ein bestimmtes Dokument beendet wird.

HnswParameters

Enthält die spezifischen Parameter für den HNSW-Algorithmus.

Name Typ Standardwert Beschreibung
efConstruction

integer

400

Die Größe der dynamischen Liste, die die nächsten Nachbarn enthält, die während der Indexzeit verwendet wird. Das Erhöhen dieses Parameters kann die Indexqualität verbessern, was zu Lasten einer längeren Indizierungszeit geht. An einem bestimmten Punkt führt das Erhöhen dieses Parameters zu geringeren Rückgaben.

efSearch

integer

500

Die Größe der dynamischen Liste mit den nächsten Nachbarn, die während der Suchzeit verwendet wird. Das Erhöhen dieses Parameters kann die Suchergebnisse verbessern, was zu Lasten der langsameren Suche geht. An einem bestimmten Punkt führt das Erhöhen dieses Parameters zu geringeren Rückgaben.

m

integer

4

Die Anzahl der bidirektionalen Verknüpfungen, die während des Aufbaus für jedes neue Element erstellt werden. Wenn Sie diesen Parameterwert erhöhen, können Sie die Abrufzeiten für Datasets mit hoher intrinsischer Dimensionalität verbessern und dies zu Lasten eines erhöhten Arbeitsspeicherverbrauchs und einer längeren Indizierungszeit.

metric

VectorSearchAlgorithmMetric

Die Ähnlichkeitsmetrik, die für Vektorvergleiche verwendet werden soll.

HnswVectorSearchAlgorithmConfiguration

Enthält Konfigurationsoptionen, die speziell für den HNSW-Algorithmus für näher nächste Nachbarn gelten, der während der Indizierung und Abfrage verwendet wird. Der HNSW-Algorithmus bietet einen abstimmbaren Kompromiss zwischen Suchgeschwindigkeit und Genauigkeit.

Name Typ Beschreibung
hnswParameters

HnswParameters

Enthält die spezifischen Parameter für den HNSW-Algorithmus.

kind string:

hnsw

Der Name des Algorithmustyps, der für die Verwendung mit der Vektorsuche konfiguriert wird.

name

string

Der Name, der dieser bestimmten Konfiguration zugeordnet werden soll.

KeepTokenFilter

Ein Tokenfilter, der nur Token mit Text in einer angegebenen Liste von Wörtern speichert. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

keepWords

string[]

Die Liste der wörter, die beibehalten werden sollen.

keepWordsCase

boolean

False

Ein Wert, der angibt, ob alle Wörter zuerst kleingeschrieben werden sollen. Der Standardwert ist "false".

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

KeywordMarkerTokenFilter

Begriffe werden als Schlüsselwörter gekennzeichnet. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

ignoreCase

boolean

False

Ein Wert, der angibt, ob die Groß- und Kleinschreibung ignoriert werden soll. Wenn true, werden alle Wörter zuerst in Kleinbuchstaben konvertiert. Der Standardwert ist "false".

keywords

string[]

Eine Liste von Wörtern, die als Schlüsselwörter gekennzeichnet werden sollen.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

KeywordTokenizer

Gibt die gesamte Eingabe als ein einzelnes Token aus. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

Ein URI-Fragment, das den Tokenizertyp angibt.

bufferSize

integer

256

Die Lesepuffergröße in Bytes. Der Standardwert ist 256.

name

string

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

KeywordTokenizerV2

Gibt die gesamte Eingabe als ein einzelnes Token aus. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

Ein URI-Fragment, das den Tokenizertyp angibt.

maxTokenLength

integer

256

Die maximale Tokenlänge. Der Standardwert ist 256. Token, die die maximale Länge überschreiten, werden geteilt. Die maximale Tokenlänge, die verwendet werden kann, beträgt 300 Zeichen.

name

string

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

LengthTokenFilter

Entfernt die Wörter, die zu lang oder zu kurz sind. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

max

integer

300

Die maximale Länge in Zeichen. Standard und Maximum ist 300.

min

integer

0

Die Mindestlänge in Zeichen. Standard ist "0". Maximum ist 300. Muss kleiner als der Wert von max sein.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

LexicalAnalyzerName

Definiert die Namen aller Textanalysetools, die von der Suchmaschine unterstützt werden.

Name Typ Beschreibung
ar.lucene

string

Lucene Analyzer für Arabisch.

ar.microsoft

string

Microsoft Analyzer für Arabisch.

bg.lucene

string

Lucene Analyzer für Bulgarisch.

bg.microsoft

string

Microsoft Analyzer für Bulgarisch.

bn.microsoft

string

Microsoft Analyzer für Bangla.

ca.lucene

string

Lucene Analyzer für Katalanisch.

ca.microsoft

string

Microsoft Analyzer für Catalan.

cs.lucene

string

Lucene Analyzer für Tschechisch.

cs.microsoft

string

Microsoft Analyzer für Tschechisch.

da.lucene

string

Lucene Analyzer für Dänisch.

da.microsoft

string

Microsoft Analyzer für Dänisch.

de.lucene

string

Lucene Analyzer für Deutsch.

de.microsoft

string

Microsoft Analyzer für Deutsch.

el.lucene

string

Lucene Analyzer für Griechisch.

el.microsoft

string

Microsoft Analyzer für Griechisch.

en.lucene

string

Lucene Analyzer für Englisch.

en.microsoft

string

Microsoft Analyzer für Englisch.

es.lucene

string

Lucene Analyzer für Spanisch.

es.microsoft

string

Microsoft Analyzer für Spanisch.

et.microsoft

string

Microsoft Analyzer für Estnisch.

eu.lucene

string

Lucene Analyzer für Basque.

fa.lucene

string

Lucene Analyzer für Persisch.

fi.lucene

string

Lucene Analyzer für Finnisch.

fi.microsoft

string

Microsoft Analyzer für Finnisch.

fr.lucene

string

Lucene Analyzer für Französisch.

fr.microsoft

string

Microsoft Analyzer für Französisch.

ga.lucene

string

Lucene Analyzer für Irland.

gl.lucene

string

Lucene Analyzer für Galizisch.

gu.microsoft

string

Microsoft Analyzer für Gujarati.

he.microsoft

string

Microsoft Analyzer für Hebräisch.

hi.lucene

string

Lucene Analyzer für Hindi.

hi.microsoft

string

Microsoft Analyzer für Hindi.

hr.microsoft

string

Microsoft Analyzer für Kroatisch.

hu.lucene

string

Lucene Analyzer für Ungarisch.

hu.microsoft

string

Microsoft Analyzer für Ungarisch.

hy.lucene

string

Lucene Analyzer für Armenisch.

id.lucene

string

Lucene Analyzer für Indonesisch.

id.microsoft

string

Microsoft Analyzer für Indonesisch (Bahasa).

is.microsoft

string

Microsoft Analyzer für Island.

it.lucene

string

Lucene Analyzer für Italienisch.

it.microsoft

string

Microsoft Analyzer für Italienisch.

ja.lucene

string

Lucene Analyzer für Japanisch.

ja.microsoft

string

Microsoft Analyzer für Japanisch.

keyword

string

Behandelt den gesamten Inhalt eines Felds als ein einzelnes Token. Dies ist nützlich für Daten wie Postleitzahlen, IDs und einige Produktnamen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html.

kn.microsoft

string

Microsoft Analyzer für Kannada.

ko.lucene

string

Lucene Analyzer für Koreanisch.

ko.microsoft

string

Microsoft Analyzer für Koreanisch.

lt.microsoft

string

Microsoft Analyzer für Litauisch.

lv.lucene

string

Lucene Analyzer für Lettisch.

lv.microsoft

string

Microsoft Analyzer für Lettisch.

ml.microsoft

string

Microsoft Analyzer für Malayalam.

mr.microsoft

string

Microsoft Analyzer für Marathi.

ms.microsoft

string

Microsoft Analyzer für Malaiisch (Lateinisch).

nb.microsoft

string

Microsoft Analyzer für Norwegisch (Bokmål).

nl.lucene

string

Lucene Analyzer für Niederländisch.

nl.microsoft

string

Microsoft Analyzer für Niederländisch.

no.lucene

string

Lucene Analyzer für Norwegisch.

pa.microsoft

string

Microsoft Analyzer für Punjabi.

pattern

string

Trennt Text flexibel über ein reguläres Ausdrucksmuster in Begriffe. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html.

pl.lucene

string

Lucene Analyzer für Polnisch.

pl.microsoft

string

Microsoft Analyzer für Polnisch.

pt-BR.lucene

string

Lucene Analyzer für Portugiesisch (Brasilien).

pt-BR.microsoft

string

Microsoft Analyzer für Portugiesisch (Brasilien).

pt-PT.lucene

string

Lucene Analyzer für Portugiesisch (Portugal).

pt-PT.microsoft

string

Microsoft Analyzer für Portugiesisch (Portugal).

ro.lucene

string

Lucene Analyzer für Rumänisch.

ro.microsoft

string

Microsoft Analyzer für Rumänisch.

ru.lucene

string

Lucene Analyzer für Russisch.

ru.microsoft

string

Microsoft Analyzer für Russisch.

simple

string

Teilt Text an Nicht-Buchstaben und konvertiert ihn in Kleinbuchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html.

sk.microsoft

string

Microsoft Analyzer für Slowakisch.

sl.microsoft

string

Microsoft Analyzer für Slowenisch.

sr-cyrillic.microsoft

string

Microsoft Analyzer für Serbisch (Kyrillisch).

sr-latin.microsoft

string

Microsoft Analyzer für Serbisch (Lateinisch).

standard.lucene

string

Standard-Lucene-Analysegerät.

standardasciifolding.lucene

string

Standard ASCII Folding Lucene Analyzer. Siehe https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers.

stop

string

Unterteilt Text in Nicht-Buchstaben; Wendet die Kleinbuchstaben- und Stoppworttokenfilter an. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html.

sv.lucene

string

Lucene Analyzer für Schwedisch.

sv.microsoft

string

Microsoft Analyzer für Schwedisch.

ta.microsoft

string

Microsoft Analyzer für Tamil.

te.microsoft

string

Microsoft Analyzer für Telugu.

th.lucene

string

Lucene Analyzer für Thai.

th.microsoft

string

Microsoft Analyzer für Thai.

tr.lucene

string

Lucene Analyzer für Türkisch.

tr.microsoft

string

Microsoft Analyzer für Türkisch.

uk.microsoft

string

Microsoft Analyzer für Ukrainisch.

ur.microsoft

string

Microsoft Analyzer für Urdu.

vi.microsoft

string

Microsoft Analyzer für Vietnamesisch.

whitespace

string

Ein Analysetool, das den Whitespace-Tokenizer verwendet. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html.

zh-Hans.lucene

string

Lucene Analyzer für Chinesisch (vereinfacht).

zh-Hans.microsoft

string

Microsoft Analyzer für Chinesisch (vereinfacht).

zh-Hant.lucene

string

Lucene Analyzer für Chinesisch (traditionell).

zh-Hant.microsoft

string

Microsoft Analyzer für Chinesisch (traditionell).

LexicalTokenizerName

Definiert die Namen aller Tokenizer, die von der Suchmaschine unterstützt werden.

Name Typ Beschreibung
classic

string

Grammatikbasiertes Tokenizer, das sich für die Verarbeitung der meisten dokumente in europäischer Sprache eignet. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html.

edgeNGram

string

Tokenisiert die Eingabe von einer Kante in n Gramm der angegebenen Größe(n). Siehe https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html.

keyword_v2

string

Gibt die gesamte Eingabe als ein einzelnes Token aus. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html.

letter

string

Teilt Text in nicht-Buchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html.

lowercase

string

Teilt Text an Nicht-Buchstaben und konvertiert ihn in Kleinbuchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html.

microsoft_language_stemming_tokenizer

string

Teilt Text nach sprachspezifischen Regeln auf und reduziert Wörter auf deren Grundformen.

microsoft_language_tokenizer

string

Teilt Text mit sprachspezifische Regeln auf.

nGram

string

Tokenisiert die Eingabe in N-Gramme einer festgelegten Größe. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html.

path_hierarchy_v2

string

Tokenizer für pfadähnliche Hierarchien. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html.

pattern

string

Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html.

standard_v2

string

Standard-Lucene-Analysetool; Besteht aus dem Standardtokenizer, dem Kleinbuchstabenfilter und dem Stoppfilter. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html.

uax_url_email

string

Tokenisiert URLs und E-Mails als ein Token. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html.

whitespace

string

Teilt Text an den Leerzeichen auf. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html.

LimitTokenFilter

Beschränkt die Anzahl der Token während der Indizierung. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

consumeAllTokens

boolean

False

Ein Wert, der angibt, ob alle Token aus der Eingabe verwendet werden müssen, auch wenn maxTokenCount erreicht ist. Der Standardwert ist "false".

maxTokenCount

integer

1

Die maximale Anzahl der zu erzeugenden Token. Der Standardwert ist 1.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

LuceneStandardAnalyzer

Apache Lucene-Standardanalyse; Besteht aus dem Standardtokenizer, Kleinbuchstabenfilter und Stoppfilter.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

Ein URI-Fragment, das den Typ des Analysetools angibt.

maxTokenLength

integer

255

Die maximale Tokenlänge. Der Standardwert ist 255. Token, die die maximale Länge überschreiten, werden geteilt. Die maximale Tokenlänge, die verwendet werden kann, beträgt 300 Zeichen.

name

string

Der Name des Analysetools. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

stopwords

string[]

Eine Liste von Stoppwörtern.

LuceneStandardTokenizer

Teilt Text gemäß den Regeln für Unicode-Textsegmentierung auf. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

Ein URI-Fragment, das den Tokenizertyp angibt.

maxTokenLength

integer

255

Die maximale Tokenlänge. Der Standardwert ist 255. Token, die die maximale Länge überschreiten, werden geteilt.

name

string

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

LuceneStandardTokenizerV2

Teilt Text gemäß den Regeln für Unicode-Textsegmentierung auf. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

Ein URI-Fragment, das den Typ des Tokenizers angibt.

maxTokenLength

integer

255

Die maximale Tokenlänge. Der Standardwert ist 255. Token, die die maximale Länge überschreiten, werden geteilt. Die maximale Tokenlänge, die verwendet werden kann, beträgt 300 Zeichen.

name

string

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

MagnitudeScoringFunction

Definiert eine Funktion, die die Bewertungen basierend auf der Größe eines numerischen Felds erhöht.

Name Typ Beschreibung
boost

number

Ein Multiplikator für die Rohbewertung. Muss eine positive Zahl sein, die nicht gleich 1,0 ist.

fieldName

string

Der Name des Felds, das als Eingabe für die Bewertungsfunktion verwendet wird.

interpolation

ScoringFunctionInterpolation

Ein Wert, der angibt, wie die Verstärkung über Dokumentbewertungen hinweg interpoliert wird; wird standardmäßig auf "Linear" festgelegt.

magnitude

MagnitudeScoringParameters

Parameterwerte für die Größenbewertungsfunktion.

type string:

magnitude

Gibt den Typ der zu verwendenden Funktion an. Gültige Werte sind „magnitude“, „freshness“, „distance“ und „tag“. Der Funktionstyp muss klein geschrieben werden.

MagnitudeScoringParameters

Stellt Parameterwerte für eine Größenbewertungsfunktion bereit.

Name Typ Beschreibung
boostingRangeEnd

number

Der Feldwert, bei dem die Boostung endet.

boostingRangeStart

number

Der Feldwert, bei dem die Boostung beginnt.

constantBoostBeyondRange

boolean

Ein Wert, der angibt, ob eine konstante Verstärkung für Feldwerte über den Endwert des Bereichs hinaus angewendet werden soll; standardwert ist false.

MappingCharFilter

Ein Zeichenfilter, der zuordnungsdefinierte Zuordnungen anwendet, die mit der Zuordnungsoption definiert sind. Der Abgleich ist umfangreich (der längste Musterabgleich an einem bestimmten Punkt wird verwendet). Eine Ersetzung kann eine leere Zeichenfolge sein. Dieser Zeichenfilter wird mit Apache Lucene implementiert.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

Ein URI-Fragment, das den Typ des Zeichenfilters angibt.

mappings

string[]

Eine Liste der Zuordnungen im folgenden Format: "a=>b" (alle Vorkommen des Zeichens "a" werden durch das Zeichen "b") ersetzt.

name

string

Der Name des Zeichenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

MicrosoftLanguageStemmingTokenizer

Teilt Text nach sprachspezifischen Regeln auf und reduziert Wörter auf deren Grundformen.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

Ein URI-Fragment, das den Tokenizertyp angibt.

isSearchTokenizer

boolean

False

Ein Wert, der angibt, wie der Tokenizer verwendet wird. Legen Sie auf true fest, wenn sie als Suchtokenizer verwendet wird, und legen Sie auf false fest, wenn sie als Indizierungstokenizer verwendet wird. Der Standardwert ist "false".

language

MicrosoftStemmingTokenizerLanguage

Die zu verwendende Sprache. Der Standardwert ist Englisch.

maxTokenLength

integer

255

Die maximale Tokenlänge. Token, die die maximale Länge überschreiten, werden geteilt. Ein Token darf maximal 300 Zeichen lang sein. Token, die länger als 300 Zeichen sind, werden zuerst in Token mit der Länge 300 aufgeteilt, und dann wird jedes dieser Token basierend auf der maximalen Tokenlänge aufgeteilt. Der Standardwert ist 255.

name

string

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

MicrosoftLanguageTokenizer

Teilt Text mit sprachspezifische Regeln auf.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

Ein URI-Fragment, das den Tokenizertyp angibt.

isSearchTokenizer

boolean

False

Ein Wert, der angibt, wie der Tokenizer verwendet wird. Legen Sie auf true fest, wenn sie als Suchtokenizer verwendet wird, und legen Sie auf false fest, wenn sie als Indizierungstokenizer verwendet wird. Der Standardwert ist "false".

language

MicrosoftTokenizerLanguage

Die zu verwendende Sprache. Der Standardwert ist Englisch.

maxTokenLength

integer

255

Die maximale Tokenlänge. Token, die die maximale Länge überschreiten, werden geteilt. Ein Token darf maximal 300 Zeichen lang sein. Token, die länger als 300 Zeichen sind, werden zuerst in Token mit der Länge 300 aufgeteilt, und dann wird jedes dieser Token basierend auf der maximalen Tokenlänge aufgeteilt. Der Standardwert ist 255.

name

string

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

MicrosoftStemmingTokenizerLanguage

Listen die Sprachen, die vom Microsoft Language Stemming-Tokenizer unterstützt werden.

Name Typ Beschreibung
arabic

string

Wählt den Microsoft-Stemmingtokenisierer für Arabisch aus.

bangla

string

Wählt den Microsoft-Stemmingtokenizer für Bangla aus.

bulgarian

string

Wählt den Microsoft-Stemmingtokenisierer für Bulgarisch aus.

catalan

string

Wählt den Microsoft-Stemmingtokenisierer für Katalanisch aus.

croatian

string

Wählt das Microsoft-Stemmingtoken für Kroatisch aus.

czech

string

Wählt den Microsoft-Stemmingtokenisierer für Tschechisch aus.

danish

string

Wählt den Microsoft-Stemmingtokenisierer für Dänisch aus.

dutch

string

Wählt den Microsoft-Stemmingtokenisierer für Niederländisch aus.

english

string

Wählt den Microsoft-Stemmingtokenisierer für Englisch aus.

estonian

string

Wählt den Microsoft-Stemmingtokenisierer für Estnisch aus.

finnish

string

Wählt den Microsoft-Stemmingtokenisierer für Finnisch aus.

french

string

Wählt den Microsoft-Stemmingtokenisierer für Französisch aus.

german

string

Wählt den Microsoft-Stemmingtokenisierer für Deutsch aus.

greek

string

Wählt den Microsoft-Stemmingtokenisierer für Griechisch aus.

gujarati

string

Wählt den Microsoft-Stemmingtokenisierer für Gujarati aus.

hebrew

string

Wählt den Microsoft-Stemmingtokenisierer für Hebräisch aus.

hindi

string

Wählt den Microsoft-Stemmingtokenisierer für Hindi aus.

hungarian

string

Wählt den Microsoft-Stemmingtokenisierer für Ungarisch aus.

icelandic

string

Wählt den Microsoft-Stemmingtokenisierer für Isländisch aus.

indonesian

string

Wählt den Microsoft-Stemmingtokenisierer für Indonesisch aus.

italian

string

Wählt den Microsoft-Stemmingtokenisierer für Italienisch aus.

kannada

string

Wählt den Microsoft-Stemmingtokenisierer für Kannada aus.

latvian

string

Wählt das Microsoft-Stemmingtoken für Lettisch aus.

lithuanian

string

Wählt den Microsoft-Stemmingtokenisierer für Litauisch aus.

malay

string

Wählt den Microsoft-Stemmingtokenisierer für Malay aus.

malayalam

string

Wählt den Microsoft-Stemmingtokenisierer für Malayalam aus.

marathi

string

Wählt den Microsoft-Stemmingtokenisierer für Marathi aus.

norwegianBokmaal

string

Wählt den Microsoft-Stemmingtokenisierer für Norwegisch (Bokmål) aus.

polish

string

Wählt den Microsoft-Stemmingtokenisierer für Polnisch aus.

portuguese

string

Wählt den Microsoft-Stemmingtokenisierer für Portugiesisch aus.

portugueseBrazilian

string

Wählt den Microsoft-Stemmingtokenisierer für Portugiesisch (Brasilien) aus.

punjabi

string

Wählt den Microsoft-Stemmingtokenisierer für Punjabi aus.

romanian

string

Wählt den Microsoft-Stemmingtokenisierer für Rumänisch aus.

russian

string

Wählt den Microsoft-Stemmingtokenisierer für Russisch aus.

serbianCyrillic

string

Wählt den Microsoft-Stemmingtokenisierer für Serbisch (Kyrillisch) aus.

serbianLatin

string

Wählt den Microsoft-Stemmingtokenisierer für Serbisch (Lateinisch) aus.

slovak

string

Wählt den Microsoft-Stemmingtokenisierer für Slowakisch aus.

slovenian

string

Wählt den Microsoft-Stemmingtokenisierer für Slowenisch aus.

spanish

string

Wählt den Microsoft-Stemmingtokenisierer für Spanisch aus.

swedish

string

Wählt den Microsoft-Stemmingtokenisierer für Schwedisch aus.

tamil

string

Wählt den Microsoft-Stemmingtokenisierer für Tamilisch aus.

telugu

string

Wählt den Microsoft-Stemmingtokenizer für Telugu aus.

turkish

string

Wählt den Microsoft-Stemmingtokenisierer für Türkisch aus.

ukrainian

string

Wählt den Microsoft-Stemmingtokenisierer für Ukrainisch aus.

urdu

string

Wählt den Microsoft-Stemmingtokenisierer für Urdu aus.

MicrosoftTokenizerLanguage

Listen die Sprachen, die vom Microsoft-Sprachtokenprogramm unterstützt werden.

Name Typ Beschreibung
bangla

string

Wählt den Microsoft-Tokenizer für Bangla aus.

bulgarian

string

Wählt den Microsoft-Tokenizer für Bulgarisch aus.

catalan

string

Wählt den Microsoft-Tokenizer für Katalanisch aus.

chineseSimplified

string

Wählt den Microsoft-Tokenizer für Chinesisch (vereinfacht) aus.

chineseTraditional

string

Wählt den Microsoft-Tokenizer für Chinesisch (traditionell) aus.

croatian

string

Wählt den Microsoft-Tokenizer für Kroatisch aus.

czech

string

Wählt den Microsoft-Tokenizer für Tschechisch aus.

danish

string

Wählt den Microsoft-Tokenizer für Dänisch aus.

dutch

string

Wählt den Microsoft-Tokenizer für Niederländisch aus.

english

string

Wählt den Microsoft-Tokenizer für Englisch aus.

french

string

Wählt den Microsoft-Tokenizer für Französisch aus.

german

string

Wählt den Microsoft-Tokenizer für Deutsch aus.

greek

string

Wählt den Microsoft-Tokenizer für Griechisch aus.

gujarati

string

Wählt den Microsoft-Tokenizer für Gujarati aus.

hindi

string

Wählt den Microsoft-Tokenizer für Hindi aus.

icelandic

string

Wählt den Microsoft-Tokenizer für Isländisch aus.

indonesian

string

Wählt den Microsoft-Tokenizer für Indonesisch aus.

italian

string

Wählt den Microsoft-Tokenizer für Italienisch aus.

japanese

string

Wählt den Microsoft-Tokenizer für Japanisch aus.

kannada

string

Wählt den Microsoft-Tokenizer für Kannada aus.

korean

string

Wählt den Microsoft-Tokenizer für Koreanisch aus.

malay

string

Wählt den Microsoft-Tokenizer für Malay aus.

malayalam

string

Wählt den Microsoft-Tokenizer für Malayalam aus.

marathi

string

Wählt den Microsoft-Tokenizer für Marathi aus.

norwegianBokmaal

string

Wählt den Microsoft-Tokenizer für Norwegisch (Bokmål) aus.

polish

string

Wählt den Microsoft-Tokenizer für Polnisch aus.

portuguese

string

Wählt den Microsoft-Tokenizer für Portugiesisch aus.

portugueseBrazilian

string

Wählt den Microsoft-Tokenizer für Portugiesisch (Brasilien) aus.

punjabi

string

Wählt den Microsoft-Tokenizer für Punjabi aus.

romanian

string

Wählt den Microsoft-Tokenizer für Rumänisch aus.

russian

string

Wählt den Microsoft-Tokenizer für Russisch aus.

serbianCyrillic

string

Wählt den Microsoft-Tokenizer für Serbisch (Kyrillisch) aus.

serbianLatin

string

Wählt das Microsoft-Tokenizer für Serbisch (Lateinisch) aus.

slovenian

string

Wählt den Microsoft-Tokenizer für Slowenisch aus.

spanish

string

Wählt den Microsoft-Tokenizer für Spanisch aus.

swedish

string

Wählt den Microsoft-Tokenizer für Schwedisch aus.

tamil

string

Wählt den Microsoft-Tokenizer für Tamil aus.

telugu

string

Wählt den Microsoft-Tokenizer für Telugu aus.

thai

string

Wählt den Microsoft-Tokenizer für Thai aus.

ukrainian

string

Wählt den Microsoft-Tokenizer für Ukrainisch aus.

urdu

string

Wählt den Microsoft-Tokenizer für Urdu aus.

vietnamese

string

Wählt den Microsoft-Tokenizer für Vietnamesisch aus.

NGramTokenFilter

Generiert N-Gramme einer festgelegten Größe. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

maxGram

integer

2

Die maximale Länge von n Gramm. Standard ist 2.

minGram

integer

1

Die Mindestlänge von n-Gramm. Der Standardwert ist 1. Muss kleiner als der Wert von maxGram sein.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

NGramTokenFilterV2

Generiert N-Gramme einer festgelegten Größe. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

maxGram

integer

2

Die maximale Länge von n Gramm. Standard ist 2. Maximum ist 300.

minGram

integer

1

Die Mindestlänge von n-Gramm. Der Standardwert ist 1. Maximum ist 300. Muss kleiner als der Wert von maxGram sein.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

NGramTokenizer

Tokenisiert die Eingabe in N-Gramme einer festgelegten Größe. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

Ein URI-Fragment, das den Tokenizertyp angibt.

maxGram

integer

2

Die maximale Länge von n Gramm. Standard ist 2. Maximum ist 300.

minGram

integer

1

Die Mindestlänge von n-Gramm. Der Standardwert ist 1. Maximum ist 300. Muss kleiner als der Wert von maxGram sein.

name

string

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

tokenChars

TokenCharacterKind[]

Zeichenklassen, die in den Token beibehalten werden sollen.

PathHierarchyTokenizerV2

Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

Ein URI-Fragment, das den Tokenizertyp angibt.

delimiter

string

/

Das zu verwendende Trennzeichen. Der Standardwert ist "/".

maxTokenLength

integer

300

Die maximale Tokenlänge. Standard und Maximum ist 300.

name

string

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

replacement

string

/

Ein Wert, der, falls festgelegt, das Trennzeichen ersetzt. Der Standardwert ist "/".

reverse

boolean

False

Ein Wert, der angibt, ob Token in umgekehrter Reihenfolge generiert werden sollen. Der Standardwert ist "false".

skip

integer

0

Die Anzahl der zu überspringenden Anfangstoken. Standard ist "0".

PatternAnalyzer

Trennt Text flexibel über ein reguläres Ausdrucksmuster in Begriffe. Dieses Analysetool wird mit Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

Ein URI-Fragment, das den Typ des Analysetools angibt.

flags

RegexFlags

Flags für reguläre Ausdrücke.

lowercase

boolean

True

Ein Wert, der angibt, ob Begriffe klein geschrieben werden sollen. Der Standardwert ist "true".

name

string

Der Name des Analysetools. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

pattern

string

\W+

Ein Muster für reguläre Ausdrücke, um Tokentrennzeichen zu entsprechen. Standard ist ein Ausdruck, der einem oder mehreren Nichtwortzeichen entspricht.

stopwords

string[]

Eine Liste von Stoppwörtern.

PatternCaptureTokenFilter

Verwendet Java-Regexes zum Ausgeben mehrerer Token – eines für jede Erfassungsgruppe in einem oder mehreren Mustern. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

patterns

string[]

Eine Liste von Mustern, die mit den einzelnen Token übereinstimmen sollen.

preserveOriginal

boolean

True

Ein Wert, der angibt, ob das ursprüngliche Token zurückgegeben werden soll, auch wenn eines der Muster übereinstimmt. Der Standardwert ist "true".

PatternReplaceCharFilter

Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Angesichts des Eingabetexts "aa bb aa bb", des Musters "(aa)\s+(bb)" und des Ersatzes "$1#$2" wäre das Ergebnis beispielsweise "aa#bb aa#bb". Dieser Zeichenfilter wird mit Apache Lucene implementiert.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

Ein URI-Fragment, das den Typ des Zeichenfilters angibt.

name

string

Der Name des Zeichenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

pattern

string

Ein Muster für reguläre Ausdrücke.

replacement

string

Der Ersatztext.

PatternReplaceTokenFilter

Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Wenn sie beispielsweise den Eingabetext "aa bb aa bb", das Muster "(aa)\s+(bb)" und den Ersatz "$1#$2" verwenden, würde das Ergebnis "aa#bb aa#bb". Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

pattern

string

Ein Muster für reguläre Ausdrücke.

replacement

string

Der Ersatztext.

PatternTokenizer

Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

Ein URI-Fragment, das den Tokenizertyp angibt.

flags

RegexFlags

Flags für reguläre Ausdrücke.

group

integer

-1

Die nullbasierte Ordnungszahl der übereinstimmenden Gruppe im Regulären Ausdrucksmuster, die in Token extrahiert werden soll. Verwenden Sie -1, wenn Sie das gesamte Muster verwenden möchten, um die Eingabe unabhängig von übereinstimmenden Gruppen in Token aufzuteilen. Der Standardwert ist -1.

name

string

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

pattern

string

\W+

Ein Muster für reguläre Ausdrücke, um Tokentrennzeichen zu entsprechen. Standard ist ein Ausdruck, der einem oder mehreren Nichtwortzeichen entspricht.

PhoneticEncoder

Gibt den Typ des phonetischen Encoders an, der mit einem PhoneticTokenFilter verwendet werden soll.

Name Typ Beschreibung
beiderMorse

string

Codiert ein Token in einen Beider-Morse Wert.

caverphone1

string

Codiert ein Token in einen Caverphone 1.0-Wert.

caverphone2

string

Codiert ein Token in einen Caverphone 2.0-Wert.

cologne

string

Codiert ein Token in einen Kölner phonetischen Wert.

doubleMetaphone

string

Codiert ein Token in einen doppelten Metaphonewert.

haasePhonetik

string

Codiert ein Token mithilfe der Haase-Verfeinerung des Kölner Phonetik-Algorithmus.

koelnerPhonetik

string

Codiert ein Token mit dem Kölner Phonetik-Algorithmus.

metaphone

string

Codiert ein Token in einen Metaphone-Wert.

nysiis

string

Codiert ein Token in einen NYSIIS-Wert.

refinedSoundex

string

Codiert ein Token in einen verfeinerten Soundex-Wert.

soundex

string

Codiert ein Token in einen Soundex-Wert.

PhoneticTokenFilter

Erstellt Token für phonetische Übereinstimmungen. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

encoder

PhoneticEncoder

metaphone

Der zu verwendende phonetische Encoder. Der Standardwert ist "Metaphone".

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

replace

boolean

True

Ein Wert, der angibt, ob codierte Token die ursprünglichen Token ersetzen sollen. Wenn false, werden codierte Token als Synonyme hinzugefügt. Der Standardwert ist "true".

PrioritizedFields

Beschreibt die Felder für Titel, Inhalt und Schlüsselwörter, die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen.

Name Typ Beschreibung
prioritizedContentFields

SemanticField[]

Definiert die Inhaltsfelder, die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen. Um das beste Ergebnis zu erzielen, sollten die ausgewählten Felder Text in natürlicher Sprache enthalten. Die Reihenfolge der Felder im Array stellt ihre Priorität dar. Felder mit niedrigerer Priorität werden möglicherweise abgeschnitten, wenn der Inhalt lang ist.

prioritizedKeywordsFields

SemanticField[]

Definiert die Schlüsselwort (keyword) Felder, die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen. Um das beste Ergebnis zu erzielen, sollten die ausgewählten Felder eine Liste von Schlüsselwörtern enthalten. Die Reihenfolge der Felder im Array stellt ihre Priorität dar. Felder mit niedrigerer Priorität werden möglicherweise abgeschnitten, wenn der Inhalt lang ist.

titleField

SemanticField

Definiert das Titelfeld, das für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden soll. Wenn Sie kein Titelfeld im Index haben, lassen Sie dieses Feld leer.

RegexFlags

Definiert Flags, die kombiniert werden können, um zu steuern, wie reguläre Ausdrücke im Musteranalyse- und Mustertokenprogramm verwendet werden.

Name Typ Beschreibung
CANON_EQ

string

Aktiviert kanonische Äquivalenz.

CASE_INSENSITIVE

string

Aktiviert die Abgleichung der Groß-/Kleinschreibung.

COMMENTS

string

Erlaubt Leerzeichen und Kommentare im Muster.

DOTALL

string

Aktiviert den Punktallmodus.

LITERAL

string

Aktiviert die Literalanalyse des Musters.

MULTILINE

string

Aktiviert den Mehrzeilenmodus.

UNICODE_CASE

string

Ermöglicht die Unicode-fähige Groß-/Kleinschreibungsfaltung.

UNIX_LINES

string

Aktiviert den Unix-Zeilenmodus.

ScoringFunctionAggregation

Definiert die Aggregationsfunktion, die verwendet wird, um die Ergebnisse aller Bewertungsfunktionen in einem Bewertungsprofil zu kombinieren.

Name Typ Beschreibung
average

string

Erhöhen Sie die Bewertungen um den Durchschnitt aller Ergebnisse der Bewertungsfunktion.

firstMatching

string

Erhöhen Sie die Bewertungen mithilfe der ersten anwendbaren Bewertungsfunktion im Bewertungsprofil.

maximum

string

Erhöhen Sie die Bewertungen um das Maximum aller Ergebnisse der Bewertungsfunktion.

minimum

string

Erhöhen Sie die Bewertungen um das Minimum aller Ergebnisse der Bewertungsfunktion.

sum

string

Erhöhen Sie die Bewertungen um die Summe aller Ergebnisse der Bewertungsfunktion.

ScoringFunctionInterpolation

Definiert die Funktion, die verwendet wird, um die Bewertungserhöhung für eine Reihe von Dokumenten zu interpolieren.

Name Typ Beschreibung
constant

string

Erhöht die Bewertungen um einen konstanten Faktor.

linear

string

Erhöht die Bewertungen um einen linear abnehmenden Betrag. Dies ist die Standardinterpolation für Bewertungsfunktionen.

logarithmic

string

Erhöht die Bewertungen um einen Betrag, der logarithmisch abnimmt. Boosts nehmen bei höheren Bewertungen schnell ab und langsamer, wenn die Ergebnisse abnehmen. Diese Interpolationsoption ist in Tag-Bewertungsfunktionen nicht zulässig.

quadratic

string

Erhöht die Bewertungen um einen Wert, der quadratisch abnimmt. Boosts nehmen bei höheren Bewertungen langsam ab, und schneller, wenn die Bewertungen abnehmen. Diese Interpolationsoption ist in Tag-Bewertungsfunktionen nicht zulässig.

ScoringProfile

Definiert Parameter für einen Suchindex, der die Bewertung in Suchabfragen beeinflusst.

Name Typ Beschreibung
functionAggregation

ScoringFunctionAggregation

Ein Wert, der angibt, wie die Ergebnisse einzelner Bewertungsfunktionen kombiniert werden sollen. Wird standardmäßig auf "Sum" festgelegt. Wird ignoriert, wenn keine Bewertungsfunktionen vorhanden sind.

functions ScoringFunction[]:

Die Sammlung von Funktionen, die die Bewertung von Dokumenten beeinflussen.

name

string

Der Name des Bewertungsprofils.

text

TextWeights

Parameter, die die Bewertung basierend auf Textgleichen in bestimmten Indexfeldern erhöhen.

SearchError

Beschreibt eine Fehlerbedingung für die API.

Name Typ Beschreibung
code

string

Einer der vom Server definierten Fehlercodes.

details

SearchError[]

Ein Array von Details zu bestimmten Fehlern, die zu diesem gemeldeten Fehler geführt haben.

message

string

Eine für Menschen lesbare Darstellung des Fehlers.

SearchField

Stellt ein Feld in einer Indexdefinition dar, die den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt.

Name Typ Beschreibung
analyzer

LexicalAnalyzerName

Der Name des Analysetools, das für das Feld verwendet werden soll. Diese Option kann nur mit durchsuchbaren Feldern verwendet werden und weder zusammen mit searchAnalyzer noch mit indexAnalyzer festgelegt werden. Eine einmal für ein Feld gewählte Analysemethode kann nicht mehr geändert werden. Für komplexe Felder muss NULL sein.

dimensions

integer

Die Dimensionalität des Vektorfelds.

facetable

boolean

Ein Wert, der angibt, ob in Facetabfragen auf das Feld verwiesen werden soll. Wird in der Regel in einer Präsentation von Suchergebnissen verwendet, die die Trefferanzahl nach Kategorie enthält (z. B. suchen Sie nach Digitalkameras und sehen Sie Treffer nach Marke, nach Megapixeln, nach Preis usw.). Diese Eigenschaft muss für komplexe Felder NULL sein. Felder vom Typ Edm.GeographyPoint oder Collection(Edm.GeographyPoint) können nicht facetable sein. Der Standardwert ist true für alle anderen einfachen Felder.

fields

SearchField[]

Eine Liste von Unterfeldern, wenn es sich um ein Feld vom Typ Edm.ComplexType oder Collection(Edm.ComplexType) handelt. Für einfache Felder muss null oder leer sein.

filterable

boolean

Ein Wert, der angibt, ob in $filter Abfragen auf das Feld verwiesen werden soll. Filterbar unterscheidet sich von durchsuchbaren in der Behandlung von Zeichenfolgen. Felder vom Typ Edm.String oder Collection(Edm.String), die gefiltert werden können, unterliegen keine Wortbrüche, sodass Vergleiche nur für genaue Übereinstimmungen gelten. Wenn Sie beispielsweise ein solches Feld f auf "sonniger Tag" festlegen, findet $filter=f eq 'sunny' keine Übereinstimmungen, aber $filter=f eq 'sonniger Tag' wird dies. Diese Eigenschaft muss für komplexe Felder NULL sein. Der Standardwert ist true für einfache Felder und NULL für komplexe Felder.

indexAnalyzer

LexicalAnalyzerName

Der Name des Analysetools, der zur Indizierungszeit für das Feld verwendet wird. Diese Option kann nur mit durchsuchbaren Feldern verwendet werden. Er muss zusammen mit searchAnalyzer festgelegt werden und kann nicht zusammen mit der Analyseoption festgelegt werden. Diese Eigenschaft kann nicht auf den Namen eines Sprachanalysetools festgelegt werden. Verwenden Sie stattdessen die Analyzer-Eigenschaft, wenn Sie ein Sprachanalysetool benötigen. Eine einmal für ein Feld gewählte Analysemethode kann nicht mehr geändert werden. Für komplexe Felder muss NULL sein.

key

boolean

Ein Wert, der angibt, ob das Feld Dokumente im Index eindeutig identifiziert. Es muss genau ein Feld der obersten Ebene in jedem Index als Schlüsselfeld ausgewählt werden, und es muss vom Typ Edm.String sein. Schlüsselfelder können verwendet werden, um Dokumente direkt nachzuschlagen und bestimmte Dokumente zu aktualisieren oder zu löschen. Der Standardwert ist false für einfache Felder und NULL für komplexe Felder.

name

string

Der Name des Felds, das innerhalb der Fields-Auflistung des Index- oder übergeordneten Felds eindeutig sein muss.

retrievable

boolean

Ein Wert, der angibt, ob das Feld in einem Suchergebnis zurückgegeben werden kann. Sie können diese Option deaktivieren, wenn Sie ein Feld (z. B. Rand) als Filter-, Sortier- oder Bewertungsmechanismus verwenden möchten, aber nicht möchten, dass das Feld für den Endbenutzer sichtbar ist. Diese Eigenschaft muss für Schlüsselfelder true sein, und für komplexe Felder muss sie NULL sein. Diese Eigenschaft kann für vorhandene Felder geändert werden. Das Aktivieren dieser Eigenschaft führt nicht zu einer Erhöhung der Indexspeicheranforderungen. Der Standardwert ist true für einfache Felder und NULL für komplexe Felder.

searchAnalyzer

LexicalAnalyzerName

Der Name des Analysetools, der zur Suchzeit für das Feld verwendet wird. Diese Option kann nur mit durchsuchbaren Feldern verwendet werden. Er muss zusammen mit indexAnalyzer festgelegt werden und kann nicht zusammen mit der Analyseoption festgelegt werden. Diese Eigenschaft kann nicht auf den Namen eines Sprachanalysetools festgelegt werden. Verwenden Sie stattdessen die Analyzer-Eigenschaft, wenn Sie ein Sprachanalysetool benötigen. Dieses Analyseprogramm kann für ein vorhandenes Feld aktualisiert werden. Für komplexe Felder muss NULL sein.

searchable

boolean

Ein Wert, der angibt, ob das Feld volltextsuchbar ist. Es wird während der Indizierung somit Analysen wie etwa der Worttrennung unterzogen. Wenn Sie ein durchsuchbares Feld auf einen Wert wie „sunny day“ festlegen, wird es intern in die einzelnen Token „sunny“ und „day“ unterteilt. Dies ermöglicht die Volltextsuche nach diesen Begriffen. Felder vom Typ Edm.String oder Collection(Edm.String) sind standardmäßig durchsuchbar. Diese Eigenschaft muss für einfache Felder anderer Nichtzeichenfolgendatentypen false sein, und für komplexe Felder muss sie NULL sein. Hinweis: Durchsuchbare Felder verbrauchen zusätzlichen Speicherplatz in Ihrem Index, um zusätzliche tokenisierte Versionen des Feldwerts für Volltextsuchen aufzunehmen. Wenn Sie Speicherplatz in Ihrem Index sparen möchten und kein Feld in Suchvorgänge einbezogen werden muss, legen Sie durchsuchbar auf false fest.

sortable

boolean

Ein Wert, der angibt, ob in $orderby Ausdrücken auf das Feld verwiesen werden soll. Standardmäßig sortiert die Suchmaschine die Ergebnisse nach Bewertung, aber in vielen Umgebungen möchten Benutzer nach Feldern in den Dokumenten sortieren. Ein einfaches Feld kann nur sortiert werden, wenn es sich um einen einzelwertigen Wert handelt (es verfügt über einen einzelnen Wert im Bereich des übergeordneten Dokuments). Einfache Sammlungsfelder können nicht sortiert werden, da sie mehrwertig sind. Einfache Unterfelder komplexer Sammlungen sind ebenfalls mehrwertig und können daher nicht sortiert werden. Dies gilt unabhängig davon, ob es sich um ein unmittelbares übergeordnetes Feld oder ein Vorgängerfeld handelt, das die komplexe Auflistung ist. Komplexe Felder können nicht sortiert werden, und die sortierbare Eigenschaft muss null für solche Felder sein. Der Standardwert für sortierbar ist true für einfache Felder mit einem Wert, false für einfache Felder mit mehreren Werten und NULL für komplexe Felder.

synonymMaps

string[]

Eine Liste der Namen von Synonymzuordnungen, die diesem Feld zugeordnet werden sollen. Diese Option kann nur mit durchsuchbaren Feldern verwendet werden. Derzeit wird nur eine Synonymzuordnung pro Feld unterstützt. Durch Zuweisen einer Synonymzuordnung zu einem Feld wird sichergestellt, dass Abfragebegriffe, die auf dieses Feld abzielen, zur Abfragezeit mithilfe der Regeln in der Synonymzuordnung erweitert werden. Dieses Attribut kann für vorhandene Felder geändert werden. Muss NULL oder eine leere Auflistung für komplexe Felder sein.

type

SearchFieldDataType

Der Datentyp des Felds.

vectorSearchProfile

string

Der Name des Vektorsuchprofils, das den Algorithmus angibt, der beim Durchsuchen des Vektorfelds verwendet werden soll.

SearchFieldDataType

Definiert den Datentyp eines Felds in einem Suchindex.

Name Typ Beschreibung
Edm.Boolean

string

Gibt an, dass ein Feld einen booleschen Wert (true oder false) enthält.

Edm.ComplexType

string

Gibt an, dass ein Feld ein oder mehrere komplexe Objekte enthält, die wiederum Unterfelder anderer Typen aufweisen.

Edm.DateTimeOffset

string

Gibt an, dass ein Feld einen Datum/Uhrzeit-Wert enthält, einschließlich Zeitzoneninformationen.

Edm.Double

string

Gibt an, dass ein Feld eine IEEE-Gleitkommazahl mit doppelter Genauigkeit enthält.

Edm.GeographyPoint

string

Gibt an, dass ein Feld eine geografische Position in Bezug auf Längen- und Breitengrad enthält.

Edm.Int32

string

Gibt an, dass ein Feld eine 32-Bit-Ganzzahl mit Vorzeichen enthält.

Edm.Int64

string

Gibt an, dass ein Feld eine 64-Bit-Ganzzahl mit Vorzeichen enthält.

Edm.Single

string

Gibt an, dass ein Feld eine Gleitkommazahl mit einfacher Genauigkeit enthält. Dies ist nur gültig, wenn sie mit Collection(Edm.Single) verwendet wird.

Edm.String

string

Gibt an, dass ein Feld eine Zeichenfolge enthält.

SearchIndex

Stellt eine Suchindexdefinition dar, die die Felder und das Suchverhalten eines Indexes beschreibt.

Name Typ Beschreibung
@odata.etag

string

Das ETag des Indexes.

analyzers LexicalAnalyzer[]:

Die Analysetools für den Index.

charFilters CharFilter[]:

Das Zeichen filtert für den Index.

corsOptions

CorsOptions

Optionen zum Steuern der cross-origin Resource Sharing (CORS) für den Index.

defaultScoringProfile

string

Der Name des Bewertungsprofils, das verwendet werden soll, wenn keines in der Abfrage angegeben ist. Wenn diese Eigenschaft nicht festgelegt ist und in der Abfrage kein Bewertungsprofil angegeben wird, wird die Standardbewertung (tf-idf) verwendet.

encryptionKey

SearchResourceEncryptionKey

Eine Beschreibung eines Verschlüsselungsschlüssels, den Sie in Azure Key Vault erstellen. Dieser Schlüssel wird verwendet, um eine zusätzliche Ebene der Verschlüsselung Ruhezustand für Ihre Daten bereitzustellen, wenn Sie die volle Sicherheit haben möchten, dass niemand, nicht einmal Microsoft, Ihre Daten entschlüsseln kann. Sobald Sie Ihre Daten verschlüsselt haben, bleiben sie immer verschlüsselt. Der Suchdienst ignoriert Versuche, diese Eigenschaft auf NULL festzulegen. Sie können diese Eigenschaft bei Bedarf ändern, wenn Sie Ihren Verschlüsselungsschlüssel rotieren möchten. Ihre Daten bleiben unberührt. Die Verschlüsselung mit kundenseitig verwalteten Schlüsseln ist für kostenlose Suchdienste nicht verfügbar und nur für kostenpflichtige Dienste verfügbar, die am oder nach dem 1. Januar 2019 erstellt wurden.

fields

SearchField[]

Die Felder des Indexes.

name

string

Der Name des Index.

scoringProfiles

ScoringProfile[]

Die Bewertungsprofile für den Index.

semantic

SemanticSettings

Definiert Parameter für einen Suchindex, die semantische Funktionen beeinflussen.

similarity Similarity:

Der Typ des Ähnlichkeitsalgorithmus, der bei der Bewertung und Rangfolge der Dokumente verwendet werden soll, die einer Suchabfrage entsprechen. Der Ähnlichkeitsalgorithmus kann nur zum Zeitpunkt der Indexerstellung definiert werden und kann nicht für vorhandene Indizes geändert werden. Bei NULL wird der ClassicSimilarity-Algorithmus verwendet.

suggesters

Suggester[]

Die Vorschlagsgeber für den Index.

tokenFilters TokenFilter[]:

Das Token filtert für den Index.

tokenizers LexicalTokenizer[]:

Die Tokenisierer für den Index.

vectorSearch

VectorSearch

Enthält Konfigurationsoptionen im Zusammenhang mit der Vektorsuche.

SearchResourceEncryptionKey

Ein kundenseitig verwalteter Verschlüsselungsschlüssel in Azure Key Vault. Schlüssel, die Sie erstellen und verwalten, können zum Verschlüsseln oder Entschlüsseln ruhender Daten in Ihrem Suchdienst verwendet werden, z. B. Indizes und Synonymzuordnungen.

Name Typ Beschreibung
accessCredentials

AzureActiveDirectoryApplicationCredentials

Optionale Azure Active Directory-Anmeldeinformationen, die für den Zugriff auf Ihre Azure Key Vault verwendet werden. Nicht erforderlich, wenn stattdessen eine verwaltete Identität verwendet wird.

keyVaultKeyName

string

Der Name Ihres Azure Key Vault Schlüssel, der zum Verschlüsseln ruhender Daten verwendet werden soll.

keyVaultKeyVersion

string

Die Version Ihres Azure Key Vault Schlüssels, der zum Verschlüsseln Ruhezustandsdaten verwendet werden soll.

keyVaultUri

string

Der URI Ihres Azure Key Vault, auch als DNS-Name bezeichnet, der den Schlüssel enthält, der zum Verschlüsseln Ruhezustandsdaten verwendet werden soll. Ein Beispiel-URI kann sein https://my-keyvault-name.vault.azure.net.

SemanticConfiguration

Definiert eine bestimmte Konfiguration, die im Kontext semantischer Funktionen verwendet werden soll.

Name Typ Beschreibung
name

string

Der Name der semantischen Konfiguration.

prioritizedFields

PrioritizedFields

Beschreibt den Titel, den Inhalt und die Schlüsselwort (keyword) Felder, die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen. Es muss mindestens eine der drei Untereigenschaften (titleField, priorisiertKeywordsFields und priorisiertContentFields) festgelegt werden.

SemanticField

Ein Feld, das als Teil der semantischen Konfiguration verwendet wird.

Name Typ Beschreibung
fieldName

string

SemanticSettings

Definiert Parameter für einen Suchindex, die semantische Funktionen beeinflussen.

Name Typ Beschreibung
configurations

SemanticConfiguration[]

Die semantischen Konfigurationen für den Index.

defaultConfiguration

string

Ermöglicht es Ihnen, den Namen einer semantischen Standardkonfiguration in Ihrem Index festzulegen, sodass sie optional als Abfrageparameter jedes Mal übergeben werden kann.

ShingleTokenFilter

Kombiniert Token zu einem einzelnen Token. Dieser Tokenfilter wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

filterToken

string

_

Die einzufügende Zeichenfolge für jede Position, an der kein Token vorhanden ist. Der Standardwert ist ein Unterstrich ("_").

maxShingleSize

integer

2

Die maximale Schindelgröße. Standardwert und Mindestwert ist 2.

minShingleSize

integer

2

Die minimale Schindelgröße. Standardwert und Mindestwert ist 2. Muss kleiner als der Wert von maxShingleSize sein.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

outputUnigrams

boolean

True

Ein Wert, der angibt, ob der Ausgabestream die Eingabetoken (Unigramme) sowie Schindeln enthält. Der Standardwert ist "true".

outputUnigramsIfNoShingles

boolean

False

Ein Wert, der angibt, ob Unigramme für die Zeiten ausgegeben werden sollen, in denen keine Schindeln verfügbar sind. Diese Eigenschaft hat Vorrang, wenn outputUnigrams auf false festgelegt ist. Der Standardwert ist "false".

tokenSeparator

string

Die Zeichenfolge, die beim Verknüpfen benachbarter Token verwendet werden soll, um einen Schindel zu bilden. Standard ist ein einzelner Leerraum ("").

SnowballTokenFilter

Ein Filter, der Wörter mithilfe eines von Snowball generierten Stemmers vorgibt. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

language

SnowballTokenFilterLanguage

Die zu verwendende Sprache.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

SnowballTokenFilterLanguage

Die Sprache, die für einen Snowballtokenfilter verwendet werden soll.

Name Typ Beschreibung
armenian

string

Wählt den Lucene Snowball Stemming Tokenizer für Armenisch aus.

basque

string

Wählt den Lucene Snowball Stemming Tokenizer für Baskisch aus.

catalan

string

Wählt den Lucene Snowball-Stemming-Tokenizer für Catalan aus.

danish

string

Wählt den Lucene Snowball Stemming Tokenizer für Dänisch aus.

dutch

string

Wählt den Lucene Snowball Stemming Tokenizer für Niederländisch aus.

english

string

Wählt den Lucene Snowball Stemming Tokenizer für Englisch aus.

finnish

string

Wählt den Lucene Snowball Stemming Tokenizer für Finnisch aus.

french

string

Wählt den Lucene Snowball-Stemming-Tokenizer für Französisch aus.

german

string

Wählt den Lucene Snowball Stemming Tokenizer für Deutsch aus.

german2

string

Wählt den Lucene Snowball-Stemming-Tokenizer aus, der den deutschen Variantenalgorithmus verwendet.

hungarian

string

Wählt den Lucene Snowball Stemming Tokenizer für Ungarisch aus.

italian

string

Wählt den Lucene Snowball Stemming Tokenizer für Italienisch aus.

kp

string

Wählt den Lucene Snowball Stemming-Tokenizer für Niederländisch aus, der den Kraaij-Pohlmann Stemmingalgorithmus verwendet.

lovins

string

Wählt den Lucene Snowball-Stemming-Tokenizer für Englisch aus, der den Lovins-Stemmingalgorithmus verwendet.

norwegian

string

Wählt den Lucene Snowball Stemming Tokenizer für Norwegisch aus.

porter

string

Wählt den Lucene Snowball-Stemming-Tokenizer für Englisch aus, der den Porter-Stemmingalgorithmus verwendet.

portuguese

string

Wählt den Lucene Snowball-Stemming-Tokenizer für Portugiesisch aus.

romanian

string

Wählt den Lucene Snowball Stemming Tokenizer für Rumänisch aus.

russian

string

Wählt den Lucene Snowball Stemming Tokenizer für Russisch aus.

spanish

string

Wählt den Lucene Snowball-Stemming-Tokenizer für Spanisch aus.

swedish

string

Wählt den Lucene Snowball Stemming Tokenizer für Schwedisch aus.

turkish

string

Wählt den Lucene Snowball Stemming Tokenizer für Türkisch aus.

StemmerOverrideTokenFilter

Bietet die Möglichkeit, andere Stemmingfilter mit benutzerwörterbuchbasiertem Stemming zu überschreiben. Alle wörterstammigen Begriffe werden als Schlüsselwörter markiert, sodass sie nicht mit Stemmeren in der Kette eingestammt werden. Muss vor dem Filter für die Wortstammerkennung platziert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

rules

string[]

Eine Liste von Stammregeln im folgenden Format: "word => stem", z. B. "ran => run".

StemmerTokenFilter

Sprachspezifischer Stammfilter. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

language

StemmerTokenFilterLanguage

Die zu verwendende Sprache.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

StemmerTokenFilterLanguage

Die Sprache, die für einen Stemmertokenfilter verwendet werden soll.

Name Typ Beschreibung
arabic

string

Wählt den Lucene-Stemming-Tokenizer für Arabisch aus.

armenian

string

Wählt den Lucene-Stemming-Tokenizer für Armenisch aus.

basque

string

Wählt den Lucene Stemming-Tokenizer für Baskisch aus.

brazilian

string

Wählt den Lucene-Stemming-Tokenizer für Portugiesisch (Brasilien) aus.

bulgarian

string

Wählt den Lucene-Stemming-Tokenizer für Bulgarisch aus.

catalan

string

Wählt den Lucene-Stemming-Tokenizer für Catalan aus.

czech

string

Wählt den Lucene-Stemming-Tokenizer für Tschechisch aus.

danish

string

Wählt den Lucene Stemming-Tokenizer für Dänisch aus.

dutch

string

Wählt den Lucene-Stemming-Tokenizer für Niederländisch aus.

dutchKp

string

Wählt den Lucene Stemming-Tokenizer für Niederländisch aus, der den Kraaij-Pohlmann Stammmingalgorithmus verwendet.

english

string

Wählt den Lucene-Stemming-Tokenizer für Englisch aus.

finnish

string

Wählt den Lucene-Stemming-Tokenizer für Finnisch aus.

french

string

Wählt den Lucene-Stemming-Tokenizer für Französisch aus.

galician

string

Wählt den Lucene-Stemming-Tokenizer für Galizisch aus.

german

string

Wählt den Lucene-Stemming-Tokenizer für Deutsch aus.

german2

string

Wählt den Lucene-Stemming-Tokenizer aus, der den deutschen Variantenalgorithmus verwendet.

greek

string

Wählt den Lucene-Stemming-Tokenizer für Griechisch aus.

hindi

string

Wählt den Lucene-Stemming-Tokenizer für Hindi aus.

hungarian

string

Wählt den Lucene-Stemming-Tokenizer für Ungarisch aus.

indonesian

string

Wählt den Lucene-Stemming-Tokenizer für Indonesisch aus.

irish

string

Wählt den Lucene-Stemming-Tokenizer für Irisch aus.

italian

string

Wählt den Lucene-Stemming-Tokenizer für Italienisch aus.

latvian

string

Wählt den Lucene-Stemming-Tokenizer für Lettisch aus.

lightEnglish

string

Wählt den Lucene-Stemming-Tokenizer für Englisch aus, der Lichtstieling ausführt.

lightFinnish

string

Wählt den Lucene-Stemming-Tokenizer für Finnisch aus, der leichte Stängelvorgänge ausführt.

lightFrench

string

Wählt den Lucene-Stemming-Tokenizer für Französisch aus, der lichte Stängelvorgänge durchführt.

lightGerman

string

Wählt den Lucene-Stemming-Tokenizer für Deutsch aus, der leichte Stängelvorgänge ausführt.

lightHungarian

string

Wählt den Lucene-Stemming-Tokenizer für Ungarisch aus, der leichte Stängelvorgänge ausführt.

lightItalian

string

Wählt den Lucene-Stemming-Tokenizer für Italienisch aus, der Lichtstieling ausführt.

lightNorwegian

string

Wählt den Lucene-Stemming-Tokenizer für Norwegisch (Bokmål) aus, der Lichtstamming ausführt.

lightNynorsk

string

Wählt den Lucene-Stemming-Tokenizer für Norwegisch (Nynorsk) aus, der Lichtstamming ausführt.

lightPortuguese

string

Wählt den Lucene-Stemming-Tokenizer für Portugiesisch aus, der Lichtstieling ausführt.

lightRussian

string

Wählt den Lucene-Stemming-Tokenizer für Russisch aus, der Lichtstieling ausführt.

lightSpanish

string

Wählt den Lucene-Stemming-Tokenizer für Spanisch aus, der leichte Stängelvorgänge durchführt.

lightSwedish

string

Wählt den Lucene-Stemming-Tokenizer für Schwedisch aus, der Lichtstieling ausführt.

lovins

string

Wählt den Lucene-Stemming-Tokenizer für Englisch aus, der den Lovins-Stammmingalgorithmus verwendet.

minimalEnglish

string

Wählt den Lucene-Stemming-Tokenizer für Englisch aus, der minimale Stammdatensätze ausführt.

minimalFrench

string

Wählt den Lucene-Stemming-Tokenizer für Französisch aus, der minimale Stemmingvorgänge ausführt.

minimalGalician

string

Wählt den Lucene-Stemming-Tokenizer für Galizisch aus, der minimale Stängelvorgänge ausführt.

minimalGerman

string

Wählt den Lucene-Stemming-Tokenizer für Deutsch aus, der minimale Stammdatensätze ausführt.

minimalNorwegian

string

Wählt den Lucene-Stemming-Tokenizer für Norwegisch (Bokmål) aus, der minimale Stammming ausführt.

minimalNynorsk

string

Wählt den Lucene-Stemming-Tokenizer für Norwegisch (Nynorsk) aus, der minimale Stammming ausführt.

minimalPortuguese

string

Wählt den Lucene-Stemming-Tokenizer für Portugiesisch aus, der minimale Stammdatensätze ausführt.

norwegian

string

Wählt den Lucene-Stemming-Tokenizer für Norwegisch (Bokmål) aus.

porter2

string

Wählt den Lucene Stemming-Tokenizer für Englisch aus, der den Porter2-Stemmingalgorithmus verwendet.

portuguese

string

Wählt den Lucene-Stemming-Tokenizer für Portugiesisch aus.

portugueseRslp

string

Wählt den Lucene-Stemming-Tokenizer für Portugiesisch aus, der den RSLP-Stammmingalgorithmus verwendet.

possessiveEnglish

string

Wählt den Lucene-Stemming-Tokenizer für Englisch aus, der nachfolgende Possessive aus Wörtern entfernt.

romanian

string

Wählt den Lucene-Stemming-Tokenizer für Rumänisch aus.

russian

string

Wählt den Lucene-Stemming-Tokenizer für Russisch aus.

sorani

string

Wählt den Lucene-Stemming-Tokenizer für Sorani aus.

spanish

string

Wählt den Lucene-Stemming-Tokenizer für Spanisch aus.

swedish

string

Wählt den Lucene-Stemming-Tokenizer für Schwedisch aus.

turkish

string

Wählt den Lucene-Stemming-Tokenizer für Türkisch aus.

StopAnalyzer

Unterteilt Text in Nicht-Buchstaben; Wendet die Kleinbuchstaben- und Stoppworttokenfilter an. Dieses Analysetool wird mit Apache Lucene implementiert.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

Ein URI-Fragment, das den Typ des Analysetools angibt.

name

string

Der Name des Analysetools. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

stopwords

string[]

Eine Liste von Stoppwörtern.

StopwordsList

Identifiziert eine vordefinierte Liste sprachspezifischer Stoppwörter.

Name Typ Beschreibung
arabic

string

Wählt die Stoppwortliste für Arabisch aus.

armenian

string

Wählt die Stoppwortliste für Armenisch aus.

basque

string

Wählt die Stoppwortliste für Baskisch aus.

brazilian

string

Wählt die Stoppwortliste für Portugiesisch (Brasilien) aus.

bulgarian

string

Wählt die Stoppwortliste für Bulgarisch aus.

catalan

string

Wählt die Stoppwortliste für Katalanisch aus.

czech

string

Wählt die Stoppwortliste für Tschechisch aus.

danish

string

Wählt die Stoppwortliste für Dänisch aus.

dutch

string

Wählt die Stoppwortliste für Niederländisch aus.

english

string

Wählt die Stoppwortliste für Englisch aus.

finnish

string

Wählt die Stoppwortliste für Finnisch aus.

french

string

Wählt die Stoppwortliste für Französisch aus.

galician

string

Wählt die Stoppwortliste für Galizisch aus.

german

string

Wählt die Stoppwortliste für Deutsch aus.

greek

string

Wählt die Stoppwortliste für Griechisch aus.

hindi

string

Wählt die Stoppwortliste für Hindi aus.

hungarian

string

Wählt die Stoppwortliste für Ungarisch aus.

indonesian

string

Wählt die Stoppwortliste für Indonesisch aus.

irish

string

Wählt die Stoppwortliste für Irisch aus.

italian

string

Wählt die Stoppwortliste für Italienisch aus.

latvian

string

Wählt die Stoppwortliste für Lettisch aus.

norwegian

string

Wählt die Stoppwortliste für Norwegisch aus.

persian

string

Wählt die Stoppwortliste für Persisch aus.

portuguese

string

Wählt die Stoppwortliste für Portugiesisch aus.

romanian

string

Wählt die Stoppwortliste für Rumänisch aus.

russian

string

Wählt die Stoppwortliste für Russisch aus.

sorani

string

Wählt die Stoppwortliste für Sorani aus.

spanish

string

Wählt die Stoppwortliste für Spanisch aus.

swedish

string

Wählt die Stoppwortliste für Schwedisch aus.

thai

string

Wählt die Stoppwortliste für Thai aus.

turkish

string

Wählt die Stoppwortliste für Türkisch aus.

StopwordsTokenFilter

Entfernt Stoppwörter aus einem Tokenstream. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

ignoreCase

boolean

False

Ein Wert, der angibt, ob die Groß-/Kleinschreibung ignoriert werden soll. Wenn true, werden alle Wörter zuerst in Kleinbuchstaben konvertiert. Der Standardwert ist "false".

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

removeTrailing

boolean

True

Ein Wert, der angibt, ob der letzte Suchbegriff ignoriert werden soll, wenn es sich um ein Stoppwort handelt. Der Standardwert ist "true".

stopwords

string[]

Die Liste der Stoppwörter. Diese Eigenschaft und die stopwords list-Eigenschaft können nicht beide festgelegt werden.

stopwordsList

StopwordsList

english

Eine vordefinierte Liste der zu verwendenden Stoppwörter. Diese Eigenschaft und die stopwords-Eigenschaft können nicht beide festgelegt werden. Der Standardwert ist Englisch.

Suggester

Definiert, wie die Vorschlags-API auf eine Gruppe von Feldern im Index angewendet werden soll.

Name Typ Beschreibung
name

string

Der Name der Vorschlagsfunktion.

searchMode

SuggesterSearchMode

Ein Wert, der die Funktionen des Vorschlags angibt.

sourceFields

string[]

Die Liste der Feldnamen, auf die der Vorschlagsgeber angewendet wird. Jedes Feld muss durchsuchbar sein.

SuggesterSearchMode

Ein Wert, der die Funktionen des Vorschlags angibt.

Name Typ Beschreibung
analyzingInfixMatching

string

Gleicht aufeinanderfolgende ganze Begriffe und Präfixe in einem Feld ab. Für das Feld "Der schnellste braune Fuchs" würden beispielsweise die Abfragen "schnell" und "schnellste Stirn" übereinstimmen.

SynonymTokenFilter

Entspricht Synonymen mit einzelnen oder mehreren Wörtern in einem Tokenstream. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

expand

boolean

True

Ein -Wert, der angibt, ob alle Wörter in der Liste der Synonyme (wenn => Notation nicht verwendet wird) einander zugeordnet werden. Wenn true, werden alle Wörter in der Liste der Synonyme (wenn => Notation nicht verwendet wird) einander zugeordnet. Die folgende Liste: incredible, incrediblee, fabulous, amazing ist gleichbedeutend mit: incredible, incrediblee, fabulous, amazing => incredible, incrediblee, fabulous, amazing. Wenn falsch, die folgende Liste: unglaublich, unglaublich, fabelhaft, erstaunlich ist gleichbedeutend mit: incredible, incrediblee, fabulous, amazing => incredible. Der Standardwert ist "true".

ignoreCase

boolean

False

Ein -Wert, der angibt, ob die Eingabe für den Abgleich mit Groß-/Kleinschreibung gefaltet werden soll. Der Standardwert ist "false".

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

synonyms

string[]

Eine Liste von Synonymen in einem von zwei Formaten: 1. incredible, incrediblee, fabulous => amazing - alle Begriffe auf der linken Seite von => Symbol werden durch alle Begriffe auf der rechten Seite ersetzt; 2. unglaublich, unglaublich, fabelhaft, erstaunlich - durch Trennzeichen getrennte Liste der äquivalenten Wörter. Legen Sie die expand-Option fest, um zu ändern, wie diese Liste interpretiert wird.

TagScoringFunction

Definiert eine Funktion, die die Bewertungen von Dokumenten mit Zeichenfolgenwerten erhöht, die einer angegebenen Liste von Tags entsprechen.

Name Typ Beschreibung
boost

number

Ein Multiplikator für die Rohbewertung. Muss eine positive Zahl sein, die nicht gleich 1,0 ist.

fieldName

string

Der Name des Felds, das als Eingabe für die Bewertungsfunktion verwendet wird.

interpolation

ScoringFunctionInterpolation

Ein Wert, der angibt, wie die Verstärkung über Dokumentbewertungen hinweg interpoliert wird; wird standardmäßig auf "Linear" festgelegt.

tag

TagScoringParameters

Parameterwerte für die Tagbewertungsfunktion.

type string:

tag

Gibt den Typ der zu verwendenden Funktion an. Gültige Werte sind „magnitude“, „freshness“, „distance“ und „tag“. Der Funktionstyp muss klein geschrieben werden.

TagScoringParameters

Stellt Parameterwerte für eine Tagbewertungsfunktion bereit.

Name Typ Beschreibung
tagsParameter

string

Der Name des Parameters, der in Suchabfragen übergeben wird, um die Liste der Tags anzugeben, die mit dem Zielfeld verglichen werden sollen.

TextWeights

Definiert Gewichtungen für Indexfelder, für die Übereinstimmungen die Bewertung in Suchabfragen erhöhen sollen.

Name Typ Beschreibung
weights

object

Das Wörterbuch der Feldgewichtungen, um die Dokumentbewertung zu erhöhen. Die Schlüssel sind Feldnamen, und die Werte sind die Gewichtungen für jedes Feld.

TokenCharacterKind

Stellt Klassen von Zeichen dar, für die ein Tokenfilter ausgeführt werden kann.

Name Typ Beschreibung
digit

string

Behält Ziffern in Token bei.

letter

string

Behält Buchstaben in Token bei.

punctuation

string

Behält die Interpunktion in Token bei.

symbol

string

Behält Symbole in Token bei.

whitespace

string

Behält Leerzeichen in Token bei.

TokenFilterName

Definiert die Namen aller Tokenfilter, die von der Suchmaschine unterstützt werden.

Name Typ Beschreibung
apostrophe

string

Entfernt alle Zeichen nach einem Apostroph (einschließlich des Apostrophs). Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html.

arabic_normalization

string

Ein Tokenfilter, der den Normalisierer für arabische Sprachen anwendet, um die Orthographie zu normalisieren. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html.

asciifolding

string

Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, wenn solche Entsprechungen vorhanden sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.

cjk_bigram

string

Bildet Bigrams von CJK-Begriffen, die aus dem Standardtokenizer generiert werden. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html.

cjk_width

string

Normalisiert CJK-Breitenabweichungen. Faltet vollwidth ASCII-Varianten in die äquivalenten basislateinischen und halbbreiten Katakana-Varianten in die äquivalente Kana. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html.

classic

string

Entfernt englische Possessive und Punkte aus Akronymen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html.

common_grams

string

Konstruiert Bigramme für häufig vorkommende Begriffe während der Indexierung. Einzelne Begriffe werden ebenfalls indexiert und mit Bigrammen überlagert. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html.

edgeNGram_v2

string

Generiert n Gramm der angegebenen Größe(en) ausgehend von der Vorder- oder Rückseite eines Eingabetokens. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html.

elision

string

Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.

german_normalization

string

Normalisiert deutsche Zeichen gemäß der Heuristik des German2-Schneeballalgorithmus. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html.

hindi_normalization

string

Normalisiert Text in Hindi, um einige Unterschiede in der Schreibweise zu beseitigen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html.

indic_normalization

string

Normalisiert die Unicode-Darstellung von Text in indischen Sprachen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html.

keyword_repeat

string

Gibt jedes eingehende Token zweimal aus, einmal als Schlüsselwort (keyword) und einmal als nicht Schlüsselwort (keyword). Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html.

kstem

string

Ein Hochleistungs-Kstem-Filter für Englisch. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html.

length

string

Entfernt die Wörter, die zu lang oder zu kurz sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html.

limit

string

Beschränkt die Anzahl der Token während der Indizierung. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html.

lowercase

string

Normalisiert den Tokentext in Kleinbuchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm.

nGram_v2

string

Generiert N-Gramme einer festgelegten Größe. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html.

persian_normalization

string

Wendet die Normalisierung für Persisch an. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html.

phonetic

string

Erstellt Token für phonetische Übereinstimmungen. Siehe https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html.

porter_stem

string

Verwendet den Porter-Stammalgorithmus, um den Tokenstream zu transformieren. Siehe http://tartarus.org/~martin/PorterStemmer.

reverse

string

Kehrt die Tokenzeichenfolge um. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.

scandinavian_folding

string

Faltet skandinavische Zeichen åÅäæÄÆ->a und öÖøØ->o. Es unterscheidet auch die Verwendung von doppelten Vokalen aa, ae, ae, ao, ao, oe und oo, wobei nur der erste übrig bleibt. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html.

scandinavian_normalization

string

Normalisiert die Verwendung der austauschbar skandinavische Zeichen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html.

shingle

string

Kombiniert Token zu einem einzelnen Token. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html.

snowball

string

Ein Filter, der Wörter mithilfe eines von Snowball generierten Stemmers vorgibt. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html.

sorani_normalization

string

Normalisiert die Unicode-Darstellung von Text in Sorani. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html.

stemmer

string

Sprachspezifischer Stammfilter. Siehe https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.

stopwords

string

Entfernt Stoppwörter aus einem Tokenstream. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.

trim

string

Entfernt führende und nachfolgende Leerzeichen aus Token. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html.

truncate

string

Schneidet die Begriffe auf eine bestimmte Länge ab. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html.

unique

string

Filtert Token mit dem gleichen Text wie das vorherige Token heraus. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html.

uppercase

string

Normalisiert Tokentext in Großbuchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.

word_delimiter

string

Unterteilt Wörter in Teilwörter und führt optionale Transformationen in Teilwortgruppen durch.

TruncateTokenFilter

Schneidet die Begriffe auf eine bestimmte Länge ab. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

length

integer

300

Die Länge, in der Begriffe abgeschnitten werden. Standard und Maximum ist 300.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

UaxUrlEmailTokenizer

Tokenisiert URLs und E-Mails als ein Token. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

Ein URI-Fragment, das den Typ des Tokenizers angibt.

maxTokenLength

integer

255

Die maximale Tokenlänge. Der Standardwert ist 255. Token, die die maximale Länge überschreiten, werden geteilt. Die maximale Tokenlänge, die verwendet werden kann, beträgt 300 Zeichen.

name

string

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

UniqueTokenFilter

Filtert Token mit dem gleichen Text wie das vorherige Token heraus. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

onlyOnSamePosition

boolean

False

Ein Wert, der angibt, ob Duplikate nur an derselben Position entfernt werden sollen. Der Standardwert ist "false".

VectorSearch

Enthält Konfigurationsoptionen im Zusammenhang mit der Vektorsuche.

Name Typ Beschreibung
algorithms VectorSearchAlgorithmConfiguration[]:

Enthält konfigurationsspezifische Optionen für den Algorithmus, der während der Indizierung oder Abfrage verwendet wird.

profiles

VectorSearchProfile[]

Definiert Kombinationen von Konfigurationen, die mit der Vektorsuche verwendet werden sollen.

VectorSearchAlgorithmKind

Der Algorithmus, der für die Indizierung und Abfrage verwendet wird.

Name Typ Beschreibung
exhaustiveKnn

string

Vollständiger KNN-Algorithmus, der Brute-Force-Suche ausführt.

hnsw

string

HNSW (Hierarchisch navigable Small World), eine Art näherungsfähiger Nachbaralgorithmus.

VectorSearchAlgorithmMetric

Die Ähnlichkeitsmetrik, die für Vektorvergleiche verwendet werden soll.

Name Typ Beschreibung
cosine

string

dotProduct

string

euclidean

string

VectorSearchProfile

Definiert eine Kombination von Konfigurationen, die mit der Vektorsuche verwendet werden sollen.

Name Typ Beschreibung
algorithm

string

Der Name der Konfiguration des Vektorsuchalgorithmus, die den Algorithmus und optionale Parameter angibt.

name

string

Der Name, der diesem bestimmten Vektorsuchprofil zugeordnet werden soll.

WordDelimiterTokenFilter

Unterteilt Wörter in Teilwörter und führt optionale Transformationen in Teilwortgruppen durch. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Name Typ Standardwert Beschreibung
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

Ein URI-Fragment, das den Typ des Tokenfilters angibt.

catenateAll

boolean

False

Ein -Wert, der angibt, ob alle Teilwortteile kategorisiert werden. Wenn dies beispielsweise auf true festgelegt ist, wird "Azure-Search-1" zu "AzureSearch1". Der Standardwert ist "false".

catenateNumbers

boolean

False

Ein -Wert, der angibt, ob maximale Ausführungen von Zahlenteilen kategorisiert werden. Wenn dies beispielsweise auf TRUE festgelegt ist, wird "1-2" zu "12". Der Standardwert ist "false".

catenateWords

boolean

False

Ein -Wert, der angibt, ob maximale Ausführungen von Wortteilen kategorisiert werden. Wenn dies beispielsweise auf true festgelegt ist, wird "Azure-Search" zu "AzureSearch". Der Standardwert ist "false".

generateNumberParts

boolean

True

Ein -Wert, der angibt, ob Zahlenunterwörter generiert werden sollen. Der Standardwert ist "true".

generateWordParts

boolean

True

Ein -Wert, der angibt, ob Teilwörter generiert werden sollen. Wenn festgelegt, werden Teile von Wörtern generiert; beispielsweise wird "AzureSearch" zu "Azure" "Search". Der Standardwert ist "true".

name

string

Der Name des Tokenfilters. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

preserveOriginal

boolean

False

Ein -Wert, der angibt, ob ursprüngliche Wörter beibehalten und der Unterwortliste hinzugefügt werden. Der Standardwert ist "false".

protectedWords

string[]

Eine Liste der Token, die vor dem Trennen geschützt werden sollen.

splitOnCaseChange

boolean

True

Ein -Wert, der angibt, ob Wörter in caseChange aufgeteilt werden sollen. Wenn dies beispielsweise auf TRUE festgelegt ist, wird "AzureSearch" zu "Azure" "Search". Der Standardwert ist "true".

splitOnNumerics

boolean

True

Ein Wert, der angibt, ob auf Zahlen aufgeteilt werden soll. Wenn dies beispielsweise auf true festgelegt ist, wird "Azure1Search" zu "Azure" "1" "Search". Der Standardwert ist "true".

stemEnglishPossessive

boolean

True

Ein Wert, der angibt, ob nachfolgende "'s" für jedes Unterwort entfernt werden sollen. Der Standardwert ist "true".