Indexes - Create Or Update

Skapar ett nytt sökindex eller uppdaterar ett index om det redan finns.

PUT {endpoint}/indexes('{indexName}')?api-version=2023-11-01
PUT {endpoint}/indexes('{indexName}')?allowIndexDowntime={allowIndexDowntime}&api-version=2023-11-01

URI-parametrar

Name I Obligatorisk Typ Description
endpoint
path True

string

Slutpunkts-URL:en för söktjänsten.

indexName
path True

string

Definitionen av indexet som ska skapas eller uppdateras.

api-version
query True

string

Klient-API-version.

allowIndexDowntime
query

boolean

Gör att nya analysverktyg, tokeniserare, tokenfilter eller teckenfilter kan läggas till i ett index genom att indexet tas offline i minst några sekunder. Detta gör tillfälligt att indexering och frågebegäranden misslyckas. Indexets prestanda- och skrivtillgänglighet kan försämras i flera minuter efter att indexet har uppdaterats eller längre för mycket stora index.

Begärandehuvud

Name Obligatorisk Typ Description
x-ms-client-request-id

string

uuid

Spårnings-ID:t som skickas med begäran för att hjälpa till med felsökning.

If-Match

string

Definierar If-Match villkor. Åtgärden utförs endast om ETag på servern matchar det här värdet.

If-None-Match

string

Definierar villkoret If-None-Match. Åtgärden utförs endast om ETag på servern inte matchar det här värdet.

Prefer True

string

För HTTP PUT-begäranden instruerar du tjänsten att returnera den skapade/uppdaterade resursen när den lyckas.

Begärandetext

Name Obligatorisk Typ Description
fields True

SearchField[]

Fälten i indexet.

name True

string

Namnet på indexet.

@odata.etag

string

Indexets ETag.

analyzers LexicalAnalyzer[]:

Analysverktygen för indexet.

charFilters CharFilter[]:

Tecknet filtrerar för indexet.

corsOptions

CorsOptions

Alternativ för att styra resursdelning mellan ursprung (CORS) för indexet.

defaultScoringProfile

string

Namnet på bedömningsprofilen som ska användas om ingen anges i frågan. Om den här egenskapen inte har angetts och ingen bedömningsprofil anges i frågan används standardpoäng (tf-idf).

encryptionKey

SearchResourceEncryptionKey

En beskrivning av en krypteringsnyckel som du skapar i Azure Key Vault. Den här nyckeln används för att tillhandahålla ytterligare en nivå av kryptering i vila för dina data när du vill ha fullständig försäkran om att ingen, inte ens Microsoft, kan dekryptera dina data. När du har krypterat dina data förblir de alltid krypterade. Söktjänsten ignorerar försök att ange den här egenskapen till null. Du kan ändra den här egenskapen efter behov om du vill rotera krypteringsnyckeln. Dina data påverkas inte. Kryptering med kundhanterade nycklar är inte tillgängligt för kostnadsfria söktjänster och är endast tillgängligt för betaltjänster som skapats den 1 januari 2019 eller senare.

scoringProfiles

ScoringProfile[]

Bedömningsprofilerna för indexet.

semantic

SemanticSettings

Definierar parametrar för ett sökindex som påverkar semantiska funktioner.

similarity Similarity:

Typen av likhetsalgoritm som ska användas vid bedömning och rangordning av dokument som matchar en sökfråga. Likhetsalgoritmen kan bara definieras när index skapas och kan inte ändras i befintliga index. Om det är null används ClassicSimilarity-algoritmen.

suggesters

Suggester[]

Förslagsgivare för indexet.

tokenFilters TokenFilter[]:

Tokenfiltren för indexet.

tokenizers LexicalTokenizer[]:

Tokeniserare för indexet.

vectorSearch

VectorSearch

Innehåller konfigurationsalternativ relaterade till vektorsökning.

Svar

Name Typ Description
200 OK

SearchIndex

201 Created

SearchIndex

Other Status Codes

SearchError

Felsvar.

Exempel

SearchServiceCreateOrUpdateIndex

Sample Request

PUT https://myservice.search.windows.net/indexes('hotels')?allowIndexDowntime=False&api-version=2023-11-01


{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "key": true,
      "searchable": false
    },
    {
      "name": "baseRate",
      "type": "Edm.Double"
    },
    {
      "name": "description",
      "type": "Edm.String",
      "filterable": false,
      "sortable": false,
      "facetable": false
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile",
      "searchable": true,
      "retrievable": true
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "filterable": false,
      "sortable": false,
      "facetable": false,
      "analyzer": "fr.lucene"
    },
    {
      "name": "hotelName",
      "type": "Edm.String"
    },
    {
      "name": "category",
      "type": "Edm.String"
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "analyzer": "tagsAnalyzer"
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean"
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean"
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset"
    },
    {
      "name": "rating",
      "type": "Edm.Int32"
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint"
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "type": "distance",
          "boost": 5,
          "fieldName": "location",
          "interpolation": "logarithmic",
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2"
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": null
  },
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.ClassicSimilarity"
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myExhaustive"
      }
    ],
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "m": 4,
          "metric": "cosine"
        }
      },
      {
        "name": "myExhaustive",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ]
  }
}

Sample Response

{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "baseRate",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile",
      "synonymMaps": []
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "fr.lucene",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "hotelName",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": false,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "tagsAnalyzer",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "rating",
      "type": "Edm.Int32",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "type": "distance",
          "boost": 5,
          "fieldName": "location",
          "interpolation": "logarithmic",
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2"
    }
  ],
  "tokenizers": [],
  "tokenFilters": [],
  "charFilters": [],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": null
  },
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.ClassicSimilarity"
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "myExhaustive",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ],
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myExhaustive"
      }
    ]
  }
}
{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "baseRate",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile",
      "synonymMaps": []
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "fr.lucene",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "hotelName",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": false,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "tagsAnalyzer",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "rating",
      "type": "Edm.Int32",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "type": "distance",
          "boost": 5,
          "fieldName": "location",
          "interpolation": "logarithmic",
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2"
    }
  ],
  "tokenizers": [],
  "tokenFilters": [],
  "charFilters": [],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myUserManagedEncryptionKey-createdinAzureKeyVault",
    "keyVaultKeyVersion": "myKeyVersion-32charAlphaNumericString",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": null
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "myExhaustive",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ],
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myExhaustive"
      }
    ]
  }
}

Definitioner

Name Description
AsciiFoldingTokenFilter

Konverterar alfabetiska, numeriska och symboliska Unicode-tecken som inte finns i de första 127 ASCII-tecknen (Unicode-blocket "Basic Latin" till deras ASCII-motsvarigheter, om sådana motsvarigheter finns. Det här tokenfiltret implementeras med Apache Lucene.

AzureActiveDirectoryApplicationCredentials

Autentiseringsuppgifter för ett registrerat program som skapats för din söktjänst och som används för autentiserad åtkomst till krypteringsnycklarna som lagras i Azure Key Vault.

BM25Similarity

Rankningsfunktion baserat på Okapi BM25-likhetsalgoritmen. BM25 är en TF-IDF-liknande algoritm som innehåller längdnormalisering (styrs av parametern "b" samt termfrekvensmättnad (styrs av parametern k1).

CharFilterName

Definierar namnen på alla teckenfilter som stöds av sökmotorn.

CjkBigramTokenFilter

Bildar bigrams av CJK-termer som genereras från standardtokeniseraren. Det här tokenfiltret implementeras med Apache Lucene.

CjkBigramTokenFilterScripts

Skript som kan ignoreras av CjkBigramTokenFilter.

ClassicSimilarity

Äldre likhetsalgoritm som använder Lucene TFIDFSimilarity-implementeringen av TF-IDF. Den här varianten av TF-IDF introducerar normalisering av statisk dokumentlängd samt koordinerar faktorer som straffar dokument som endast delvis matchar de sökta frågorna.

ClassicTokenizer

Grammatikbaserad tokeniserare som lämpar sig för bearbetning av de flesta europeiska dokument. Denna tokenizer implementeras med Apache Lucene.

CommonGramTokenFilter

Skapa bigrams för ofta förekommande termer vid indexering. Enkla termer indexeras fortfarande också, med bigrams överlagrade. Det här tokenfiltret implementeras med Apache Lucene.

CorsOptions

Definierar alternativ för att styra resursdelning för korsande ursprung (CORS) för ett index.

CustomAnalyzer

Gör att du kan ta kontroll över processen att konvertera text till indexerbara/sökbara token. Det är en användardefinierad konfiguration som består av en enda fördefinierad tokenizer och ett eller flera filter. Tokenizern ansvarar för att dela upp text i token och filter för att ändra token som genereras av tokenizern.

DictionaryDecompounderTokenFilter

Sönderdelar sammansatta ord som finns på många germanska språk. Det här tokenfiltret implementeras med Apache Lucene.

DistanceScoringFunction

Definierar en funktion som ökar poäng baserat på avstånd från en geografisk plats.

DistanceScoringParameters

Tillhandahåller parametervärden till en funktion för avståndsbedömning.

EdgeNGramTokenFilter

Genererar n-gram av den eller de angivna storlekarna med början framifrån eller baksidan av en indatatoken. Det här tokenfiltret implementeras med Apache Lucene.

EdgeNGramTokenFilterSide

Anger vilken sida av indata som ett n-gram ska genereras från.

EdgeNGramTokenFilterV2

Genererar n-gram av den eller de angivna storlekarna med början framifrån eller baksidan av en indatatoken. Det här tokenfiltret implementeras med Apache Lucene.

EdgeNGramTokenizer

Tokeniserar indata från en kant till n-gram av de angivna storlekarna. Denna tokenizer implementeras med Apache Lucene.

ElisionTokenFilter

Tar bort elisions. Till exempel konverteras "l'avion" (planet) till "avion" (plan). Det här tokenfiltret implementeras med Apache Lucene.

ExhaustiveKnnParameters

Innehåller parametrarna som är specifika för en fullständig KNN-algoritm.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Innehåller konfigurationsalternativ som är specifika för den fullständiga KNN-algoritm som används vid frågor, som utför brute-force-sökning över hela vektorindexet.

FreshnessScoringFunction

Definierar en funktion som ökar poäng baserat på värdet för ett datum-tid-fält.

FreshnessScoringParameters

Ger parametervärden till en funktion för färskhetsbedömning.

HnswParameters

Innehåller de parametrar som är specifika för HNSW-algoritmen.

HnswVectorSearchAlgorithmConfiguration

Innehåller konfigurationsalternativ som är specifika för HNSW:s ungefärliga algoritm för närmaste grannar som används vid indexering och frågor. HNSW-algoritmen erbjuder en justerbar kompromiss mellan sökhastighet och noggrannhet.

KeepTokenFilter

Ett tokenfilter som bara behåller token med text i en angiven lista med ord. Det här tokenfiltret implementeras med Apache Lucene.

KeywordMarkerTokenFilter

Markerar termer som nyckelord. Det här tokenfiltret implementeras med Apache Lucene.

KeywordTokenizer

Genererar hela indata som en enda token. Den här tokeniseraren implementeras med Apache Lucene.

KeywordTokenizerV2

Genererar hela indata som en enda token. Den här tokeniseraren implementeras med Apache Lucene.

LengthTokenFilter

Tar bort ord som är för långa eller för korta. Det här tokenfiltret implementeras med Apache Lucene.

LexicalAnalyzerName

Definierar namnen på alla textanalysverktyg som stöds av sökmotorn.

LexicalTokenizerName

Definierar namnen på alla tokenizers som stöds av sökmotorn.

LimitTokenFilter

Begränsar antalet token vid indexering. Det här tokenfiltret implementeras med Apache Lucene.

LuceneStandardAnalyzer

Standard Apache Lucene analyzer; Består av standardtokeniseraren, gemener och stoppfilter.

LuceneStandardTokenizer

Bryter text efter Unicode-reglerna för textsegmentering. Den här tokeniseraren implementeras med Apache Lucene.

LuceneStandardTokenizerV2

Delar upp text efter Unicode-reglerna för textsegmentering. Denna tokenizer implementeras med Apache Lucene.

MagnitudeScoringFunction

Definierar en funktion som ökar poäng baserat på storleken på ett numeriskt fält.

MagnitudeScoringParameters

Ger parametervärden till en storleksbedömningsfunktion.

MappingCharFilter

Ett teckenfilter som tillämpar mappningar som definierats med mappningsalternativet. Matchningen är girig (längsta mönstermatchning vid en viss punkt vinner). Ersättning tillåts vara den tomma strängen. Det här teckenfiltret implementeras med Apache Lucene.

MicrosoftLanguageStemmingTokenizer

Delar upp text med hjälp av språkspecifika regler och reducerar ord till deras basformulär.

MicrosoftLanguageTokenizer

Delar upp text med hjälp av språkspecifika regler.

MicrosoftStemmingTokenizerLanguage

Listor de språk som stöds av microsofts språk som ordstamstokeniserare.

MicrosoftTokenizerLanguage

Listor de språk som stöds av Microsofts språktokeniserare.

NGramTokenFilter

Genererar n-gram av de angivna storlekarna. Det här tokenfiltret implementeras med Apache Lucene.

NGramTokenFilterV2

Genererar n-gram av de angivna storlekarna. Det här tokenfiltret implementeras med Apache Lucene.

NGramTokenizer

Tokeniserar indata i n-gram av de angivna storlekarna. Den här tokeniseraren implementeras med Apache Lucene.

PathHierarchyTokenizerV2

Tokeniserare för sökvägsliknande hierarkier. Den här tokeniseraren implementeras med Apache Lucene.

PatternAnalyzer

Separerar text flexibelt i termer via ett mönster för reguljära uttryck. Den här analysatorn implementeras med Apache Lucene.

PatternCaptureTokenFilter

Använder Java-regex för att generera flera token – en för varje avbildningsgrupp i ett eller flera mönster. Det här tokenfiltret implementeras med Apache Lucene.

PatternReplaceCharFilter

Ett teckenfilter som ersätter tecken i indatasträngen. Det använder ett reguljärt uttryck för att identifiera teckensekvenser för att bevara och ett ersättningsmönster för att identifiera tecken som ska ersättas. Med tanke på indatatexten "aa bb aa bb", mönstret "(aa)\s+(bb)" och ersättningen "$1#$2" skulle resultatet till exempel vara "aa#bb aa#bb". Det här teckenfiltret implementeras med Apache Lucene.

PatternReplaceTokenFilter

Ett teckenfilter som ersätter tecken i indatasträngen. Det använder ett reguljärt uttryck för att identifiera teckensekvenser för att bevara och ett ersättningsmönster för att identifiera tecken som ska ersättas. Med tanke på indatatexten "aa bb aa bb", mönstret "(aa)\s+(bb)" och ersättningen "$1#$2" skulle resultatet till exempel vara "aa#bb aa#bb". Det här tokenfiltret implementeras med Apache Lucene.

PatternTokenizer

Tokeniserare som använder regex-mönstermatchning för att skapa distinkta token. Den här tokeniseraren implementeras med Apache Lucene.

PhoneticEncoder

Identifierar typen av fonetikkodare som ska användas med ett PhoneticTokenFilter.

PhoneticTokenFilter

Skapa token för fonetiska matchningar. Det här tokenfiltret implementeras med Apache Lucene.

PrioritizedFields

Beskriver fälten rubrik, innehåll och nyckelord som ska användas för semantisk rangordning, undertexter, höjdpunkter och svar.

RegexFlags

Definierar flaggor som kan kombineras för att styra hur reguljära uttryck används i mönsteranalys och mönstertokeniserare.

ScoringFunctionAggregation

Definierar den sammansättningsfunktion som används för att kombinera resultaten från alla bedömningsfunktioner i en bedömningsprofil.

ScoringFunctionInterpolation

Definierar den funktion som används för att interpolera poänghöjande över en rad dokument.

ScoringProfile

Definierar parametrar för ett sökindex som påverkar bedömning i sökfrågor.

SearchError

Beskriver ett feltillstånd för API:et.

SearchField

Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält.

SearchFieldDataType

Definierar datatypen för ett fält i ett sökindex.

SearchIndex

Representerar en sökindexdefinition som beskriver fälten och sökbeteendet för ett index.

SearchResourceEncryptionKey

En kundhanterad krypteringsnyckel i Azure Key Vault. Nycklar som du skapar och hanterar kan användas för att kryptera eller dekryptera vilande data i söktjänsten, till exempel index och synonymkartor.

SemanticConfiguration

Definierar en specifik konfiguration som ska användas i kontexten för semantiska funktioner.

SemanticField

Ett fält som används som en del av den semantiska konfigurationen.

SemanticSettings

Definierar parametrar för ett sökindex som påverkar semantiska funktioner.

ShingleTokenFilter

Skapar kombinationer av token som en enda token. Det här tokenfiltret implementeras med Apache Lucene.

SnowballTokenFilter

Ett filter som stjälkar ord med hjälp av en Snowball-genererad stemmer. Det här tokenfiltret implementeras med Apache Lucene.

SnowballTokenFilterLanguage

Det språk som ska användas för ett Snowball-tokenfilter.

StemmerOverrideTokenFilter

Ger möjlighet att åsidosätta andra härdningsfilter med anpassad ordlistebaserad härdning. Ordlisteskaftade termer markeras som nyckelord så att de inte kommer att stoppas med stemmers längre ned i kedjan. Måste placeras före eventuella härdningsfilter. Det här tokenfiltret implementeras med Apache Lucene.

StemmerTokenFilter

Språkspecifikt härdningsfilter. Det här tokenfiltret implementeras med Apache Lucene.

StemmerTokenFilterLanguage

Det språk som ska användas för ett stemmer-tokenfilter.

StopAnalyzer

Delar upp text med icke-bokstäver; Använder tokenfiltren med gemener och stoppord. Den här analysatorn implementeras med Apache Lucene.

StopwordsList

Identifierar en fördefinierad lista över språkspecifika stoppord.

StopwordsTokenFilter

Tar bort stoppord från en tokenström. Det här tokenfiltret implementeras med Apache Lucene.

Suggester

Definierar hur API:et Föreslå ska tillämpas på en grupp med fält i indexet.

SuggesterSearchMode

Ett värde som anger förslagsverktygets funktioner.

SynonymTokenFilter

Matchar synonymer med en eller flera ord i en tokenström. Det här tokenfiltret implementeras med Apache Lucene.

TagScoringFunction

Definierar en funktion som ökar poängen med dokument med strängvärden som matchar en viss lista med taggar.

TagScoringParameters

Tillhandahåller parametervärden till en taggbedömningsfunktion.

TextWeights

Definierar vikter för indexfält för vilka matchningar ska öka poängsättningen i sökfrågor.

TokenCharacterKind

Representerar klasser med tecken som ett tokenfilter kan använda.

TokenFilterName

Definierar namnen på alla tokenfilter som stöds av sökmotorn.

TruncateTokenFilter

Trunkerar termerna till en viss längd. Det här tokenfiltret implementeras med Apache Lucene.

UaxUrlEmailTokenizer

Tokeniserar URL:ar och e-postmeddelanden som en token. Denna tokenizer implementeras med Apache Lucene.

UniqueTokenFilter

Filtrerar bort token med samma text som föregående token. Det här tokenfiltret implementeras med Apache Lucene.

VectorSearch

Innehåller konfigurationsalternativ relaterade till vektorsökning.

VectorSearchAlgorithmKind

Algoritmen som används för indexering och frågor.

VectorSearchAlgorithmMetric

Likhetsmåttet som ska användas för vektorjämförelser.

VectorSearchProfile

Definierar en kombination av konfigurationer som ska användas med vektorsökning.

WordDelimiterTokenFilter

Delar upp ord i underord och utför valfria transformeringar i underordsgrupper. Det här tokenfiltret implementeras med Apache Lucene.

AsciiFoldingTokenFilter

Konverterar alfabetiska, numeriska och symboliska Unicode-tecken som inte finns i de första 127 ASCII-tecknen (Unicode-blocket "Basic Latin" till deras ASCII-motsvarigheter, om sådana motsvarigheter finns. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

preserveOriginal

boolean

False

Ett värde som anger om den ursprungliga token ska behållas. Standardvärdet är false.

AzureActiveDirectoryApplicationCredentials

Autentiseringsuppgifter för ett registrerat program som skapats för din söktjänst och som används för autentiserad åtkomst till krypteringsnycklarna som lagras i Azure Key Vault.

Name Typ Description
applicationId

string

Ett AAD-program-ID som har beviljats nödvändiga åtkomstbehörigheter till Azure-Key Vault som ska användas när du krypterar dina vilande data. Program-ID:t bör inte förväxlas med objekt-ID:t för ditt AAD-program.

applicationSecret

string

Autentiseringsnyckeln för det angivna AAD-programmet.

BM25Similarity

Rankningsfunktion baserat på Okapi BM25-likhetsalgoritmen. BM25 är en TF-IDF-liknande algoritm som innehåller längdnormalisering (styrs av parametern "b" samt termfrekvensmättnad (styrs av parametern k1).

Name Typ Description
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

b

number

Den här egenskapen styr hur längden på ett dokument påverkar relevanspoängen. Som standard används värdet 0,75. Värdet 0,0 innebär att ingen längdnormalisering tillämpas, medan värdet 1,0 innebär att poängen normaliseras helt av dokumentets längd.

k1

number

Den här egenskapen styr skalningsfunktionen mellan termfrekvensen för varje matchande termer och den slutliga relevanspoängen för ett dokumentfrågepar. Som standard används värdet 1.2. Värdet 0,0 innebär att poängen inte skalas med en ökning av termfrekvensen.

CharFilterName

Definierar namnen på alla teckenfilter som stöds av sökmotorn.

Name Typ Description
html_strip

string

Ett teckenfilter som försöker ta bort HTML-konstruktioner. Se https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilter

Bildar bigrams av CJK-termer som genereras från standardtokeniseraren. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

ignoreScripts

CjkBigramTokenFilterScripts[]

Skripten som ska ignoreras.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

outputUnigrams

boolean

False

Ett värde som anger om både unigram och bigrams ska matas ut (om de är sanna) eller bara bigrams (om de är falska). Standardvärdet är false.

CjkBigramTokenFilterScripts

Skript som kan ignoreras av CjkBigramTokenFilter.

Name Typ Description
han

string

Ignorera Han-skript när du bildar bigrams av CJK-termer.

hangul

string

Ignorera Hangul-skript när du bildar bigrams av CJK-termer.

hiragana

string

Ignorera Hiragana-skript när du bildar bigrams av CJK-termer.

katakana

string

Ignorera Katakana-skript när du bildar bigrams av CJK-termer.

ClassicSimilarity

Äldre likhetsalgoritm som använder Lucene TFIDFSimilarity-implementeringen av TF-IDF. Den här varianten av TF-IDF introducerar normalisering av statisk dokumentlängd samt koordinerar faktorer som straffar dokument som endast delvis matchar de sökta frågorna.

Name Typ Description
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

ClassicTokenizer

Grammatikbaserad tokeniserare som lämpar sig för bearbetning av de flesta europeiska dokument. Denna tokenizer implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

Ett URI-fragment som anger typen av tokenizer.

maxTokenLength

integer

255

Maximal tokenlängd. Standardvärdet är 255. Token som är längre än den maximala längden delas upp. Den maximala tokenlängden som kan användas är 300 tecken.

name

string

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

CommonGramTokenFilter

Skapa bigrams för ofta förekommande termer vid indexering. Enkla termer indexeras fortfarande också, med bigrams överlagrade. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

commonWords

string[]

Uppsättningen vanliga ord.

ignoreCase

boolean

False

Ett värde som anger om vanliga ord som matchar är skiftlägesokänsliga. Standardvärdet är false.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

queryMode

boolean

False

Ett värde som anger om tokenfiltret är i frågeläge. I frågeläge genererar tokenfiltret bigrams och tar sedan bort vanliga ord och enkla termer följt av ett vanligt ord. Standardvärdet är false.

CorsOptions

Definierar alternativ för att styra resursdelning för korsande ursprung (CORS) för ett index.

Name Typ Description
allowedOrigins

string[]

Listan över ursprung som JavaScript-kod kommer att beviljas åtkomst till ditt index från. Kan innehålla en lista över värdar i formuläret {protocol}://{fully-qualified-domain-name}[:{port#}], eller en enda * för att tillåta alla ursprung (rekommenderas inte).

maxAgeInSeconds

integer

Hur länge webbläsare ska cachelagrar CORS-förhandsbelysningssvar. Standardvärdet är 5 minuter.

CustomAnalyzer

Gör att du kan ta kontroll över processen att konvertera text till indexerbara/sökbara token. Det är en användardefinierad konfiguration som består av en enda fördefinierad tokenizer och ett eller flera filter. Tokenizern ansvarar för att dela upp text i token och filter för att ändra token som genereras av tokenizern.

Name Typ Description
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

Ett URI-fragment som anger typen av analysverktyg.

charFilters

CharFilterName[]

En lista över teckenfilter som används för att förbereda indatatext innan den bearbetas av tokenizern. De kan till exempel ersätta vissa tecken eller symboler. Filtren körs i den ordning som de visas.

name

string

Namnet på analysatorn. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

tokenFilters

TokenFilterName[]

En lista över tokenfilter som används för att filtrera bort eller ändra de token som genereras av en tokenizer. Du kan till exempel ange ett filter med gemener som konverterar alla tecken till gemener. Filtren körs i den ordning som de visas.

tokenizer

LexicalTokenizerName

Namnet på tokenizern som ska användas för att dela upp kontinuerlig text i en sekvens med token, till exempel att dela upp en mening i ord.

DictionaryDecompounderTokenFilter

Sönderdelar sammansatta ord som finns på många germanska språk. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

maxSubwordSize

integer

15

Den maximala underordsstorleken. Endast underord som är kortare än detta matas ut. Standardvärdet är 15. Maxvärdet är 300.

minSubwordSize

integer

2

Minsta underordsstorlek. Endast underord som är längre än detta matas ut. Standardvärdet är 2. Maxvärdet är 300.

minWordSize

integer

5

Minsta ordstorlek. Endast ord som är längre än detta bearbetas. Standardvärdet är 5. Maxvärdet är 300.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

onlyLongestMatch

boolean

False

Ett värde som anger om du bara vill lägga till det längsta matchande underordet i utdata. Standardvärdet är false.

wordList

string[]

Listan med ord som ska matchas mot.

DistanceScoringFunction

Definierar en funktion som ökar poäng baserat på avstånd från en geografisk plats.

Name Typ Description
boost

number

En multiplikator för råpoängen. Måste vara ett positivt tal som inte är lika med 1,0.

distance

DistanceScoringParameters

Parametervärden för funktionen för avståndsbedömning.

fieldName

string

Namnet på fältet som används som indata till bedömningsfunktionen.

interpolation

ScoringFunctionInterpolation

Ett värde som anger hur en ökning kommer att interpoleras mellan dokumentpoäng. standardvärdet "Linjär".

type string:

distance

Anger vilken typ av funktion som ska användas. Giltiga värden är storlek, färskhet, avstånd och tagg. Funktionstypen måste vara gemen.

DistanceScoringParameters

Tillhandahåller parametervärden till en funktion för avståndsbedömning.

Name Typ Description
boostingDistance

number

Avståndet i kilometer från referensplatsen där ökningsintervallet slutar.

referencePointParameter

string

Namnet på parametern som skickas i sökfrågor för att ange referensplatsen.

EdgeNGramTokenFilter

Genererar n-gram av den eller de angivna storlekarna med början framifrån eller baksidan av en indatatoken. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

maxGram

integer

2

Maximal längd på n-gram. Standardvärdet är 2.

minGram

integer

1

Minsta längd på n-gram. Standardvärdet är 1. Måste vara mindre än värdet för maxGram.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

side

EdgeNGramTokenFilterSide

front

Anger vilken sida av indata som n-gram ska genereras från. Standardvärdet är "front".

EdgeNGramTokenFilterSide

Anger vilken sida av indata som ett n-gram ska genereras från.

Name Typ Description
back

string

Anger att n-gram ska genereras från baksidan av indata.

front

string

Anger att n-gram ska genereras framifrån indata.

EdgeNGramTokenFilterV2

Genererar n-gram av den eller de angivna storlekarna med början framifrån eller baksidan av en indatatoken. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

Ett URI-fragment som anger typ av tokenfilter.

maxGram

integer

2

Maximal längd på n-gram. Standardvärdet är 2. Maxvärdet är 300.

minGram

integer

1

Minsta längd på n-gram. Standardvärdet är 1. Maxvärdet är 300. Måste vara mindre än värdet för maxGram.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

side

EdgeNGramTokenFilterSide

front

Anger vilken sida av indata som n-gram ska genereras från. Standardvärdet är "front".

EdgeNGramTokenizer

Tokeniserar indata från en kant till n-gram av de angivna storlekarna. Denna tokenizer implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

Ett URI-fragment som anger typen av tokeniserare.

maxGram

integer

2

Den maximala n-gramlängden. Standardvärdet är 2. Max är 300.

minGram

integer

1

Minsta n-gramlängd. Standardvärdet är 1. Max är 300. Måste vara mindre än värdet för maxGram.

name

string

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

tokenChars

TokenCharacterKind[]

Teckenklasser som ska behållas i token.

ElisionTokenFilter

Tar bort elisions. Till exempel konverteras "l'avion" (planet) till "avion" (plan). Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Description
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

articles

string[]

Den uppsättning artiklar som ska tas bort.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

ExhaustiveKnnParameters

Innehåller parametrarna som är specifika för en fullständig KNN-algoritm.

Name Typ Description
metric

VectorSearchAlgorithmMetric

Likhetsmåttet som ska användas för vektorjämförelser.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Innehåller konfigurationsalternativ som är specifika för den fullständiga KNN-algoritm som används vid frågor, som utför brute-force-sökning över hela vektorindexet.

Name Typ Description
exhaustiveKnnParameters

ExhaustiveKnnParameters

Innehåller parametrarna som är specifika för en fullständig KNN-algoritm.

kind string:

exhaustiveKnn

Namnet på den typ av algoritm som konfigureras för användning med vektorsökning.

name

string

Namnet som ska associeras med den här konfigurationen.

FreshnessScoringFunction

Definierar en funktion som ökar poäng baserat på värdet för ett datum-tid-fält.

Name Typ Description
boost

number

En multiplikator för råpoängen. Måste vara ett positivt tal som inte är lika med 1,0.

fieldName

string

Namnet på fältet som används som indata till bedömningsfunktionen.

freshness

FreshnessScoringParameters

Parametervärden för funktionen för färskhetsbedömning.

interpolation

ScoringFunctionInterpolation

Ett värde som anger hur en ökning kommer att interpoleras mellan dokumentpoäng. standardvärdet "Linjär".

type string:

freshness

Anger vilken typ av funktion som ska användas. Giltiga värden är storlek, färskhet, avstånd och tagg. Funktionstypen måste vara gemen.

FreshnessScoringParameters

Ger parametervärden till en funktion för färskhetsbedömning.

Name Typ Description
boostingDuration

string

Förfalloperioden efter vilken en ökning stoppas för ett visst dokument.

HnswParameters

Innehåller de parametrar som är specifika för HNSW-algoritmen.

Name Typ Standardvärde Description
efConstruction

integer

400

Storleken på den dynamiska listan som innehåller närmaste grannar, som används under indextiden. Om du ökar den här parametern kan indexkvaliteten förbättras på bekostnad av ökad indexeringstid. Vid en viss tidpunkt leder en ökning av den här parametern till minskande avkastning.

efSearch

integer

500

Storleken på den dynamiska listan som innehåller närmaste grannar, som används under söktiden. Om du ökar den här parametern kan sökresultaten förbättras på bekostnad av långsammare sökning. Vid en viss tidpunkt leder en ökning av den här parametern till minskande avkastning.

m

integer

4

Antalet dubbelriktade länkar som skapats för varje nytt element under konstruktionen. Om du ökar det här parametervärdet kan du förbättra återkallandet och minska hämtningstiderna för datauppsättningar med hög inbyggd dimension på bekostnad av ökad minnesförbrukning och längre indexeringstid.

metric

VectorSearchAlgorithmMetric

Likhetsmåttet som ska användas för vektorjämförelser.

HnswVectorSearchAlgorithmConfiguration

Innehåller konfigurationsalternativ som är specifika för HNSW:s ungefärliga algoritm för närmaste grannar som används vid indexering och frågor. HNSW-algoritmen erbjuder en justerbar kompromiss mellan sökhastighet och noggrannhet.

Name Typ Description
hnswParameters

HnswParameters

Innehåller parametrarna som är specifika för HNSW-algoritmen.

kind string:

hnsw

Namnet på den typ av algoritm som konfigureras för användning med vektorsökning.

name

string

Namnet som ska associeras med den här konfigurationen.

KeepTokenFilter

Ett tokenfilter som bara behåller token med text i en angiven lista med ord. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

keepWords

string[]

Listan med ord att behålla.

keepWordsCase

boolean

False

Ett värde som anger om alla ord ska sänkas först. Standardvärdet är false.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

KeywordMarkerTokenFilter

Markerar termer som nyckelord. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

ignoreCase

boolean

False

Ett värde som anger om skiftläge ska ignoreras. Om det är sant konverteras alla ord till gemener först. Standardvärdet är false.

keywords

string[]

En lista med ord som ska markeras som nyckelord.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

KeywordTokenizer

Genererar hela indata som en enda token. Den här tokeniseraren implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

Ett URI-fragment som anger typen av tokeniserare.

bufferSize

integer

256

Läsbuffertstorleken i byte. Standardvärdet är 256.

name

string

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

KeywordTokenizerV2

Genererar hela indata som en enda token. Den här tokeniseraren implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

Ett URI-fragment som anger typen av tokeniserare.

maxTokenLength

integer

256

Maximal tokenlängd. Standardvärdet är 256. Token som är längre än den maximala längden delas. Den maximala tokenlängden som kan användas är 300 tecken.

name

string

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

LengthTokenFilter

Tar bort ord som är för långa eller för korta. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

max

integer

300

Maximal längd i tecken. Standard och max är 300.

min

integer

0

Minsta längd i tecken. Standardvärdet är 0. Max är 300. Måste vara mindre än värdet för max.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

LexicalAnalyzerName

Definierar namnen på alla textanalysverktyg som stöds av sökmotorn.

Name Typ Description
ar.lucene

string

Lucene analyzer för arabiska.

ar.microsoft

string

Microsoft Analyzer för arabiska.

bg.lucene

string

Lucene analyzer för bulgariska.

bg.microsoft

string

Microsoft Analyzer för Bulgariska.

bn.microsoft

string

Microsoft Analyzer för Bangla.

ca.lucene

string

Lucene analyzer för katalanska.

ca.microsoft

string

Microsoft analyzer for Catalan.

cs.lucene

string

Lucene analyzer för tjeckiska.

cs.microsoft

string

Microsoft Analyzer för Tjeckiska.

da.lucene

string

Lucene analyzer för danska.

da.microsoft

string

Microsoft analyzer for Danish.

de.lucene

string

Lucene analyzer för tyska.

de.microsoft

string

Microsoft analyzer for German.

el.lucene

string

Lucene analyzer för grekiska.

el.microsoft

string

Microsoft analyzer för grekiska.

en.lucene

string

Lucene analyzer för engelska.

en.microsoft

string

Microsoft Analyzer för engelska.

es.lucene

string

Lucene analyzer för spanska.

es.microsoft

string

Microsoft Analyzer för spanska.

et.microsoft

string

Microsoft analyzer för estniska.

eu.lucene

string

Lucene analyzer för baskiska.

fa.lucene

string

Lucene analyzer för persiska.

fi.lucene

string

Lucene analyzer för finska.

fi.microsoft

string

Microsoft analyzer för finska.

fr.lucene

string

Lucene analyzer för franska.

fr.microsoft

string

Microsoft analyzer för franska.

ga.lucene

string

Lucene analyzer för iriska.

gl.lucene

string

Lucene analyzer för Galician.

gu.microsoft

string

Microsoft analyzer för Gujarati.

he.microsoft

string

Microsoft analyzer för hebreiska.

hi.lucene

string

Lucene analyzer för Hindi.

hi.microsoft

string

Microsoft analyzer for Hindi.

hr.microsoft

string

Microsoft analyzer för kroatiska.

hu.lucene

string

Lucene analyzer för ungerska.

hu.microsoft

string

Microsoft Analyzer för ungerska.

hy.lucene

string

Lucene analyzer för armeniska.

id.lucene

string

Lucene analyzer för indonesiska.

id.microsoft

string

Microsoft analyzer for Indonesian (Bahasa).

is.microsoft

string

Microsoft analyzer for Icelandic.

it.lucene

string

Lucene analyzer för italienska.

it.microsoft

string

Microsoft Analyzer för italienska.

ja.lucene

string

Lucene analyzer för japanska.

ja.microsoft

string

Microsoft Analyzer för japanska.

keyword

string

Behandlar hela innehållet i ett fält som en enda token. Detta är användbart för data som postnummer, ID:t och vissa produktnamn. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html

kn.microsoft

string

Microsoft Analyzer för Kannada.

ko.lucene

string

Lucene analyzer för koreanska.

ko.microsoft

string

Microsoft analyzer för koreanska.

lt.microsoft

string

Microsoft Analyzer för litauiska.

lv.lucene

string

Lucene analyzer för lettiska.

lv.microsoft

string

Microsoft analyzer för lettiska.

ml.microsoft

string

Microsoft analyzer för Malayalam.

mr.microsoft

string

Microsoft analyzer för Marathi.

ms.microsoft

string

Microsoft analyzer for Malay (Latin).

nb.microsoft

string

Microsoft analyzer for Norwegian (Bokmål).

nl.lucene

string

Lucene analyzer för nederländska.

nl.microsoft

string

Microsoft Analyzer för nederländska.

no.lucene

string

Lucene analyzer för norska.

pa.microsoft

string

Microsoft Analyzer för Punjabi.

pattern

string

Separerar text flexibelt i termer via ett mönster för reguljära uttryck. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

pl.lucene

string

Lucene analyzer för polska.

pl.microsoft

string

Microsoft analyzer for Polish.

pt-BR.lucene

string

Lucene analyzer för portugisiska (Brasilien).

pt-BR.microsoft

string

Microsoft analyzer för portugisiska (Brasilien).

pt-PT.lucene

string

Lucene analyzer för portugisiska (Portugal).

pt-PT.microsoft

string

Microsoft Analyzer för portugisiska (Portugal).

ro.lucene

string

Lucene analyzer för rumänska.

ro.microsoft

string

Microsoft Analyzer för rumänska.

ru.lucene

string

Lucene analyzer för ryska.

ru.microsoft

string

Microsoft Analyzer för ryska.

simple

string

Delar upp text med icke-bokstäver och konverterar dem till gemener. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html

sk.microsoft

string

Microsoft Analyzer för slovakiska.

sl.microsoft

string

Microsoft Analyzer för slovenska.

sr-cyrillic.microsoft

string

Microsoft analyzer för serbiska (kyrillisk).

sr-latin.microsoft

string

Microsoft analyzer för serbiska (latinsk).

standard.lucene

string

Standard Lucene Analyzer.

standardasciifolding.lucene

string

Standard ASCII Folding Lucene analyzer. Se https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers

stop

string

Delar upp text med icke-bokstäver; Använder tokenfiltren med gemener och stoppord. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

sv.lucene

string

Lucene analyzer för svenska.

sv.microsoft

string

Microsoft Analyzer för svenska.

ta.microsoft

string

Microsoft Analyzer för Tamil.

te.microsoft

string

Microsoft Analyzer för Telugu.

th.lucene

string

Lucene analyzer för Thai.

th.microsoft

string

Microsoft Analyzer för Thai.

tr.lucene

string

Lucene analyzer för turkiska.

tr.microsoft

string

Microsoft Analyzer för turkiska.

uk.microsoft

string

Microsoft Analyzer för ukrainska.

ur.microsoft

string

Microsoft Analyzer för Urdu.

vi.microsoft

string

Microsoft Analyzer för vietnamesiska.

whitespace

string

En analysator som använder blankstegstokeniseraren. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

zh-Hans.lucene

string

Lucene analyzer för kinesiska (förenklad).

zh-Hans.microsoft

string

Microsoft Analyzer för kinesiska (förenklad).

zh-Hant.lucene

string

Lucene analyzer för kinesiska (traditionell).

zh-Hant.microsoft

string

Microsoft Analyzer för kinesiska (traditionell).

LexicalTokenizerName

Definierar namnen på alla tokenizers som stöds av sökmotorn.

Name Typ Description
classic

string

Grammatikbaserad tokeniserare som är lämplig för bearbetning av de flesta europeiska dokument. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

edgeNGram

string

Tokeniserar indata från en kant till n-gram av de angivna storlekarna. Se https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

keyword_v2

string

Genererar hela indata som en enda token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

letter

string

Delar upp text med icke-bokstäver. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

lowercase

string

Delar upp text med icke-bokstäver och konverterar dem till gemener. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

microsoft_language_stemming_tokenizer

string

Delar upp text med hjälp av språkspecifika regler och reducerar ord till deras basformulär.

microsoft_language_tokenizer

string

Delar upp text med hjälp av språkspecifika regler.

nGram

string

Tokeniserar indata i n-gram av de angivna storlekarna. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

path_hierarchy_v2

string

Tokeniserare för sökvägsliknande hierarkier. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

pattern

string

Tokeniserare som använder regex-mönstermatchning för att skapa distinkta token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

standard_v2

string

Standard Lucene analyzer; Består av standardtokeniseraren, gemener och stoppfilter. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

uax_url_email

string

Tokeniserar URL:ar och e-postmeddelanden som en token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

whitespace

string

Delar upp text i tomt utrymme. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

LimitTokenFilter

Begränsar antalet token vid indexering. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

consumeAllTokens

boolean

False

Ett värde som anger om alla token från indata måste användas även om maxTokenCount har nåtts. Standardvärdet är false.

maxTokenCount

integer

1

Det maximala antalet token som ska skapas. Standardvärdet är 1.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

LuceneStandardAnalyzer

Standard Apache Lucene analyzer; Består av standardtokeniseraren, gemener och stoppfilter.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

Ett URI-fragment som anger typen av analysverktyg.

maxTokenLength

integer

255

Maximal tokenlängd. Standardvärdet är 255. Token som är längre än den maximala längden delas upp. Den maximala tokenlängden som kan användas är 300 tecken.

name

string

Namnet på analysatorn. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

stopwords

string[]

En lista över stoppord.

LuceneStandardTokenizer

Bryter text efter Unicode-reglerna för textsegmentering. Den här tokeniseraren implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

Ett URI-fragment som anger typen av tokeniserare.

maxTokenLength

integer

255

Maximal tokenlängd. Standardvärdet är 255. Token som är längre än den maximala längden delas.

name

string

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

LuceneStandardTokenizerV2

Delar upp text efter Unicode-reglerna för textsegmentering. Denna tokenizer implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

Ett URI-fragment som anger typen av tokenizer.

maxTokenLength

integer

255

Maximal tokenlängd. Standardvärdet är 255. Token som är längre än den maximala längden delas upp. Den maximala tokenlängden som kan användas är 300 tecken.

name

string

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

MagnitudeScoringFunction

Definierar en funktion som ökar poäng baserat på storleken på ett numeriskt fält.

Name Typ Description
boost

number

En multiplikator för råpoängen. Måste vara ett positivt tal som inte är lika med 1,0.

fieldName

string

Namnet på fältet som används som indata till bedömningsfunktionen.

interpolation

ScoringFunctionInterpolation

Ett värde som anger hur en ökning kommer att interpoleras mellan dokumentpoäng. standardvärdet "Linjär".

magnitude

MagnitudeScoringParameters

Parametervärden för funktionen för storleksbedömning.

type string:

magnitude

Anger vilken typ av funktion som ska användas. Giltiga värden är storlek, färskhet, avstånd och tagg. Funktionstypen måste vara gemen.

MagnitudeScoringParameters

Ger parametervärden till en storleksbedömningsfunktion.

Name Typ Description
boostingRangeEnd

number

Det fältvärde där en ökning slutar.

boostingRangeStart

number

Det fältvärde som en ökning startar på.

constantBoostBeyondRange

boolean

Ett värde som anger om du vill använda en konstant ökning för fältvärden utöver intervallets slutvärde. standardvärdet är falskt.

MappingCharFilter

Ett teckenfilter som tillämpar mappningar som definierats med mappningsalternativet. Matchningen är girig (längsta mönstermatchning vid en viss punkt vinner). Ersättning tillåts vara den tomma strängen. Det här teckenfiltret implementeras med Apache Lucene.

Name Typ Description
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

Ett URI-fragment som anger typ av teckenfilter.

mappings

string[]

En lista över mappningar i följande format: "a=>b" (alla förekomster av tecknet "a" ersätts med tecknet "b").

name

string

Namnet på teckenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

MicrosoftLanguageStemmingTokenizer

Delar upp text med hjälp av språkspecifika regler och reducerar ord till deras basformulär.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

Ett URI-fragment som anger typen av tokeniserare.

isSearchTokenizer

boolean

False

Ett värde som anger hur tokeniseraren används. Ställ in på sant om det används som söktokeniserare och ställ in på falskt om det används som indexeringstokeniserare. Standardvärdet är false.

language

MicrosoftStemmingTokenizerLanguage

Språket som ska användas. Standardvärdet är engelska.

maxTokenLength

integer

255

Maximal tokenlängd. Token som är längre än den maximala längden delas. Maximal tokenlängd som kan användas är 300 tecken. Token som är längre än 300 tecken delas först upp i token med längd 300 och sedan delas var och en av dessa token baserat på den maximala tokenlängdsuppsättningen. Standardvärdet är 255.

name

string

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

MicrosoftLanguageTokenizer

Delar upp text med hjälp av språkspecifika regler.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

Ett URI-fragment som anger typen av tokeniserare.

isSearchTokenizer

boolean

False

Ett värde som anger hur tokeniseraren används. Ställ in på sant om det används som söktokeniserare och ställ in på falskt om det används som indexeringstokeniserare. Standardvärdet är false.

language

MicrosoftTokenizerLanguage

Språket som ska användas. Standardvärdet är engelska.

maxTokenLength

integer

255

Maximal tokenlängd. Token som är längre än den maximala längden delas. Maximal tokenlängd som kan användas är 300 tecken. Token som är längre än 300 tecken delas först upp i token med längd 300 och sedan delas var och en av dessa token baserat på den maximala tokenlängdsuppsättningen. Standardvärdet är 255.

name

string

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

MicrosoftStemmingTokenizerLanguage

Listor de språk som stöds av microsofts språk som ordstamstokeniserare.

Name Typ Description
arabic

string

Väljer Microsofts ordstamstokeniserare för arabiska.

bangla

string

Väljer Microsofts ordstamstokeniserare för Bangla.

bulgarian

string

Väljer Microsofts ordstamstokeniserare för bulgariska.

catalan

string

Väljer Microsofts ordstamstokeniserare för katalanska.

croatian

string

Väljer Microsofts ordstamstokeniserare för kroatiska.

czech

string

Väljer Microsofts ordstamstokeniserare för tjeckiska.

danish

string

Väljer Microsofts ordstamstokeniserare för danska.

dutch

string

Väljer Microsofts ordstamstokeniserare för nederländska.

english

string

Väljer Microsofts ordstamstokeniserare för engelska.

estonian

string

Väljer Microsofts ordstamstokeniserare för estniska.

finnish

string

Väljer Microsofts ordstamstokeniserare för finska.

french

string

Väljer Microsofts ordstamstokeniserare för franska.

german

string

Väljer Microsofts ordstamstokeniserare för tyska.

greek

string

Väljer Microsofts ordstamstokeniserare för grekiska.

gujarati

string

Väljer Microsofts ordstamstokeniserare för Gujarati.

hebrew

string

Väljer Microsofts ordstamstokeniserare för hebreiska.

hindi

string

Väljer Microsofts ordstamstokeniserare för Hindi.

hungarian

string

Väljer Microsofts ordstamstokeniserare för ungerska.

icelandic

string

Väljer Microsofts ordstamstokeniserare för isländska.

indonesian

string

Väljer Microsofts ordstamstokeniserare för indonesiska.

italian

string

Väljer Microsofts ordstamstokeniserare för italienska.

kannada

string

Väljer Microsofts ordstamstokeniserare för Kannada.

latvian

string

Väljer Microsofts ordstamstokeniserare för lettiska.

lithuanian

string

Väljer Microsofts ordstamstokeniserare för litauiska.

malay

string

Väljer Microsofts ordstamstokeniserare för Malay.

malayalam

string

Väljer Microsofts ordstamstokeniserare för Malayalam.

marathi

string

Väljer Microsofts ordstamstokeniserare för Marathi.

norwegianBokmaal

string

Väljer Microsofts ordstamstokeniserare för norska (Bokmål).

polish

string

Väljer Microsofts ordstamstokeniserare för polska.

portuguese

string

Väljer Microsofts ordstamstokeniserare för portugisiska.

portugueseBrazilian

string

Väljer Microsofts ordstamstokeniserare för portugisiska (Brasilien).

punjabi

string

Väljer Microsofts ordstamstokeniserare för Punjabi.

romanian

string

Väljer Microsofts ordstamstokeniserare för rumänska.

russian

string

Väljer Microsofts ordstamstokeniserare för ryska.

serbianCyrillic

string

Väljer Microsofts ordstamstokeniserare för serbiska (kyrillisk).

serbianLatin

string

Väljer Microsofts ordstamstokeniserare för serbiska (latinsk).

slovak

string

Väljer Microsofts ordstamstokeniserare för slovakiska.

slovenian

string

Väljer Microsofts ordstamstokeniserare för slovenska.

spanish

string

Väljer Microsofts ordstamstokeniserare för spanska.

swedish

string

Väljer Microsofts ordstamstokeniserare för svenska.

tamil

string

Väljer Microsofts ordstamstokeniserare för tamil.

telugu

string

Väljer Microsofts ordstamstokeniserare för Telugu.

turkish

string

Väljer Microsofts ordstamstokeniserare för turkiska.

ukrainian

string

Väljer Microsofts ordstamstokeniserare för ukrainska.

urdu

string

Väljer Microsofts ordstamstokeniserare för Urdu.

MicrosoftTokenizerLanguage

Listor de språk som stöds av Microsofts språktokeniserare.

Name Typ Description
bangla

string

Väljer Microsoft-tokenizer för Bangla.

bulgarian

string

Väljer Microsoft-tokenizer för bulgariska.

catalan

string

Väljer Microsoft-tokeniseraren för katalanska.

chineseSimplified

string

Väljer Microsoft-tokenizer för kinesiska (förenklad).

chineseTraditional

string

Väljer Microsoft-tokenizer för kinesiska (traditionell).

croatian

string

Väljer Microsoft-tokenizer för kroatiska.

czech

string

Väljer Microsoft-tokenizer för tjeckiska.

danish

string

Väljer Microsoft-tokenizer för danska.

dutch

string

Väljer Microsoft-tokeniseraren för nederländska.

english

string

Väljer Microsoft-tokenizer för engelska.

french

string

Väljer Microsoft-tokenizer för franska.

german

string

Väljer Microsoft-tokenizer för tyska.

greek

string

Väljer Microsoft-tokeniseraren för grekiska.

gujarati

string

Väljer Microsoft-tokenizer för Gujarati.

hindi

string

Väljer Microsoft-tokenizer för Hindi.

icelandic

string

Väljer Microsoft-tokeniseraren för isländska.

indonesian

string

Väljer Microsoft-tokenizer för indonesiska.

italian

string

Väljer Microsoft-tokeniseraren för italienska.

japanese

string

Väljer Microsoft-tokenizer för japanska.

kannada

string

Väljer Microsoft-tokenizer för Kannada.

korean

string

Väljer Microsoft-tokenizer för koreanska.

malay

string

Väljer Microsoft-tokenizer för Malay.

malayalam

string

Väljer Microsoft-tokenizer för Malayalam.

marathi

string

Väljer Microsoft-tokeniseraren för Marathi.

norwegianBokmaal

string

Väljer Microsoft-tokenizer för norska (Bokmål).

polish

string

Väljer Microsoft-tokeniseraren för polska.

portuguese

string

Väljer Microsoft-tokenizer för portugisiska.

portugueseBrazilian

string

Väljer Microsoft-tokenizer för portugisiska (Brasilien).

punjabi

string

Väljer Microsoft-tokenizer för Punjabi.

romanian

string

Väljer Microsoft-tokenizer för rumänska.

russian

string

Väljer Microsoft-tokeniseraren för ryska.

serbianCyrillic

string

Väljer Microsoft-tokenizer för serbiska (kyrillisk).

serbianLatin

string

Väljer Microsoft-tokenizer för serbiska (latinsk).

slovenian

string

Väljer Microsoft-tokenizer för slovenska.

spanish

string

Väljer Microsoft-tokenizer för spanska.

swedish

string

Väljer Microsoft-tokenizer för svenska.

tamil

string

Väljer Microsoft-tokenizer för Tamil.

telugu

string

Väljer Microsoft-tokenizer för Telugu.

thai

string

Väljer Microsoft-tokenizer för thailändska.

ukrainian

string

Väljer Microsoft-tokenizer för ukrainska.

urdu

string

Väljer Microsoft-tokenizer för Urdu.

vietnamese

string

Väljer Microsoft-tokenizer för vietnamesiska.

NGramTokenFilter

Genererar n-gram av de angivna storlekarna. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

maxGram

integer

2

Den maximala n-gramlängden. Standardvärdet är 2.

minGram

integer

1

Minsta n-gramlängd. Standardvärdet är 1. Måste vara mindre än värdet för maxGram.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

NGramTokenFilterV2

Genererar n-gram av de angivna storlekarna. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

Ett URI-fragment som anger typ av tokenfilter.

maxGram

integer

2

Den maximala n-gramlängden. Standardvärdet är 2. Max är 300.

minGram

integer

1

Minsta n-gramlängd. Standardvärdet är 1. Max är 300. Måste vara mindre än värdet för maxGram.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

NGramTokenizer

Tokeniserar indata i n-gram av de angivna storlekarna. Den här tokeniseraren implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

Ett URI-fragment som anger typen av tokeniserare.

maxGram

integer

2

Den maximala n-gramlängden. Standardvärdet är 2. Max är 300.

minGram

integer

1

Minsta n-gramlängd. Standardvärdet är 1. Max är 300. Måste vara mindre än värdet för maxGram.

name

string

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

tokenChars

TokenCharacterKind[]

Teckenklasser som ska behållas i token.

PathHierarchyTokenizerV2

Tokeniserare för sökvägsliknande hierarkier. Den här tokeniseraren implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

Ett URI-fragment som anger typen av tokeniserare.

delimiter

string

/

Avgränsartecknet som ska användas. Standardvärdet är "/".

maxTokenLength

integer

300

Maximal tokenlängd. Standard och max är 300.

name

string

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

replacement

string

/

Ett värde som, om det anges, ersätter avgränsartecknet. Standardvärdet är "/".

reverse

boolean

False

Ett värde som anger om token ska genereras i omvänd ordning. Standardvärdet är false.

skip

integer

0

Antalet inledande token som ska hoppa över. Standardvärdet är 0.

PatternAnalyzer

Separerar text flexibelt i termer via ett mönster för reguljära uttryck. Den här analysatorn implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

Ett URI-fragment som anger typen av analysverktyg.

flags

RegexFlags

Flaggor för reguljära uttryck.

lowercase

boolean

True

Ett värde som anger om termerna ska vara gemener. Standardvärdet är true.

name

string

Namnet på analysatorn. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

pattern

string

\W+

Ett mönster för reguljära uttryck som matchar tokenavgränsare. Standard är ett uttryck som matchar ett eller flera icke-ordtecken.

stopwords

string[]

En lista över stoppord.

PatternCaptureTokenFilter

Använder Java-regex för att generera flera token – en för varje avbildningsgrupp i ett eller flera mönster. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

patterns

string[]

En lista över mönster som ska matchas mot varje token.

preserveOriginal

boolean

True

Ett värde som anger om den ursprungliga token ska returneras även om något av mönstren matchar. Standardvärdet är true.

PatternReplaceCharFilter

Ett teckenfilter som ersätter tecken i indatasträngen. Det använder ett reguljärt uttryck för att identifiera teckensekvenser för att bevara och ett ersättningsmönster för att identifiera tecken som ska ersättas. Med tanke på indatatexten "aa bb aa bb", mönstret "(aa)\s+(bb)" och ersättningen "$1#$2" skulle resultatet till exempel vara "aa#bb aa#bb". Det här teckenfiltret implementeras med Apache Lucene.

Name Typ Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

Ett URI-fragment som anger typ av teckenfilter.

name

string

Namnet på teckenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

pattern

string

Ett mönster för reguljära uttryck.

replacement

string

Ersättningstexten.

PatternReplaceTokenFilter

Ett teckenfilter som ersätter tecken i indatasträngen. Det använder ett reguljärt uttryck för att identifiera teckensekvenser för att bevara och ett ersättningsmönster för att identifiera tecken som ska ersättas. Med tanke på indatatexten "aa bb aa bb", mönstret "(aa)\s+(bb)" och ersättningen "$1#$2" skulle resultatet till exempel vara "aa#bb aa#bb". Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

pattern

string

Ett mönster för reguljära uttryck.

replacement

string

Ersättningstexten.

PatternTokenizer

Tokeniserare som använder regex-mönstermatchning för att skapa distinkta token. Den här tokeniseraren implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

Ett URI-fragment som anger typen av tokeniserare.

flags

RegexFlags

Flaggor för reguljära uttryck.

group

integer

-1

Den nollbaserade ordningstalet för den matchande gruppen i mönstret för reguljära uttryck som ska extraheras till token. Använd -1 om du vill använda hela mönstret för att dela indata i token, oavsett matchande grupper. Standardvärdet är -1.

name

string

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

pattern

string

\W+

Ett mönster för reguljära uttryck som matchar tokenavgränsare. Standard är ett uttryck som matchar ett eller flera icke-ordtecken.

PhoneticEncoder

Identifierar typen av fonetikkodare som ska användas med ett PhoneticTokenFilter.

Name Typ Description
beiderMorse

string

Kodar en token till ett Beider-Morse värde.

caverphone1

string

Kodar en token till ett Caverphone 1.0-värde.

caverphone2

string

Kodar en token till ett Caverphone 2.0-värde.

cologne

string

Kodar en token till ett fonetikvärde i Köln.

doubleMetaphone

string

Kodar en token till ett dubbelt metafonvärde.

haasePhonetik

string

Kodar en token med hjälp av Haase-förfining av Kölner Phonetik-algoritmen.

koelnerPhonetik

string

Kodar en token med hjälp av Kölner Phonetik-algoritmen.

metaphone

string

Kodar en token till ett metafonvärde.

nysiis

string

Kodar en token till ett NYSIIS-värde.

refinedSoundex

string

Kodar en token till ett Raffinerat Soundex-värde.

soundex

string

Kodar en token till ett Soundex-värde.

PhoneticTokenFilter

Skapa token för fonetiska matchningar. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

encoder

PhoneticEncoder

metaphone

Den fonetiska kodare som ska användas. Standardvärdet är "metafon".

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

replace

boolean

True

Ett värde som anger om kodade token ska ersätta ursprungliga token. Om det är falskt läggs kodade token till som synonymer. Standardvärdet är true.

PrioritizedFields

Beskriver fälten rubrik, innehåll och nyckelord som ska användas för semantisk rangordning, undertexter, höjdpunkter och svar.

Name Typ Description
prioritizedContentFields

SemanticField[]

Definierar de innehållsfält som ska användas för semantisk rangordning, undertexter, höjdpunkter och svar. För bästa resultat bör de markerade fälten innehålla text i naturligt språk. Ordningen på fälten i matrisen representerar deras prioritet. Fält med lägre prioritet kan trunkeras om innehållet är långt.

prioritizedKeywordsFields

SemanticField[]

Definierar de nyckelordsfält som ska användas för semantisk rangordning, undertexter, höjdpunkter och svar. För bästa resultat bör de markerade fälten innehålla en lista med nyckelord. Ordningen på fälten i matrisen representerar deras prioritet. Fält med lägre prioritet kan trunkeras om innehållet är långt.

titleField

SemanticField

Definierar det rubrikfält som ska användas för semantisk rangordning, undertexter, höjdpunkter och svar. Om du inte har något rubrikfält i indexet lämnar du det tomt.

RegexFlags

Definierar flaggor som kan kombineras för att styra hur reguljära uttryck används i mönsteranalys och mönstertokeniserare.

Name Typ Description
CANON_EQ

string

Aktiverar kanonisk likvärdighet.

CASE_INSENSITIVE

string

Aktiverar skiftlägesokänslig matchning.

COMMENTS

string

Tillåter tomt utrymme och kommentarer i mönstret.

DOTALL

string

Aktiverar dotall-läge.

LITERAL

string

Aktiverar literal parsning av mönstret.

MULTILINE

string

Aktiverar flerradsläge.

UNICODE_CASE

string

Aktiverar Unicode-medveten skiftlägesdelegering.

UNIX_LINES

string

Aktiverar Unix-linjeläge.

ScoringFunctionAggregation

Definierar den sammansättningsfunktion som används för att kombinera resultaten från alla bedömningsfunktioner i en bedömningsprofil.

Name Typ Description
average

string

Öka poängen med medelvärdet av alla resultat från bedömningsfunktionen.

firstMatching

string

Öka poäng med hjälp av den första tillämpliga bedömningsfunktionen i bedömningsprofilen.

maximum

string

Öka poängen med maximalt antal resultat för bedömningsfunktionen.

minimum

string

Öka poängen med minst alla resultat från bedömningsfunktionen.

sum

string

Öka poängen med summan av alla resultat från bedömningsfunktionen.

ScoringFunctionInterpolation

Definierar den funktion som används för att interpolera poänghöjande över en rad dokument.

Name Typ Description
constant

string

Ökar poängen med en konstant faktor.

linear

string

Ökar poängen med en linjärt minskande mängd. Detta är standardinterpolationen för bedömningsfunktioner.

logarithmic

string

Ökar poängen med ett belopp som minskar logaritmiskt. Ökningar minskar snabbt för högre poäng och långsammare när poängen minskar. Det här interpoleringsalternativet tillåts inte i taggbedömningsfunktioner.

quadratic

string

Ökar poängen med en mängd som minskar kvadratiskt. Ökningarna minskar långsamt för högre poäng och snabbare när poängen minskar. Det här interpoleringsalternativet tillåts inte i taggbedömningsfunktioner.

ScoringProfile

Definierar parametrar för ett sökindex som påverkar bedömning i sökfrågor.

Name Typ Description
functionAggregation

ScoringFunctionAggregation

Ett värde som anger hur resultatet av enskilda bedömningsfunktioner ska kombineras. Standardvärdet är "Summa". Ignoreras om det inte finns några bedömningsfunktioner.

functions ScoringFunction[]:

En samling funktioner som påverkar bedömning av dokument.

name

string

Namnet på bedömningsprofilen.

text

TextWeights

Parametrar som ökar poängsättningen baserat på textmatchningar i vissa indexfält.

SearchError

Beskriver ett feltillstånd för API:et.

Name Typ Description
code

string

En av en serverdefinierad uppsättning felkoder.

details

SearchError[]

En matris med information om specifika fel som ledde till det rapporterade felet.

message

string

En läsbar återgivning av felet.

SearchField

Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält.

Name Typ Description
analyzer

LexicalAnalyzerName

Namnet på analysatorn som ska användas för fältet. Det här alternativet kan endast användas med sökbara fält och kan inte ställas in tillsammans med antingen searchAnalyzer eller indexAnalyzer. När analysatorn har valts kan den inte ändras för fältet. Måste vara null för komplexa fält.

dimensions

integer

Vektorfältets dimensionalitet.

facetable

boolean

Ett värde som anger om fältet ska kunna refereras till i fasetterade frågor. Används vanligtvis i en presentation av sökresultat som innehåller antal träffar per kategori (till exempel söka efter digitalkameror och se träffar efter varumärke, megapixlar, pris och så vidare). Den här egenskapen måste vara null för komplexa fält. Fält av typen Edm.GeographyPoint eller Collection(Edm.GeographyPoint) kan inte vara fasettbara. Standardvärdet är sant för alla andra enkla fält.

fields

SearchField[]

En lista över underfält om det här är ett fält av typen Edm.ComplexType eller Collection(Edm.ComplexType). Måste vara null eller tomt för enkla fält.

filterable

boolean

Ett värde som anger om fältet ska kunna refereras till i $filter frågor. filterable skiljer sig från sökbara i hur strängar hanteras. Fält av typen Edm.String eller Collection(Edm.String) som är filterbara genomgår inte ordbrytning, så jämförelser är endast för exakta matchningar. Om du till exempel ställer in ett sådant fält f på "solig dag" hittar $filter=f eq "soligt" inga matchningar, men $filter=f eq "solig dag" kommer att göra det. Den här egenskapen måste vara null för komplexa fält. Standardvärdet är sant för enkla fält och null för komplexa fält.

indexAnalyzer

LexicalAnalyzerName

Namnet på analysatorn som används vid indexeringstiden för fältet. Det här alternativet kan endast användas med sökbara fält. Den måste anges tillsammans med searchAnalyzer och kan inte ställas in tillsammans med analysalternativet. Den här egenskapen kan inte anges till namnet på ett språkanalysverktyg. använd egenskapen analyzer i stället om du behöver ett språkanalysverktyg. När analysatorn har valts kan den inte ändras för fältet. Måste vara null för komplexa fält.

key

boolean

Ett värde som anger om fältet unikt identifierar dokument i indexet. Exakt ett fält på den översta nivån i varje index måste väljas som nyckelfält och det måste vara av typen Edm.String. Nyckelfält kan användas för att söka efter dokument direkt och uppdatera eller ta bort specifika dokument. Standardvärdet är falskt för enkla fält och null för komplexa fält.

name

string

Namnet på fältet, som måste vara unikt i fältsamlingen för indexet eller det överordnade fältet.

retrievable

boolean

Ett värde som anger om fältet kan returneras i ett sökresultat. Du kan inaktivera det här alternativet om du vill använda ett fält (till exempel marginal) som en filter-, sorterings- eller bedömningsmekanism, men inte vill att fältet ska vara synligt för slutanvändaren. Den här egenskapen måste vara sann för nyckelfält och måste vara null för komplexa fält. Den här egenskapen kan ändras i befintliga fält. Om du aktiverar den här egenskapen ökar inte kraven på indexlagring. Standardvärdet är sant för enkla fält och null för komplexa fält.

searchAnalyzer

LexicalAnalyzerName

Namnet på analysatorn som används vid söktillfället för fältet. Det här alternativet kan endast användas med sökbara fält. Den måste anges tillsammans med indexAnalyzer och den kan inte ställas in tillsammans med analysalternativet. Den här egenskapen kan inte anges till namnet på ett språkanalysverktyg. använd egenskapen analyzer i stället om du behöver ett språkanalysverktyg. Den här analysatorn kan uppdateras i ett befintligt fält. Måste vara null för komplexa fält.

searchable

boolean

Ett värde som anger om fältet är sökbart i fulltext. Det innebär att den kommer att genomgå en analys, till exempel ordbrytning under indexeringen. Om du anger ett sökbart fält till ett värde som ”solig dag” delas det upp internt i två enskilda token, ”solig” och ”dag”. Detta möjliggör fulltextsökningar för dessa termer. Fält av typen Edm.String eller Collection(Edm.String) är sökbara som standard. Den här egenskapen måste vara false för enkla fält med andra datatyper som inte är strängar och måste vara null för komplexa fält. Obs! Sökbara fält förbrukar extra utrymme i indexet för att hantera ytterligare tokeniserade versioner av fältvärdet för fulltextsökningar. Om du vill spara utrymme i indexet och du inte behöver ett fält som ska inkluderas i sökningar anger du sökbart till falskt.

sortable

boolean

Ett värde som anger om fältet ska kunna refereras till i $orderby uttryck. Som standard sorterar sökmotorn resultat efter poäng, men i många fall vill användarna sortera efter fält i dokumenten. Ett enkelt fält kan bara sorteras om det är envärdesvärde (det har ett enda värde i det överordnade dokumentets omfång). Enkla samlingsfält kan inte sorteras eftersom de är flervärdesfält. Enkla delfält i komplexa samlingar är också flervärdesbaserade och kan därför inte sorteras. Detta gäller oavsett om det är ett omedelbart överordnat fält, eller ett överordnat fält, som är den komplexa samlingen. Komplexa fält kan inte sorteras och den sorterbara egenskapen måste vara null för sådana fält. Standardvärdet för sorterbar är sant för enkla enkelfält med en enda värde, falskt för enkla flervärdesfält och null för komplexa fält.

synonymMaps

string[]

En lista över namnen på synonymmappningar som ska associeras med det här fältet. Det här alternativet kan endast användas med sökbara fält. För närvarande stöds endast en synonymkarta per fält. Genom att tilldela en synonymmappning till ett fält ser du till att frågetermerna för det fältet utökas vid frågetiden med hjälp av reglerna i synonymmappningen. Det här attributet kan ändras i befintliga fält. Måste vara null eller en tom samling för komplexa fält.

type

SearchFieldDataType

Fältets datatyp.

vectorSearchProfile

string

Namnet på den vektorsökningsprofil som anger vilken algoritm som ska användas vid sökning i vektorfältet.

SearchFieldDataType

Definierar datatypen för ett fält i ett sökindex.

Name Typ Description
Edm.Boolean

string

Anger att ett fält innehåller ett booleskt värde (sant eller falskt).

Edm.ComplexType

string

Anger att ett fält innehåller ett eller flera komplexa objekt som i sin tur har underfält av andra typer.

Edm.DateTimeOffset

string

Anger att ett fält innehåller ett datum-/tidsvärde, inklusive tidszonsinformation.

Edm.Double

string

Anger att ett fält innehåller ett IEEE-flyttal med dubbel precision.

Edm.GeographyPoint

string

Anger att ett fält innehåller en geo-plats när det gäller longitud och latitud.

Edm.Int32

string

Anger att ett fält innehåller ett 32-bitars signerat heltal.

Edm.Int64

string

Anger att ett fält innehåller ett 64-bitars signerat heltal.

Edm.Single

string

Anger att ett fält innehåller ett flyttal med enkel precision. Detta är endast giltigt när det används med Collection(Edm.Single).

Edm.String

string

Anger att ett fält innehåller en sträng.

SearchIndex

Representerar en sökindexdefinition som beskriver fälten och sökbeteendet för ett index.

Name Typ Description
@odata.etag

string

Indexets ETag.

analyzers LexicalAnalyzer[]:

Analysverktygen för indexet.

charFilters CharFilter[]:

Tecknet filtrerar för indexet.

corsOptions

CorsOptions

Alternativ för att styra resursdelning mellan ursprung (CORS) för indexet.

defaultScoringProfile

string

Namnet på bedömningsprofilen som ska användas om ingen anges i frågan. Om den här egenskapen inte har angetts och ingen bedömningsprofil anges i frågan används standardpoäng (tf-idf).

encryptionKey

SearchResourceEncryptionKey

En beskrivning av en krypteringsnyckel som du skapar i Azure Key Vault. Den här nyckeln används för att tillhandahålla ytterligare en nivå av kryptering i vila för dina data när du vill ha fullständig försäkran om att ingen, inte ens Microsoft, kan dekryptera dina data. När du har krypterat dina data förblir de alltid krypterade. Söktjänsten ignorerar försök att ange den här egenskapen till null. Du kan ändra den här egenskapen efter behov om du vill rotera krypteringsnyckeln. Dina data påverkas inte. Kryptering med kundhanterade nycklar är inte tillgängligt för kostnadsfria söktjänster och är endast tillgängligt för betaltjänster som skapats den 1 januari 2019 eller senare.

fields

SearchField[]

Fälten i indexet.

name

string

Namnet på indexet.

scoringProfiles

ScoringProfile[]

Bedömningsprofilerna för indexet.

semantic

SemanticSettings

Definierar parametrar för ett sökindex som påverkar semantiska funktioner.

similarity Similarity:

Typen av likhetsalgoritm som ska användas vid bedömning och rangordning av dokument som matchar en sökfråga. Likhetsalgoritmen kan bara definieras när index skapas och kan inte ändras i befintliga index. Om det är null används ClassicSimilarity-algoritmen.

suggesters

Suggester[]

Förslagsgivare för indexet.

tokenFilters TokenFilter[]:

Tokenfiltren för indexet.

tokenizers LexicalTokenizer[]:

Tokeniserare för indexet.

vectorSearch

VectorSearch

Innehåller konfigurationsalternativ relaterade till vektorsökning.

SearchResourceEncryptionKey

En kundhanterad krypteringsnyckel i Azure Key Vault. Nycklar som du skapar och hanterar kan användas för att kryptera eller dekryptera vilande data i söktjänsten, till exempel index och synonymkartor.

Name Typ Description
accessCredentials

AzureActiveDirectoryApplicationCredentials

Valfria Azure Active Directory-autentiseringsuppgifter som används för att komma åt din Azure-Key Vault. Krävs inte om du använder hanterad identitet i stället.

keyVaultKeyName

string

Namnet på din Azure Key Vault nyckel som ska användas för att kryptera vilande data.

keyVaultKeyVersion

string

Versionen av din Azure Key Vault-nyckel som ska användas för att kryptera dina vilande data.

keyVaultUri

string

URI:n för din Azure-Key Vault, även kallad DNS-namn, som innehåller nyckeln som ska användas för att kryptera vilande data. Ett exempel på en URI kan vara https://my-keyvault-name.vault.azure.net.

SemanticConfiguration

Definierar en specifik konfiguration som ska användas i kontexten för semantiska funktioner.

Name Typ Description
name

string

Namnet på den semantiska konfigurationen.

prioritizedFields

PrioritizedFields

Beskriver de rubrik-, innehålls- och nyckelordsfält som ska användas för semantisk rangordning, undertexter, höjdpunkter och svar. Minst en av de tre underegenskaperna (titleField, prioritizedKeywordsFields och prioritizedContentFields) måste anges.

SemanticField

Ett fält som används som en del av den semantiska konfigurationen.

Name Typ Description
fieldName

string

SemanticSettings

Definierar parametrar för ett sökindex som påverkar semantiska funktioner.

Name Typ Description
configurations

SemanticConfiguration[]

Semantiska konfigurationer för indexet.

defaultConfiguration

string

Gör att du kan ange namnet på en standardsemantisk konfiguration i ditt index, vilket gör det valfritt att skicka det vidare som en frågeparameter varje gång.

ShingleTokenFilter

Skapar kombinationer av token som en enda token. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

filterToken

string

_

Strängen som ska infogas för varje position där det inte finns någon token. Standardvärdet är ett understreck ("_").

maxShingleSize

integer

2

Maximal bältrosstorlek. Standardvärdet och minimivärdet är 2.

minShingleSize

integer

2

Minsta bältrosstorlek. Standardvärdet och minimivärdet är 2. Måste vara mindre än värdet för maxShingleSize.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

outputUnigrams

boolean

True

Ett värde som anger om utdataströmmen ska innehålla indatatoken (unigram) samt bältros. Standardvärdet är true.

outputUnigramsIfNoShingles

boolean

False

Ett värde som anger om unigram ska matas ut för de tider då inga bältros är tillgängliga. Den här egenskapen har företräde när outputUnigrams är inställt på false. Standardvärdet är false.

tokenSeparator

string

Strängen som ska användas när du ansluter intilliggande token för att bilda en bältros. Standardvärdet är ett enda blanksteg (" ").

SnowballTokenFilter

Ett filter som stjälkar ord med hjälp av en Snowball-genererad stemmer. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Description
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

language

SnowballTokenFilterLanguage

Språket som ska användas.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

SnowballTokenFilterLanguage

Det språk som ska användas för ett Snowball-tokenfilter.

Name Typ Description
armenian

string

Väljer Lucene Snowball-ordstamstokeniseraren för armeniska.

basque

string

Väljer Lucene Snowball som ordstamstokeniserare för baskiska.

catalan

string

Väljer Lucene Snowball-ordstavstokeniseraren för katalanska.

danish

string

Väljer Lucene Snowball-ordstamstokeniseraren för danska.

dutch

string

Väljer Lucene Snowball-ordstamstokeniseraren för nederländska.

english

string

Väljer Lucene Snowball-ordstamstokeniseraren för engelska.

finnish

string

Väljer Lucene Snowball-ordstamstokeniseraren för finska.

french

string

Väljer Lucene Snowball-ordstamstokeniseraren för franska.

german

string

Väljer Lucene Snowball-ordstamstokeniseraren för tyska.

german2

string

Väljer lucene snowball-ordstamstokeniseraren som använder den tyska variantalgoritmen.

hungarian

string

Väljer Lucene Snowball-ordstamstokeniseraren för ungerska.

italian

string

Väljer Lucene Snowball-ordstamstokeniseraren för italienska.

kp

string

Väljer Lucene Snowball-ordstamstokeniseraren för nederländska som använder Kraaij-Pohlmann ordstamsalgoritm.

lovins

string

Väljer Lucene Snowball-ordstamstokeniseraren för engelska som använder Lovins-ordstamsalgoritmen.

norwegian

string

Väljer Lucene Snowball-ordstamstokeniseraren för norska.

porter

string

Väljer Lucene Snowball-ordstamstokeniseraren för engelska som använder porteringsstamsalgoritmen.

portuguese

string

Väljer Lucene Snowball-ordstamstokeniseraren för portugisiska.

romanian

string

Väljer Lucene Snowball-ordstamstokeniseraren för rumänska.

russian

string

Väljer Lucene Snowball-ordstamstokeniseraren för ryska.

spanish

string

Väljer Lucene Snowball-ordstamstokeniseraren för spanska.

swedish

string

Väljer Lucene Snowball-ordstavstokeniseraren för svenska.

turkish

string

Väljer Lucene Snowball-ordstamstokeniseraren för turkiska.

StemmerOverrideTokenFilter

Ger möjlighet att åsidosätta andra härdningsfilter med anpassad ordlistebaserad härdning. Ordlisteskaftade termer markeras som nyckelord så att de inte kommer att stoppas med stemmers längre ned i kedjan. Måste placeras före eventuella härdningsfilter. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Description
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

rules

string[]

En lista över härstamningsregler i följande format: "word => stem", till exempel: "ran => run".

StemmerTokenFilter

Språkspecifikt härdningsfilter. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Description
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

language

StemmerTokenFilterLanguage

Språket som ska användas.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

StemmerTokenFilterLanguage

Det språk som ska användas för ett stemmer-tokenfilter.

Name Typ Description
arabic

string

Väljer Lucene-ordstamstokeniseraren för arabiska.

armenian

string

Väljer Lucene-ordstamstokeniseraren för armeniska.

basque

string

Väljer Lucene-ordstamstokeniseraren för baskiska.

brazilian

string

Väljer Lucene-ordstamstokeniseraren för portugisiska (Brasilien).

bulgarian

string

Väljer Lucene-ordstamstokeniseraren för bulgariska.

catalan

string

Väljer Lucene-ordstamstokeniseraren för katalanska.

czech

string

Väljer Lucene-ordstamstokeniseraren för tjeckiska.

danish

string

Väljer Lucene-ordstamstokeniseraren för danska.

dutch

string

Väljer Lucene-ordstamstokeniseraren för nederländska.

dutchKp

string

Väljer Lucene-ordstamstokeniseraren för nederländska som använder Kraaij-Pohlmann ordstamsalgoritm.

english

string

Väljer Lucene-ordstamstokeniseraren för engelska.

finnish

string

Väljer Lucene-ordstamstokeniseraren för finska.

french

string

Väljer Lucene-ordstamstokeniseraren för franska.

galician

string

Väljer Lucene-ordstamstokeniseraren för galiciska.

german

string

Väljer Lucene-ordstamstokeniseraren för tyska.

german2

string

Väljer lucene-ordstamstokeniseraren som använder den tyska variantalgoritmen.

greek

string

Väljer Lucene-ordstamstokeniseraren för grekiska.

hindi

string

Väljer Lucene-ordstamstokeniseraren för Hindi.

hungarian

string

Väljer Lucene-ordstamstokeniseraren för ungerska.

indonesian

string

Väljer Lucene-ordstamstokeniseraren för indonesiska.

irish

string

Väljer Lucene-ordstamstokeniseraren för iriska.

italian

string

Väljer Lucene-ordstamstokeniseraren för italienska.

latvian

string

Väljer Lucene-ordstamstokeniseraren för lettiska.

lightEnglish

string

Väljer Lucene-ordstamstokeniseraren för engelska som utför lätt ordstamsigenkänning.

lightFinnish

string

Väljer Lucene-ordstamstokeniseraren för finska som utför lätt ordstamsigenkänning.

lightFrench

string

Väljer Lucene-ordstamstokeniseraren för franska som gör lätt ordstamsigenkänning.

lightGerman

string

Väljer Lucene-ordstamstokeniseraren för tyska som utför lätt ordstamsigenkänning.

lightHungarian

string

Väljer Lucene-ordstamstokeniseraren för ungerska som utför lätt ordstamsigenkänning.

lightItalian

string

Väljer Lucene-ordstamstokeniseraren för italienska som utför lätt ordstamsigenkänning.

lightNorwegian

string

Väljer Lucene-ordstamstokeniseraren för norska (Bokmål) som utför lätt ordstamsigenkänning.

lightNynorsk

string

Väljer Lucene-ordstamstokeniseraren för norska (Nynorsk) som utför lätt ordstamsigenkänning.

lightPortuguese

string

Väljer Lucene-ordstamstokeniseraren för portugisiska som utför lätt ordstamsigenkänning.

lightRussian

string

Väljer Lucene-ordstamstokeniseraren för ryska som utför lätt ordstamsigenkänning.

lightSpanish

string

Väljer Lucene-ordstamstokeniseraren för spanska som utför lätt ordstamsigenkänning.

lightSwedish

string

Väljer Lucene-ordstamstokeniseraren för svenska som utför lätt ordstamsigenkänning.

lovins

string

Väljer Lucene-ordstamstokeniseraren för engelska som använder Lovins-ordstamsalgoritmen.

minimalEnglish

string

Väljer Lucene-ordstamstokeniseraren för engelska som gör minimalt med ordstamsigenkänning.

minimalFrench

string

Väljer Lucene-ordstamstokeniseraren för franska som gör minimalt med ordstamsigenkänning.

minimalGalician

string

Väljer Lucene-ordstamstokeniseraren för galiciska som gör minimalt med ordstamsigenkänning.

minimalGerman

string

Väljer Lucene-ordstamstokeniseraren för tyska som gör minimalt med ordstamsigenkänning.

minimalNorwegian

string

Väljer Lucene-ordstamstokeniseraren för norska (Bokmål) som gör minimalt med ordstamsigenkänning.

minimalNynorsk

string

Väljer Lucene-ordstamstokeniseraren för norska (Nynorsk) som gör minimalt med ordstamsigenkänning.

minimalPortuguese

string

Väljer Lucene-ordstamstokeniseraren för portugisiska som gör minimalt med ordstamsigenkänning.

norwegian

string

Väljer Lucene-ordstamstokeniseraren för norska (Bokmål).

porter2

string

Väljer Lucene-ordstamstokeniseraren för engelska som använder Porter2-ordstamsalgoritmen.

portuguese

string

Väljer Lucene-ordstamstokeniseraren för portugisiska.

portugueseRslp

string

Väljer Lucene-ordstamstokeniseraren för portugisiska som använder RSLP-ordstamsalgoritmen.

possessiveEnglish

string

Väljer Lucene-ordstamstokeniseraren för engelska som tar bort avslutande possessiva ord.

romanian

string

Väljer Lucene-ordstamstokeniseraren för rumänska.

russian

string

Väljer Lucene-ordstamstokeniseraren för ryska.

sorani

string

Väljer Lucene-ordstamstokeniseraren för Sorani.

spanish

string

Väljer Lucene-ordstamstokeniseraren för spanska.

swedish

string

Väljer Lucene-ordstamstokeniseraren för svenska.

turkish

string

Väljer Lucene-ordstamstokeniseraren för turkiska.

StopAnalyzer

Delar upp text med icke-bokstäver; Använder tokenfiltren med gemener och stoppord. Den här analysatorn implementeras med Apache Lucene.

Name Typ Description
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

Ett URI-fragment som anger typen av analysverktyg.

name

string

Namnet på analysatorn. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

stopwords

string[]

En lista över stoppord.

StopwordsList

Identifierar en fördefinierad lista över språkspecifika stoppord.

Name Typ Description
arabic

string

Väljer stoppordslistan för arabiska.

armenian

string

Väljer stoppordslistan för armeniska.

basque

string

Väljer stoppordslistan för Baskiska.

brazilian

string

Väljer stoppordslistan för portugisiska (Brasilien).

bulgarian

string

Väljer stoppordslistan för bulgariska.

catalan

string

Väljer stoppordslistan för katalanska.

czech

string

Väljer stoppordslistan för tjeckiska.

danish

string

Väljer stoppordslistan för danska.

dutch

string

Väljer stoppordslistan för nederländska.

english

string

Väljer stoppordslistan för engelska.

finnish

string

Väljer stoppordslistan för finska.

french

string

Väljer stoppordslistan för franska.

galician

string

Väljer stoppordslistan för galiciska.

german

string

Väljer stoppordslistan för tyska.

greek

string

Väljer stoppordslistan för grekiska.

hindi

string

Väljer stoppordslistan för Hindi.

hungarian

string

Väljer stoppordslistan för ungerska.

indonesian

string

Väljer stoppordslistan för indonesiska.

irish

string

Väljer stoppordslistan för iriska.

italian

string

Väljer stoppordslistan för italienska.

latvian

string

Väljer stoppordslistan för lettiska.

norwegian

string

Väljer stoppordslistan för norska.

persian

string

Väljer stoppordslistan för persiska.

portuguese

string

Väljer stoppordslistan för portugisiska.

romanian

string

Väljer stoppordslistan för rumänska.

russian

string

Väljer stoppordslistan för ryska.

sorani

string

Väljer stoppordslistan för Sorani.

spanish

string

Väljer stoppordslistan för spanska.

swedish

string

Väljer stoppordslistan för svenska.

thai

string

Väljer stoppordslistan för thailändska.

turkish

string

Väljer stoppordslistan för turkiska.

StopwordsTokenFilter

Tar bort stoppord från en tokenström. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

ignoreCase

boolean

False

Ett värde som anger om skiftläge ska ignoreras. Om det är sant konverteras alla ord till gemener först. Standardvärdet är false.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

removeTrailing

boolean

True

Ett värde som anger om den sista söktermen ska ignoreras om det är ett stoppord. Standardvärdet är true.

stopwords

string[]

Listan över stoppord. Både den här egenskapen och egenskapen stopwords list kan inte anges.

stopwordsList

StopwordsList

english

En fördefinierad lista över stoppord som ska användas. Både den här egenskapen och egenskapen stopwords kan inte anges. Standardvärdet är engelska.

Suggester

Definierar hur API:et Föreslå ska tillämpas på en grupp med fält i indexet.

Name Typ Description
name

string

Namnet på förslagsspelaren.

searchMode

SuggesterSearchMode

Ett värde som anger förslagsverktygets funktioner.

sourceFields

string[]

Listan med fältnamn som förslagsväljaren gäller för. Varje fält måste vara sökbart.

SuggesterSearchMode

Ett värde som anger förslagsverktygets funktioner.

Name Typ Description
analyzingInfixMatching

string

Matchar hela termer och prefix i ett fält i följd. För fältet "Den snabbaste bruna räven" skulle till exempel frågorna "snabb" och "snabbaste panna" båda matcha.

SynonymTokenFilter

Matchar synonymer med en eller flera ord i en tokenström. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

expand

boolean

True

Ett värde som anger om alla ord i listan över synonymer (om => notation inte används) mappas till varandra. Om det är sant mappas alla ord i listan med synonymer (om => notation inte används) till varandra. Följande lista: otroligt, otroligt, fantastiskt, fantastiskt motsvarar: otroligt, otroligt, fantastiskt, fantastiskt => otroligt, otroligt, fantastiskt, fantastiskt, fantastiskt. Om falskt, följande lista: otroligt, otroligt, fantastiskt, fantastiskt kommer att motsvara: otroligt, otroligt, fantastiskt, fantastiskt => otroligt. Standardvärdet är true.

ignoreCase

boolean

False

Ett värde som anger om indata ska skiftlägesviktas för matchning. Standardvärdet är false.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

synonyms

string[]

En lista över synonymer i följande två format: 1. otroligt, otroligt, fantastiskt => fantastiskt - alla termer på vänster sida av => symbolen kommer att ersättas med alla termer på sin högra sida; 2. otroligt, otroligt, fantastiskt, fantastiskt - kommaavgränsad lista över motsvarande ord. Ange alternativet expandera om du vill ändra hur den här listan ska tolkas.

TagScoringFunction

Definierar en funktion som ökar poängen med dokument med strängvärden som matchar en viss lista med taggar.

Name Typ Description
boost

number

En multiplikator för råpoängen. Måste vara ett positivt tal som inte är lika med 1,0.

fieldName

string

Namnet på fältet som används som indata till bedömningsfunktionen.

interpolation

ScoringFunctionInterpolation

Ett värde som anger hur en ökning kommer att interpoleras mellan dokumentpoäng. standardvärdet "Linjär".

tag

TagScoringParameters

Parametervärden för taggbedömningsfunktionen.

type string:

tag

Anger vilken typ av funktion som ska användas. Giltiga värden är storlek, färskhet, avstånd och tagg. Funktionstypen måste vara gemen.

TagScoringParameters

Tillhandahåller parametervärden till en taggbedömningsfunktion.

Name Typ Description
tagsParameter

string

Namnet på parametern som skickas i sökfrågor för att ange listan med taggar som ska jämföras med målfältet.

TextWeights

Definierar vikter för indexfält för vilka matchningar ska öka poängsättningen i sökfrågor.

Name Typ Description
weights

object

Ordlistan med vikter per fält för att öka dokumentbedömningen. Nycklarna är fältnamn och värdena är vikterna för varje fält.

TokenCharacterKind

Representerar klasser med tecken som ett tokenfilter kan använda.

Name Typ Description
digit

string

Behåller siffror i token.

letter

string

Behåller bokstäver i token.

punctuation

string

Behåller skiljetecken i token.

symbol

string

Behåller symboler i token.

whitespace

string

Behåller tomt utrymme i token.

TokenFilterName

Definierar namnen på alla tokenfilter som stöds av sökmotorn.

Name Typ Description
apostrophe

string

Tar bort alla tecken efter en apostrof (inklusive själva apostrofen). Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html

arabic_normalization

string

Ett tokenfilter som tillämpar den arabiska normaliseraren för att normalisera ortografin. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html

asciifolding

string

Konverterar alfabetiska, numeriska och symboliska Unicode-tecken som inte finns i de första 127 ASCII-tecknen (Unicode-blocket "Basic Latin" till deras ASCII-motsvarigheter, om sådana motsvarigheter finns. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

cjk_bigram

string

Bildar bigrams av CJK-termer som genereras från standardtokeniseraren. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

cjk_width

string

Normaliserar skillnader i CJK-bredd. Viker ascii-varianterna för fullbredd till motsvarande grundläggande latinska och katakanavarianter med halv bredd i motsvarande Kana. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html

classic

string

Tar bort engelska possessives och punkter från förkortningar. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html

common_grams

string

Skapa bigrams för ofta förekommande termer vid indexering. Enkla termer indexeras fortfarande också, med bigrams överlagrade. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

edgeNGram_v2

string

Genererar n-gram av den eller de angivna storlekarna med början framifrån eller baksidan av en indatatoken. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

elision

string

Tar bort elisions. Till exempel konverteras "l'avion" (planet) till "avion" (plan). Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

german_normalization

string

Normaliserar tyska tecken enligt heuristiken i den tyska algoritmen för snöboll. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html

hindi_normalization

string

Normaliserar text på hindi för att ta bort vissa skillnader i stavningsvariationer. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html

indic_normalization

string

Normaliserar Unicode-representationen av text på indiska språk. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html

keyword_repeat

string

Genererar varje inkommande token två gånger, en gång som nyckelord och en gång som icke-nyckelord. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html

kstem

string

Ett högpresterande kstem-filter för engelska. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html

length

string

Tar bort ord som är för långa eller för korta. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

limit

string

Begränsar antalet token vid indexering. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

lowercase

string

Normaliserar tokentext till gemener. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm

nGram_v2

string

Genererar n-gram av den eller de angivna storlekarna. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

persian_normalization

string

Tillämpar normalisering för persiska. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html

phonetic

string

Skapa token för fonetiska matchningar. Se https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

porter_stem

string

Använder porteringsstamsalgoritmen för att transformera tokenströmmen. Se http://tartarus.org/~martin/PorterStemmer

reverse

string

Kastar om tokensträngen. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

scandinavian_folding

string

Viker skandinaviska karaktärer åÅäæÄÆ-a> och öÖøØ-o>. Det diskriminerar också användningen av dubbla vokaler aa, ae, ao, oe och oo, vilket bara lämnar den första. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html

scandinavian_normalization

string

Normaliserar användningen av de utbytbara skandinaviska tecknen. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html

shingle

string

Skapar kombinationer av token som en enda token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

snowball

string

Ett filter som stjälkar ord med hjälp av en Snowball-genererad stemmer. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

sorani_normalization

string

Normaliserar Unicode-representationen av Sorani-text. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html

stemmer

string

Språkspecifikt ordstamsfilter. Se https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

stopwords

string

Tar bort stoppord från en tokenström. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

trim

string

Rensar inledande och avslutande blanksteg från token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html

truncate

string

Trunkerar termerna till en viss längd. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

unique

string

Filtrerar bort token med samma text som föregående token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

uppercase

string

Normaliserar tokentext till versaler. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

word_delimiter

string

Delar upp ord i underord och utför valfria transformeringar på underordsgrupper.

TruncateTokenFilter

Trunkerar termerna till en viss längd. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

length

integer

300

Längden på vilka termer kommer att trunkeras. Standard och max är 300.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

UaxUrlEmailTokenizer

Tokeniserar URL:ar och e-postmeddelanden som en token. Denna tokenizer implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

Ett URI-fragment som anger typen av tokenizer.

maxTokenLength

integer

255

Maximal tokenlängd. Standardvärdet är 255. Token som är längre än den maximala längden delas upp. Den maximala tokenlängden som kan användas är 300 tecken.

name

string

Namnet på tokenizern. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, får bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

UniqueTokenFilter

Filtrerar bort token med samma text som föregående token. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

onlyOnSamePosition

boolean

False

Ett värde som anger om du bara vill ta bort dubbletter på samma position. Standardvärdet är false.

VectorSearch

Innehåller konfigurationsalternativ relaterade till vektorsökning.

Name Typ Description
algorithms VectorSearchAlgorithmConfiguration[]:

Innehåller konfigurationsalternativ som är specifika för algoritmen som används vid indexering eller frågor.

profiles

VectorSearchProfile[]

Definierar kombinationer av konfigurationer som ska användas med vektorsökning.

VectorSearchAlgorithmKind

Algoritmen som används för indexering och frågor.

Name Typ Description
exhaustiveKnn

string

Uttömmande KNN-algoritm som utför brute-force-sökning.

hnsw

string

HNSW (Hierarchical Navigable Small World), en typ av ungefärlig närmaste grannalgoritm.

VectorSearchAlgorithmMetric

Likhetsmåttet som ska användas för vektorjämförelser.

Name Typ Description
cosine

string

dotProduct

string

euclidean

string

VectorSearchProfile

Definierar en kombination av konfigurationer som ska användas med vektorsökning.

Name Typ Description
algorithm

string

Namnet på konfigurationen av vektorsökningsalgoritmen som anger algoritmen och valfria parametrar.

name

string

Namnet som ska associeras med den här specifika vektorsökningsprofilen.

WordDelimiterTokenFilter

Delar upp ord i underord och utför valfria transformeringar i underordsgrupper. Det här tokenfiltret implementeras med Apache Lucene.

Name Typ Standardvärde Description
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

Ett URI-fragment som anger typ av tokenfilter.

catenateAll

boolean

False

Ett värde som anger om alla underordsdelar ska catenateds. Om detta till exempel är inställt på sant blir "Azure-Search-1" "AzureSearch1". Standardvärdet är false.

catenateNumbers

boolean

False

Ett värde som anger om maximala körningar av antal delar ska cateneras. Om detta till exempel är inställt på sant blir "1–2" "12". Standardvärdet är false.

catenateWords

boolean

False

Ett värde som anger om maximala körningar av orddelar kommer att catenated. Om detta till exempel är inställt på sant blir "Azure-Search" "AzureSearch". Standardvärdet är false.

generateNumberParts

boolean

True

Ett värde som anger om nummerunderord ska genereras. Standardvärdet är true.

generateWordParts

boolean

True

Ett värde som anger om delord ska genereras. Om det anges genereras delar av ord. till exempel "AzureSearch" blir "Azure" "Search". Standardvärdet är true.

name

string

Namnet på tokenfiltret. Den får bara innehålla bokstäver, siffror, blanksteg, bindestreck eller understreck, kan bara börja och sluta med alfanumeriska tecken och är begränsad till 128 tecken.

preserveOriginal

boolean

False

Ett värde som anger om ursprungliga ord ska bevaras och läggas till i underordslistan. Standardvärdet är false.

protectedWords

string[]

En lista över token som skyddar mot att avgränsas.

splitOnCaseChange

boolean

True

Ett värde som anger om ord ska delas i caseChange. Om detta till exempel är inställt på sant blir "AzureSearch" "Azure" "Search". Standardvärdet är true.

splitOnNumerics

boolean

True

Ett värde som anger om du vill dela på tal. Om detta till exempel är inställt på sant blir "Azure1Search" "Azure" "1" "Search". Standardvärdet är true.

stemEnglishPossessive

boolean

True

Ett värde som anger om du vill ta bort avslutande "s" för varje underord. Standardvärdet är true.