Analysera text (Azure Cognitive Search REST API)

Api:et Analysera visar hur ett analysverktyg delar upp text i token. Den är avsedd för interaktiv testning så att du kan se hur en viss analysator tokeniserar en stränginmatning.

POST https://[service name].search.windows.net/indexes/[index name]/analyze?api-version=[api-version]
    Content-Type: application/json
    api-key: [admin key]

Om du vill ange ett analysverktyg som används vid indexering och frågekörning anger du egenskapen analyzer för strängfält i indexet.

URI-parametrar

Parameter Beskrivning
tjänstnamn Krävs. Ange det unika, användardefinierade namnet på söktjänsten.
indexnamn Krävs. Begärande-URI anger namnet på indexet som innehåller det fält som du vill analysera.
api-version Krävs. Den aktuella stabila versionen är api-version=2020-06-30. Se API-versioner för fler versioner.

Rubriker för begäran

I följande tabell beskrivs nödvändiga och valfria begärandehuvuden.

Fält Description
Content-Type Krävs. Ange detta till application/json
api-key Krävs. api-key Används för att autentisera begäran till din tjänsten Search. Det är ett strängvärde som är unikt för din tjänst. Analyzer-begäranden måste innehålla en api-key rubrik inställd på din administratörsnyckel (till skillnad från en frågenyckel). Du hittar API-nyckeln på instrumentpanelen för söktjänsten i Azure Portal.

Begärandetext

{
  "text": "Text to analyze",
  "analyzer": "analyzer_name"
}

eller

{
  "text": "Text to analyze",
  "tokenizer": "tokenizer_name",
  "tokenFilters": (optional) [ "token_filter_name" ],
  "charFilters": (optional) [ "char_filter_name" ]
}

, analyzer_nametokenizer_nametoken_filter_name och char_filter_name måste vara giltiga namn på fördefinierade eller anpassade analysverktyg, tokeniserare, tokenfilter och teckenfilter för indexet. Mer information om processen för lexikal analys finns i Analys i Azure Cognitive Search.

Svarsåtgärder

Statuskod: 200 OK returneras för ett lyckat svar.

Svarstexten har följande format:

    {
      "tokens": [
        {
          "token": string (token),
          "startOffset": number (index of the first character of the token),
          "endOffset": number (index of the last character of the token),
          "position": number (position of the token in the input text)
        },
        ...
      ]
    }

Exempel

Begärandetexten innehåller strängen och analysatorn som du vill använda.

     {
       "text": "The quick brown fox",
       "analyzer": "standard"
     }

Svaret visar de token som genereras av analysatorn för den sträng som du anger.

{
    "tokens": [
        {
            "token": "the",
            "startOffset": 0,
            "endOffset": 3,
            "position": 0
        },
        {
            "token": "quick",
            "startOffset": 4,
            "endOffset": 9,
            "position": 1
        },
        {
            "token": "brown",
            "startOffset": 10,
            "endOffset": 15,
            "position": 2
        },
        {
            "token": "fox",
            "startOffset": 16,
            "endOffset": 19,
            "position": 3
        }
    ]
}

Se även