Indexes - Get

인덱스 정의를 검색합니다.

GET {endpoint}/indexes('{indexName}')?api-version=2023-11-01

URI 매개 변수

Name In(다음 안에) 필수 형식 Description
endpoint
path True

string

검색 서비스의 엔드포인트 URL입니다.

indexName
path True

string

검색할 인덱스의 이름입니다.

api-version
query True

string

클라이언트 API 버전.

요청 헤더

Name 필수 형식 Description
x-ms-client-request-id

string

uuid

디버깅에 도움이 되도록 요청과 함께 전송된 추적 ID입니다.

응답

Name 형식 Description
200 OK

SearchIndex

Other Status Codes

SearchError

오류 응답입니다.

예제

SearchServiceGetIndex

Sample Request

GET https://myservice.search.windows.net/indexes('hotels')?api-version=2023-11-01

Sample Response

{
  "name": "hotels",
  "fields": [
    {
      "name": "hotelId",
      "type": "Edm.String",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "baseRate",
      "type": "Edm.Double",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "descriptionEmbedding",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": 1536,
      "vectorSearchProfile": "myHnswProfile",
      "synonymMaps": []
    },
    {
      "name": "description_fr",
      "type": "Edm.String",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "fr.lucene",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "hotelName",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "tags",
      "type": "Collection(Edm.String)",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "sortable": false,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": "tagsAnalyzer",
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "parkingIncluded",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "smokingAllowed",
      "type": "Edm.Boolean",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "lastRenovationDate",
      "type": "Edm.DateTimeOffset",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "rating",
      "type": "Edm.Int32",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    },
    {
      "name": "location",
      "type": "Edm.GeographyPoint",
      "searchable": false,
      "filterable": true,
      "retrievable": true,
      "sortable": true,
      "facetable": false,
      "key": false,
      "indexAnalyzer": null,
      "searchAnalyzer": null,
      "analyzer": null,
      "dimensions": null,
      "vectorSearchProfile": null,
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "geo",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "hotelName": 5
        }
      },
      "functions": [
        {
          "type": "distance",
          "boost": 5,
          "fieldName": "location",
          "interpolation": "logarithmic",
          "distance": {
            "referencePointParameter": "currentLocation",
            "boostingDistance": 10
          }
        }
      ]
    }
  ],
  "defaultScoringProfile": "geo",
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "hotelName"
      ]
    }
  ],
  "analyzers": [
    {
      "name": "tagsAnalyzer",
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "charFilters": [
        "html_strip"
      ],
      "tokenizer": "standard_v2"
    }
  ],
  "tokenizers": [],
  "tokenFilters": [],
  "charFilters": [],
  "corsOptions": {
    "allowedOrigins": [
      "tempuri.org"
    ],
    "maxAgeInSeconds": 60
  },
  "encryptionKey": {
    "keyVaultKeyName": "myKeyName",
    "keyVaultKeyVersion": "myKeyVersion",
    "keyVaultUri": "https://myKeyVault.vault.azure.net",
    "accessCredentials": {
      "applicationId": "00000000-0000-0000-0000-000000000000",
      "applicationSecret": null
    }
  },
  "semantic": {
    "configurations": [
      {
        "name": "semanticHotels",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "hotelName"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            },
            {
              "fieldName": "description_fr"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "tags"
            },
            {
              "fieldName": "category"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "myHnsw",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "myExhaustive",
        "kind": "exhaustiveKnn",
        "exhaustiveKnnParameters": {
          "metric": "cosine"
        }
      }
    ],
    "profiles": [
      {
        "name": "myHnswProfile",
        "algorithm": "myHnsw"
      },
      {
        "name": "myAlgorithm",
        "algorithm": "myExhaustive"
      }
    ]
  }
}

정의

Name Description
AsciiFoldingTokenFilter

처음 127개의 ASCII 문자("기본 라틴어" 유니코드 블록)에 없는 알파벳, 숫자 및 기호 유니코드 문자를 ASCII 등가물(있는 경우)으로 변환합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

AzureActiveDirectoryApplicationCredentials

Azure Key Vault 저장된 암호화 키에 대한 인증된 액세스에 사용되는 검색 서비스에 대해 생성된 등록된 애플리케이션의 자격 증명입니다.

BM25Similarity

Okapi BM25 유사성 알고리즘을 기반으로 하는 순위 함수입니다. BM25는 길이 정규화('b' 매개 변수로 제어됨)와 용어 빈도 포화('k1' 매개 변수로 제어됨)를 포함하는 TF-IDF와 유사한 알고리즘입니다.

CharFilterName

검색 엔진에서 지원하는 모든 문자 필터의 이름을 정의합니다.

CjkBigramTokenFilter

표준 토큰화기에서 생성된 CJK 용어의 bigrams를 형성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

CjkBigramTokenFilterScripts

CjkBigramTokenFilter에서 무시할 수 있는 스크립트입니다.

ClassicSimilarity

TF-IDF의 Lucene TFIDFSimilarity 구현을 사용하는 레거시 유사성 알고리즘입니다. 이러한 TF-IDF 변형은 정적 문서 길이 정규화뿐만 아니라 검색된 쿼리와 부분적으로만 일치하는 문서를 처벌하는 조정 요인을 도입합니다.

ClassicTokenizer

대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰라이저입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

CommonGramTokenFilter

인덱싱 동안 자주 발생하는 용어에 대한 바이그램을 생성합니다. 단일 단어도 바이그램이 오버레이된 상태로 계속 인덱싱됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

CorsOptions

인덱스에 대한 CORS(원본 간 리소스 공유)를 제어하는 옵션을 정의합니다.

CustomAnalyzer

텍스트를 인덱싱 가능/검색 가능한 토큰으로 변환하는 프로세스를 제어할 수 있습니다. 미리 정의된 단일 토큰라이저와 하나 이상의 필터로 구성된 사용자 정의 구성입니다. tokenizer는 텍스트를 토큰으로 분리하고 토큰라이저에서 내보낸 토큰을 수정하기 위한 필터를 담당합니다.

DictionaryDecompounderTokenFilter

많은 게르만어파에 있는 복합 단어를 분해합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

DistanceScoringFunction

지리적 위치와의 거리에 따라 점수를 높이는 함수를 정의합니다.

DistanceScoringParameters

거리 채점 함수에 매개 변수 값을 제공합니다.

EdgeNGramTokenFilter

입력 토큰의 앞뒤에서 시작하여 지정된 크기의 n그램을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

EdgeNGramTokenFilterSide

n-gram을 생성해야 하는 입력의 어느 쪽을 지정합니다.

EdgeNGramTokenFilterV2

입력 토큰의 앞뒤에서 시작하여 지정된 크기의 n그램을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

EdgeNGramTokenizer

에지의 입력을 지정된 크기의 n-그램으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

ElisionTokenFilter

생략 발음을 제거합니다. 예를 들어 "l'avion"(평면)은 "avion"(평면)으로 변환됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

ExhaustiveKnnParameters

철저한 KNN 알고리즘과 관련된 매개 변수를 포함합니다.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

전체 벡터 인덱스에서 무차별 암호 대입 검색을 수행하는 쿼리 중에 사용되는 철저한 KNN 알고리즘과 관련된 구성 옵션을 포함합니다.

FreshnessScoringFunction

날짜-시간 필드의 값에 따라 점수를 높이는 함수를 정의합니다.

FreshnessScoringParameters

새로 고침 점수 매기기 함수에 매개 변수 값을 제공합니다.

HnswParameters

HNSW 알고리즘과 관련된 매개 변수를 포함합니다.

HnswVectorSearchAlgorithmConfiguration

인덱싱 및 쿼리 중에 사용되는 HNSW 근사한 인접 알고리즘과 관련된 구성 옵션을 포함합니다. HNSW 알고리즘은 검색 속도와 정확도 간에 조정 가능한 절차를 제공합니다.

KeepTokenFilter

지정된 단어 목록에 포함된 텍스트로만 토큰을 유지하는 토큰 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

KeywordMarkerTokenFilter

용어를 키워드로 표시합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

KeywordTokenizer

전체 입력을 단일 토큰으로 내보냅니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

KeywordTokenizerV2

전체 입력을 단일 토큰으로 내보냅니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

LengthTokenFilter

너무 길거나 너무 짧은 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

LexicalAnalyzerName

검색 엔진에서 지원하는 모든 텍스트 분석기의 이름을 정의합니다.

LexicalTokenizerName

검색 엔진에서 지원하는 모든 토큰라이저의 이름을 정의합니다.

LimitTokenFilter

인덱싱을 할 때 토큰 수를 제한합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

LuceneStandardAnalyzer

표준 Apache Lucene 분석기; 표준 토큰라이저, 소문자 필터 및 중지 필터로 구성됩니다.

LuceneStandardTokenizer

유니코드 텍스트 구분 규칙에 따라 텍스트를 구분합니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

LuceneStandardTokenizerV2

유니코드 텍스트 구분 규칙에 따라 텍스트를 구분합니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

MagnitudeScoringFunction

숫자 필드의 크기에 따라 점수를 높이는 함수를 정의합니다.

MagnitudeScoringParameters

크기 채점 함수에 매개 변수 값을 제공합니다.

MappingCharFilter

매핑 옵션으로 정의된 매핑을 적용하는 문자 필터입니다. 일치는 greedy 방식을 따릅니다(지정된 지점에서 가장 긴 패턴 일치가 검색됨). 빈 문자열로 대체될 수 있습니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다.

MicrosoftLanguageStemmingTokenizer

언어별 규칙을 사용하여 텍스트를 구분하고, 단어를 기본 형식으로 줄입니다.

MicrosoftLanguageTokenizer

언어별 규칙을 사용하여 텍스트를 구분합니다.

MicrosoftStemmingTokenizerLanguage

Microsoft 언어 형태소 분석 토큰라이저에서 지원하는 언어를 Lists.

MicrosoftTokenizerLanguage

Microsoft 언어 토큰라이저에서 지원하는 언어를 Lists.

NGramTokenFilter

지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

NGramTokenFilterV2

지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

NGramTokenizer

입력을 지정된 크기의 n-gram으로 토큰화합니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

PathHierarchyTokenizerV2

경로와 같은 계층 구조의 토크나이저입니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

PatternAnalyzer

정규식 패턴을 통해 텍스트를 용어로 유연하게 구분합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다.

PatternCaptureTokenFilter

Java regexes를 사용하여 하나 이상의 패턴으로 각 캡처 그룹에 대해 하나씩 여러 토큰을 내보낸다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

PatternReplaceCharFilter

입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고, 대체 패턴을 사용하여 대체할 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", 패턴 "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다.

PatternReplaceTokenFilter

입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고, 대체 패턴을 사용하여 대체할 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", 패턴 "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

PatternTokenizer

regex 패턴 일치를 사용하여 고유한 토큰을 생성하는 토큰 변환기입니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

PhoneticEncoder

PhoneticTokenFilter와 함께 사용할 윗주 인코더의 유형을 식별합니다.

PhoneticTokenFilter

음성 일치 항목에 대한 토큰을 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

PrioritizedFields

의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 제목, 콘텐츠 및 키워드 필드를 설명합니다.

RegexFlags

패턴 분석기 및 패턴 토큰라이저에서 정규식이 사용되는 방식을 제어하기 위해 결합할 수 있는 플래그를 정의합니다.

ScoringFunctionAggregation

점수 매기기 프로필에 있는 모든 점수 매기기 함수의 결과를 결합하는 데 사용되는 집계 함수를 정의합니다.

ScoringFunctionInterpolation

다양한 문서에서 점수 상승의 보간에 사용되는 함수를 정의합니다.

ScoringProfile

검색 쿼리의 점수 매기기 에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다.

SearchError

API의 오류 조건에 대해 설명합니다.

SearchField

필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다.

SearchFieldDataType

검색 인덱스에서 필드의 데이터 형식을 정의합니다.

SearchIndex

인덱스의 필드 및 검색 동작을 설명하는 검색 인덱스 정의를 나타냅니다.

SearchResourceEncryptionKey

Azure Key Vault 고객 관리형 암호화 키입니다. 만들고 관리하는 키를 사용하여 인덱스 및 동의어 맵과 같은 검색 서비스에서 미사용 데이터를 암호화하거나 암호 해독할 수 있습니다.

SemanticConfiguration

의미 체계 기능의 컨텍스트에서 사용할 특정 구성을 정의합니다.

SemanticField

의미 체계 구성의 일부로 사용되는 필드입니다.

SemanticSettings

의미 체계 기능에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다.

ShingleTokenFilter

토큰의 조합을 단일 토큰으로 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

SnowballTokenFilter

Snowball에서 생성된 형태소 분석기를 사용하여 단어를 막는 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

SnowballTokenFilterLanguage

Snowball 토큰 필터에 사용할 언어입니다.

StemmerOverrideTokenFilter

사용자 지정 사전 기반 형태소 분석으로 다른 형태소 분석 필터를 재정의하는 기능을 제공합니다. 사전 형태소 분석된 용어는 키워드로 표시되므로 체인 아래로 형태소 분석기를 사용하여 형태소 분석되지 않습니다. 형태소 분석 필터 전에 배치해야 합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

StemmerTokenFilter

언어별 형태소 분석 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

StemmerTokenFilterLanguage

형태소 분석기 토큰 필터에 사용할 언어입니다.

StopAnalyzer

텍스트를 문자가 아닌 문자로 나눕니다. 소문자 및 중지 단어 토큰 필터를 적용합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다.

StopwordsList

언어별 중지 단어의 미리 정의된 목록을 식별합니다.

StopwordsTokenFilter

토큰 스트림에서 중지 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Suggester

인덱스의 필드 그룹에 Suggest API를 적용하는 방법을 정의합니다.

SuggesterSearchMode

제안기의 기능을 나타내는 값입니다.

SynonymTokenFilter

토큰 스트림의 단일 또는 다중 단어 동의어와 일치합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

TagScoringFunction

지정된 태그 목록과 일치하는 문자열 값을 사용하여 문서 점수를 높이는 함수를 정의합니다.

TagScoringParameters

태그 채점 함수에 매개 변수 값을 제공합니다.

TextWeights

일치 항목이 검색 쿼리에서 점수를 높여야 하는 인덱스 필드에 대한 가중치를 정의합니다.

TokenCharacterKind

토큰 필터가 작동할 수 있는 문자의 클래스를 나타냅니다.

TokenFilterName

검색 엔진에서 지원하는 모든 토큰 필터의 이름을 정의합니다.

TruncateTokenFilter

용어를 특정 길이로 자립니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

UaxUrlEmailTokenizer

URL과 이메일을 하나의 토큰으로 토큰화합니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

UniqueTokenFilter

이전 토큰과 동일한 텍스트를 포함하는 토큰을 필터링합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

VectorSearch

벡터 검색과 관련된 구성 옵션을 포함합니다.

VectorSearchAlgorithmKind

인덱싱 및 쿼리에 사용되는 알고리즘입니다.

VectorSearchAlgorithmMetric

벡터 비교에 사용할 유사성 메트릭입니다.

VectorSearchProfile

벡터 검색에 사용할 구성의 조합을 정의합니다.

WordDelimiterTokenFilter

단어를 부분 단어로 분할하고 부분 단어 그룹에 대해 선택적 변환을 수행합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

AsciiFoldingTokenFilter

처음 127개의 ASCII 문자("기본 라틴어" 유니코드 블록)에 없는 알파벳, 숫자 및 기호 유니코드 문자를 ASCII 등가물(있는 경우)으로 변환합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

preserveOriginal

boolean

False

원래 토큰을 유지할지 여부를 나타내는 값입니다. 기본값은 false입니다.

AzureActiveDirectoryApplicationCredentials

Azure Key Vault 저장된 암호화 키에 대한 인증된 액세스에 사용되는 검색 서비스에 대해 생성된 등록된 애플리케이션의 자격 증명입니다.

Name 형식 Description
applicationId

string

미사용 데이터를 암호화할 때 사용할 Azure Key Vault 필요한 액세스 권한이 부여된 AAD 애플리케이션 ID입니다. 애플리케이션 ID는 AAD 애플리케이션의 개체 ID와 혼동해서는 안 됩니다.

applicationSecret

string

지정된 AAD 애플리케이션의 인증 키입니다.

BM25Similarity

Okapi BM25 유사성 알고리즘을 기반으로 하는 순위 함수입니다. BM25는 길이 정규화('b' 매개 변수로 제어됨)와 용어 빈도 포화('k1' 매개 변수로 제어됨)를 포함하는 TF-IDF와 유사한 알고리즘입니다.

Name 형식 Description
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

b

number

이 속성은 문서의 길이가 관련성 점수에 미치는 영향을 제어합니다. 기본적으로 0.75의 값이 사용됩니다. 값 0.0은 길이 정규화가 적용되지 않음을 의미하고 값 1.0은 문서의 길이에 따라 점수가 완전히 정규화됨을 의미합니다.

k1

number

이 속성은 일치하는 각 용어의 용어 빈도와 문서 쿼리 쌍의 최종 관련성 점수 사이의 크기 조정 함수를 제어합니다. 기본적으로 1.2의 값이 사용됩니다. 값이 0.0이면 용어 빈도가 증가하여 점수가 스케일링되지 않습니다.

CharFilterName

검색 엔진에서 지원하는 모든 문자 필터의 이름을 정의합니다.

Name 형식 Description
html_strip

string

HTML 구문을 제거하려는 문자 필터입니다. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html를 참조하세요.

CjkBigramTokenFilter

표준 토큰화기에서 생성된 CJK 용어의 bigrams를 형성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

ignoreScripts

CjkBigramTokenFilterScripts[]

무시할 스크립트입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

outputUnigrams

boolean

False

유니그램 및 bigram(true인 경우)을 모두 출력할지 또는 bigram(false인 경우)만 출력할지를 나타내는 값입니다. 기본값은 false입니다.

CjkBigramTokenFilterScripts

CjkBigramTokenFilter에서 무시할 수 있는 스크립트입니다.

Name 형식 Description
han

string

CJK 용어의 bigrams를 구성할 때 Han 스크립트를 무시합니다.

hangul

string

CJK 용어의 bigrams를 구성할 때 한글 스크립트를 무시합니다.

hiragana

string

CJK 용어의 bigrams를 구성할 때 히라가나 스크립트를 무시합니다.

katakana

string

CJK 용어의 bigrams를 구성할 때 가타카나 스크립트를 무시합니다.

ClassicSimilarity

TF-IDF의 Lucene TFIDFSimilarity 구현을 사용하는 레거시 유사성 알고리즘입니다. 이러한 TF-IDF 변형은 정적 문서 길이 정규화뿐만 아니라 검색된 쿼리와 부분적으로만 일치하는 문서를 처벌하는 조정 요인을 도입합니다.

Name 형식 Description
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

ClassicTokenizer

대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰라이저입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

토큰라이저의 형식을 지정하는 URI 조각입니다.

maxTokenLength

integer

255

최대 토큰 길이입니다. 기본값은 255입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다.

name

string

토큰라이저의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

CommonGramTokenFilter

인덱싱 동안 자주 발생하는 용어에 대한 바이그램을 생성합니다. 단일 단어도 바이그램이 오버레이된 상태로 계속 인덱싱됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

commonWords

string[]

일반적인 단어 집합입니다.

ignoreCase

boolean

False

일반적인 단어 일치가 대/소문자를 구분하지 않는지 여부를 나타내는 값입니다. 기본값은 false입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

queryMode

boolean

False

토큰 필터가 쿼리 모드에 있는지 여부를 나타내는 값입니다. 쿼리 모드에서 토큰 필터는 bigrams를 생성한 다음 공통 단어와 단일 용어와 공통 단어를 제거합니다. 기본값은 false입니다.

CorsOptions

인덱스에 대한 CORS(원본 간 리소스 공유)를 제어하는 옵션을 정의합니다.

Name 형식 Description
allowedOrigins

string[]

JavaScript 코드에 인덱스에 대한 액세스 권한이 부여되는 원본 목록입니다. {protocol}://{fully-qualified-domain-name}[:{port#}] 형식의 호스트 목록을 포함하거나 모든 원본을 허용하는 단일 * (권장되지 않음)을 포함할 수 있습니다.

maxAgeInSeconds

integer

브라우저가 CORS 실행 전 응답을 캐시해야 하는 기간입니다. 기본값은 5분입니다.

CustomAnalyzer

텍스트를 인덱싱 가능/검색 가능한 토큰으로 변환하는 프로세스를 제어할 수 있습니다. 미리 정의된 단일 토큰라이저와 하나 이상의 필터로 구성된 사용자 정의 구성입니다. tokenizer는 텍스트를 토큰으로 분리하고 토큰라이저에서 내보낸 토큰을 수정하기 위한 필터를 담당합니다.

Name 형식 Description
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

분석기 유형을 지정하는 URI 조각입니다.

charFilters

CharFilterName[]

토큰라이저에서 처리하기 전에 입력 텍스트를 준비하는 데 사용되는 문자 필터 목록입니다. 예를 들어, 특정 문자 또는 기호를 대신할 수 있습니다. 필터는 나열된 순서대로 실행됩니다.

name

string

분석기의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

tokenFilters

TokenFilterName[]

토큰라이저에서 생성된 토큰을 필터링하거나 수정하는 데 사용되는 토큰 필터 목록입니다. 예를 들어, 모든 문자를 소문자로 변환하는 소문자 필터를 지정할 수 있습니다. 필터는 나열된 순서대로 실행됩니다.

tokenizer

LexicalTokenizerName

연속 텍스트를 일련의 토큰으로 나누는 데 사용할 토큰라이저의 이름입니다(예: 문장을 단어로 나누기).

DictionaryDecompounderTokenFilter

많은 게르만어파에 있는 복합 단어를 분해합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

maxSubwordSize

integer

15

최대 하위 단어 크기입니다. 이보다 짧은 하위 단어만 출력됩니다. 기본값은 15입니다. 최대값은 300입니다.

minSubwordSize

integer

2

최소 하위 단어 크기입니다. 이보다 긴 하위 단어만 출력됩니다. 기본값은 2입니다. 최대값은 300입니다.

minWordSize

integer

5

최소 단어 크기입니다. 이보다 긴 단어만 처리됩니다. 기본값은 5입니다. 최대값은 300입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

onlyLongestMatch

boolean

False

출력에 가장 긴 일치 하위 단어만 추가할지 여부를 나타내는 값입니다. 기본값은 false입니다.

wordList

string[]

일치시킬 단어 목록입니다.

DistanceScoringFunction

지리적 위치와의 거리에 따라 점수를 높이는 함수를 정의합니다.

Name 형식 Description
boost

number

원시 점수의 승수입니다. 1.0과 같지 않은 양수여야 합니다.

distance

DistanceScoringParameters

거리 채점 함수의 매개 변수 값입니다.

fieldName

string

채점 함수에 대한 입력으로 사용되는 필드의 이름입니다.

interpolation

ScoringFunctionInterpolation

문서 점수에서 부스팅을 보간하는 방법을 나타내는 값입니다. 기본값은 "선형"입니다.

type string:

distance

사용할 함수의 유형을 나타냅니다. 유효한 값에는 magnitude, freshness, distance, tag 등이 있습니다. 함수 형식은 소문자여야 합니다.

DistanceScoringParameters

거리 채점 함수에 매개 변수 값을 제공합니다.

Name 형식 Description
boostingDistance

number

증폭 범위가 끝나는 참조 위치에서 킬로미터 단위의 거리입니다.

referencePointParameter

string

참조 위치를 지정하기 위해 검색 쿼리에 전달된 매개 변수의 이름입니다.

EdgeNGramTokenFilter

입력 토큰의 앞뒤에서 시작하여 지정된 크기의 n그램을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

maxGram

integer

2

최대 n그램 길이입니다. 기본값은 2입니다.

minGram

integer

1

최소 n그램 길이입니다. 기본값은 1입니다. maxGram 값보다 작아야 합니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

side

EdgeNGramTokenFilterSide

front

n-gram을 생성할 입력의 어느 쪽을 지정합니다. 기본값은 "front"입니다.

EdgeNGramTokenFilterSide

n-gram을 생성해야 하는 입력의 어느 쪽을 지정합니다.

Name 형식 Description
back

string

입력의 뒷면에서 n-gram을 생성할 것을 지정합니다.

front

string

입력의 앞면에서 n-gram을 생성해야 되도록 지정합니다.

EdgeNGramTokenFilterV2

입력 토큰의 앞뒤에서 시작하여 지정된 크기의 n그램을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

토큰 필터 유형을 지정하는 URI 조각입니다.

maxGram

integer

2

최대 n그램 길이입니다. 기본값은 2입니다. 최대값은 300입니다.

minGram

integer

1

최소 n그램 길이입니다. 기본값은 1입니다. 최대값은 300입니다. maxGram 값보다 작아야 합니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

side

EdgeNGramTokenFilterSide

front

n-gram을 생성할 입력의 어느 쪽을 지정합니다. 기본값은 "front"입니다.

EdgeNGramTokenizer

에지의 입력을 지정된 크기의 n-그램으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

토큰라이저 유형을 지정하는 URI 조각입니다.

maxGram

integer

2

최대 n그램 길이입니다. 기본값은 2입니다. 최대값은 300입니다.

minGram

integer

1

최소 n그램 길이입니다. 기본값은 1입니다. 최대값은 300입니다. maxGram 값보다 작아야 합니다.

name

string

토큰라이저의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

tokenChars

TokenCharacterKind[]

토큰에 유지할 문자 클래스입니다.

ElisionTokenFilter

생략 발음을 제거합니다. 예를 들어 "l'avion"(평면)은 "avion"(평면)으로 변환됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 Description
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

articles

string[]

제거할 문서 집합입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

ExhaustiveKnnParameters

철저한 KNN 알고리즘과 관련된 매개 변수를 포함합니다.

Name 형식 Description
metric

VectorSearchAlgorithmMetric

벡터 비교에 사용할 유사성 메트릭입니다.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

전체 벡터 인덱스에서 무차별 암호 대입 검색을 수행하는 쿼리 중에 사용되는 철저한 KNN 알고리즘과 관련된 구성 옵션을 포함합니다.

Name 형식 Description
exhaustiveKnnParameters

ExhaustiveKnnParameters

철저한 KNN 알고리즘과 관련된 매개 변수를 포함합니다.

kind string:

exhaustiveKnn

벡터 검색에 사용하도록 구성되는 알고리즘의 종류 이름입니다.

name

string

이 특정 구성과 연결할 이름입니다.

FreshnessScoringFunction

날짜-시간 필드의 값에 따라 점수를 높이는 함수를 정의합니다.

Name 형식 Description
boost

number

원시 점수의 승수입니다. 1.0과 같지 않은 양수여야 합니다.

fieldName

string

채점 함수에 대한 입력으로 사용되는 필드의 이름입니다.

freshness

FreshnessScoringParameters

새로 고침 점수 매기기 함수에 대한 매개 변수 값입니다.

interpolation

ScoringFunctionInterpolation

문서 점수에서 부스팅을 보간하는 방법을 나타내는 값입니다. 기본값은 "선형"입니다.

type string:

freshness

사용할 함수의 유형을 나타냅니다. 유효한 값에는 magnitude, freshness, distance, tag 등이 있습니다. 함수 형식은 소문자여야 합니다.

FreshnessScoringParameters

새로 고침 점수 매기기 함수에 매개 변수 값을 제공합니다.

Name 형식 Description
boostingDuration

string

특정 문서에 대한 증폭이 중지되는 만료 기간입니다.

HnswParameters

HNSW 알고리즘과 관련된 매개 변수를 포함합니다.

Name 형식 기본값 Description
efConstruction

integer

400

인덱스 시간 동안 사용되는 가장 가까운 인접 항목이 포함된 동적 목록의 크기입니다. 이 매개 변수를 늘리면 인덱싱 시간이 늘어나면서 인덱스 품질이 향상될 수 있습니다. 특정 시점에서 이 매개 변수를 늘리면 반환이 감소합니다.

efSearch

integer

500

검색 시간 동안 사용되는 가장 가까운 인접 항목이 포함된 동적 목록의 크기입니다. 이 매개 변수를 늘리면 검색 결과가 향상되고 검색 속도가 느려질 수 있습니다. 특정 시점에서 이 매개 변수를 늘리면 반환이 감소합니다.

m

integer

4

생성 중에 모든 새 요소에 대해 생성된 양방향 링크 수입니다. 이 매개 변수 값을 늘리면 메모리 사용량이 증가하고 인덱싱 시간이 길어지는 대신 내장 차원이 높은 데이터 세트에 대한 회수 및 검색 시간이 단축될 수 있습니다.

metric

VectorSearchAlgorithmMetric

벡터 비교에 사용할 유사성 메트릭입니다.

HnswVectorSearchAlgorithmConfiguration

인덱싱 및 쿼리 중에 사용되는 HNSW 근사한 인접 알고리즘과 관련된 구성 옵션을 포함합니다. HNSW 알고리즘은 검색 속도와 정확도 간에 조정 가능한 절차를 제공합니다.

Name 형식 Description
hnswParameters

HnswParameters

HNSW 알고리즘과 관련된 매개 변수를 포함합니다.

kind string:

hnsw

벡터 검색에 사용하도록 구성되는 알고리즘의 종류 이름입니다.

name

string

이 특정 구성과 연결할 이름입니다.

KeepTokenFilter

지정된 단어 목록에 포함된 텍스트로만 토큰을 유지하는 토큰 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

keepWords

string[]

유지할 단어 목록입니다.

keepWordsCase

boolean

False

모든 단어를 먼저 소문자 표시할지 여부를 나타내는 값입니다. 기본값은 false입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

KeywordMarkerTokenFilter

용어를 키워드로 표시합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

ignoreCase

boolean

False

대/소문자를 무시할지 여부를 나타내는 값입니다. true이면 모든 단어가 먼저 소문자로 변환됩니다. 기본값은 false입니다.

keywords

string[]

키워드로 표시할 단어 목록입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

KeywordTokenizer

전체 입력을 단일 토큰으로 내보냅니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

토큰라이저 유형을 지정하는 URI 조각입니다.

bufferSize

integer

256

읽기 버퍼 크기(바이트)입니다. 기본값은 256입니다.

name

string

토큰라이저의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

KeywordTokenizerV2

전체 입력을 단일 토큰으로 내보냅니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

토큰라이저 유형을 지정하는 URI 조각입니다.

maxTokenLength

integer

256

최대 토큰 길이입니다. 기본값은 256입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다.

name

string

토큰라이저의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

LengthTokenFilter

너무 길거나 너무 짧은 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

max

integer

300

최대 문자 길이입니다. 기본값 및 최대값은 300입니다.

min

integer

0

최소 문자 길이입니다. 기본값은 0입니다. 최대값은 300입니다. max 값보다 작아야 합니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

LexicalAnalyzerName

검색 엔진에서 지원하는 모든 텍스트 분석기의 이름을 정의합니다.

Name 형식 Description
ar.lucene

string

아랍어용 Lucene 분석기입니다.

ar.microsoft

string

아랍어용 Microsoft 분석기.

bg.lucene

string

불가리아어용 Lucene 분석기입니다.

bg.microsoft

string

불가리아어용 Microsoft 분석기.

bn.microsoft

string

Bangla용 Microsoft 분석기.

ca.lucene

string

카탈로니아어용 Lucene 분석기.

ca.microsoft

string

카탈로니아어용 Microsoft 분석기.

cs.lucene

string

체코어용 Lucene 분석기.

cs.microsoft

string

체코용 Microsoft 분석기.

da.lucene

string

덴마크어용 Lucene 분석기.

da.microsoft

string

덴마크어용 Microsoft 분석기.

de.lucene

string

독일어용 Lucene 분석기입니다.

de.microsoft

string

독일어용 Microsoft 분석기.

el.lucene

string

그리스어용 Lucene 분석기입니다.

el.microsoft

string

그리스어용 Microsoft 분석기.

en.lucene

string

영어용 Lucene 분석기입니다.

en.microsoft

string

영어용 Microsoft 분석기.

es.lucene

string

스페인어용 Lucene 분석기입니다.

es.microsoft

string

스페인어용 Microsoft 분석기.

et.microsoft

string

에스토니아어용 Microsoft 분석기.

eu.lucene

string

Basque용 Lucene 분석기.

fa.lucene

string

페르시아어용 Lucene 분석기입니다.

fi.lucene

string

핀란드어용 Lucene 분석기.

fi.microsoft

string

핀란드어용 Microsoft 분석기.

fr.lucene

string

프랑스어용 Lucene 분석기입니다.

fr.microsoft

string

프랑스어용 Microsoft 분석기.

ga.lucene

string

아일랜드어용 Lucene 분석기.

gl.lucene

string

Galician용 Lucene 분석기.

gu.microsoft

string

구자라트어용 Microsoft 분석기.

he.microsoft

string

히브리어용 Microsoft 분석기.

hi.lucene

string

힌디어용 Lucene 분석기.

hi.microsoft

string

힌디어용 Microsoft 분석기.

hr.microsoft

string

크로아티아어용 Microsoft 분석기.

hu.lucene

string

헝가리어용 Lucene 분석기입니다.

hu.microsoft

string

헝가리어용 Microsoft 분석기.

hy.lucene

string

아르메니아어용 Lucene 분석기.

id.lucene

string

인도네시아어용 Lucene 분석기입니다.

id.microsoft

string

인도네시아어용 Microsoft 분석기(Bahasa).

is.microsoft

string

아이슬란드어용 Microsoft 분석기.

it.lucene

string

이탈리아어용 Lucene 분석기입니다.

it.microsoft

string

이탈리아어용 Microsoft 분석기.

ja.lucene

string

일본어용 Lucene 분석기입니다.

ja.microsoft

string

일본어용 Microsoft 분석기.

keyword

string

필드의 전체 콘텐츠를 단일 토큰으로 처리합니다. 우편 번호, ID 및 일부 제품 이름과 같은 데이터에 유용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html를 참조하세요.

kn.microsoft

string

Kannada용 Microsoft 분석기.

ko.lucene

string

한국어용 Lucene 분석기.

ko.microsoft

string

한국어용 Microsoft 분석기.

lt.microsoft

string

리투아니아어용 Microsoft 분석기.

lv.lucene

string

라트비아어용 Lucene 분석기.

lv.microsoft

string

라트비아어용 Microsoft 분석기.

ml.microsoft

string

Malayalam용 Microsoft 분석기.

mr.microsoft

string

Marathi용 Microsoft 분석기.

ms.microsoft

string

말레이어용 Microsoft 분석기(라틴어).

nb.microsoft

string

노르웨이어용 Microsoft 분석기(Bokmål).

nl.lucene

string

네덜란드어용 Lucene 분석기.

nl.microsoft

string

네덜란드어용 Microsoft 분석기.

no.lucene

string

노르웨이어용 Lucene 분석기.

pa.microsoft

string

펀자브용 Microsoft 분석기.

pattern

string

정규식 패턴을 통해 텍스트를 용어로 유연하게 구분합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html를 참조하세요.

pl.lucene

string

폴란드어용 Lucene 분석기.

pl.microsoft

string

폴란드어용 Microsoft 분석기.

pt-BR.lucene

string

포르투갈어(브라질)용 Lucene 분석기.

pt-BR.microsoft

string

포르투갈어(브라질)용 Microsoft 분석기.

pt-PT.lucene

string

포르투갈어(포르투갈)용 Lucene 분석기.

pt-PT.microsoft

string

포르투갈어(포르투갈)용 Microsoft 분석기.

ro.lucene

string

루마니아어용 Lucene 분석기입니다.

ro.microsoft

string

루마니아어용 Microsoft 분석기.

ru.lucene

string

러시아어용 Lucene 분석기입니다.

ru.microsoft

string

러시아어용 Microsoft 분석기.

simple

string

비문자에서 텍스트를 나눈 후 소문자로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html를 참조하세요.

sk.microsoft

string

Slovak용 Microsoft 분석기.

sl.microsoft

string

슬로베니아어용 Microsoft 분석기.

sr-cyrillic.microsoft

string

세르비아어용 Microsoft 분석기(키릴 자모).

sr-latin.microsoft

string

세르비아어용 Microsoft 분석기(라틴 문자)

standard.lucene

string

표준 Lucene 분석기.

standardasciifolding.lucene

string

표준 ASCII 접기 Lucene 분석기. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers을 참조하십시오.

stop

string

텍스트를 문자가 아닌 문자로 나눕니다. 소문자 및 중지 단어 토큰 필터를 적용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html를 참조하세요.

sv.lucene

string

스웨덴어용 Lucene 분석기입니다.

sv.microsoft

string

스웨덴어용 Microsoft 분석기.

ta.microsoft

string

타밀어용 Microsoft 분석기.

te.microsoft

string

Telugu용 Microsoft 분석기.

th.lucene

string

태국어용 Lucene 분석기.

th.microsoft

string

태국어용 Microsoft 분석기.

tr.lucene

string

터키어용 Lucene 분석기입니다.

tr.microsoft

string

터키어용 Microsoft 분석기.

uk.microsoft

string

우크라이나어용 Microsoft 분석기.

ur.microsoft

string

Urdu용 Microsoft 분석기.

vi.microsoft

string

베트남어용 Microsoft 분석기.

whitespace

string

공백 토크나이저를 사용하는 분석기입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html를 참조하세요.

zh-Hans.lucene

string

중국어용 Lucene 분석기(간체).

zh-Hans.microsoft

string

중국어용 Microsoft 분석기(간체).

zh-Hant.lucene

string

중국어(번체)용 Lucene 분석기입니다.

zh-Hant.microsoft

string

중국어용 Microsoft 분석기(번체).

LexicalTokenizerName

검색 엔진에서 지원하는 모든 토큰라이저의 이름을 정의합니다.

Name 형식 Description
classic

string

대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰라이저입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html을 참조하십시오.

edgeNGram

string

에지의 입력을 지정된 크기의 n그램으로 토큰화합니다. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html을 참조하십시오.

keyword_v2

string

전체 입력을 단일 토큰으로 내보냅니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html을 참조하십시오.

letter

string

비문자에서 텍스트를 나눕니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html를 참조하세요.

lowercase

string

비문자에서 텍스트를 나눈 후 소문자로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html을 참조하십시오.

microsoft_language_stemming_tokenizer

string

언어별 규칙을 사용하여 텍스트를 구분하고, 단어를 기본 형식으로 줄입니다.

microsoft_language_tokenizer

string

언어별 규칙을 사용하여 텍스트를 구분합니다.

nGram

string

입력을 지정된 크기의 n-gram으로 토큰화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html을 참조하십시오.

path_hierarchy_v2

string

경로와 같은 계층 구조의 토크나이저입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html을 참조하십시오.

pattern

string

regex 패턴 일치를 사용하여 고유한 토큰을 생성하는 토큰 변환기입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html을 참조하십시오.

standard_v2

string

표준 Lucene 분석기; 표준 토큰라이저, 소문자 필터 및 중지 필터로 구성됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html를 참조하세요.

uax_url_email

string

URL과 이메일을 하나의 토큰으로 토큰화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html를 참조하세요.

whitespace

string

공백에서 텍스트를 나눕니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html를 참조하세요.

LimitTokenFilter

인덱싱을 할 때 토큰 수를 제한합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

consumeAllTokens

boolean

False

maxTokenCount에 도달한 경우에도 입력의 모든 토큰을 사용해야 하는지 여부를 나타내는 값입니다. 기본값은 false입니다.

maxTokenCount

integer

1

생성할 최대 토큰 수입니다. 기본값은 1입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

LuceneStandardAnalyzer

표준 Apache Lucene 분석기; 표준 토큰라이저, 소문자 필터 및 중지 필터로 구성됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

분석기 유형을 지정하는 URI 조각입니다.

maxTokenLength

integer

255

최대 토큰 길이입니다. 기본값은 255입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다.

name

string

분석기의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

stopwords

string[]

중지 단어 목록입니다.

LuceneStandardTokenizer

유니코드 텍스트 구분 규칙에 따라 텍스트를 구분합니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

토큰라이저 유형을 지정하는 URI 조각입니다.

maxTokenLength

integer

255

최대 토큰 길이입니다. 기본값은 255입니다. 최대 길이보다 긴 토큰은 분할됩니다.

name

string

토큰라이저의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

LuceneStandardTokenizerV2

유니코드 텍스트 구분 규칙에 따라 텍스트를 구분합니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

토큰라이저 유형을 지정하는 URI 조각입니다.

maxTokenLength

integer

255

최대 토큰 길이입니다. 기본값은 255입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다.

name

string

토큰라이저의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

MagnitudeScoringFunction

숫자 필드의 크기에 따라 점수를 높이는 함수를 정의합니다.

Name 형식 Description
boost

number

원시 점수의 승수입니다. 1.0과 같지 않은 양수여야 합니다.

fieldName

string

채점 함수에 대한 입력으로 사용되는 필드의 이름입니다.

interpolation

ScoringFunctionInterpolation

문서 점수에서 부스팅을 보간하는 방법을 나타내는 값입니다. 기본값은 "선형"입니다.

magnitude

MagnitudeScoringParameters

크기 채점 함수의 매개 변수 값입니다.

type string:

magnitude

사용할 함수의 유형을 나타냅니다. 유효한 값에는 magnitude, freshness, distance, tag 등이 있습니다. 함수 형식은 소문자여야 합니다.

MagnitudeScoringParameters

크기 채점 함수에 매개 변수 값을 제공합니다.

Name 형식 Description
boostingRangeEnd

number

증폭이 끝나는 필드 값입니다.

boostingRangeStart

number

부스팅이 시작되는 필드 값입니다.

constantBoostBeyondRange

boolean

범위 끝 값을 초과하는 필드 값에 상수 부스트를 적용할지 여부를 나타내는 값입니다. 기본값은 false입니다.

MappingCharFilter

매핑 옵션으로 정의된 매핑을 적용하는 문자 필터입니다. 일치는 greedy 방식을 따릅니다(지정된 지점에서 가장 긴 패턴 일치가 검색됨). 빈 문자열로 대체될 수 있습니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 Description
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

char 필터의 형식을 지정하는 URI 조각입니다.

mappings

string[]

다음 형식의 매핑 목록입니다. "a=>b"(문자 "a"의 모든 발생은 문자 "b"로 바뀝니다).

name

string

char 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

MicrosoftLanguageStemmingTokenizer

언어별 규칙을 사용하여 텍스트를 구분하고, 단어를 기본 형식으로 줄입니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

토큰라이저 유형을 지정하는 URI 조각입니다.

isSearchTokenizer

boolean

False

토큰화기를 사용하는 방법을 나타내는 값입니다. 검색 토큰라이저로 사용되는 경우 true로 설정하고, 인덱싱 토큰라이저로 사용되는 경우 false로 설정합니다. 기본값은 false입니다.

language

MicrosoftStemmingTokenizerLanguage

사용할 언어입니다. 기본값은 영어입니다.

maxTokenLength

integer

255

최대 토큰 길이입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다. 300자보다 긴 토큰은 먼저 길이가 300인 토큰으로 분할된 다음, 각 토큰은 최대 토큰 길이 집합에 따라 분할됩니다. 기본값은 255입니다.

name

string

토큰라이저의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

MicrosoftLanguageTokenizer

언어별 규칙을 사용하여 텍스트를 구분합니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

토큰라이저 유형을 지정하는 URI 조각입니다.

isSearchTokenizer

boolean

False

토큰화기를 사용하는 방법을 나타내는 값입니다. 검색 토큰라이저로 사용되는 경우 true로 설정하고, 인덱싱 토큰라이저로 사용되는 경우 false로 설정합니다. 기본값은 false입니다.

language

MicrosoftTokenizerLanguage

사용할 언어입니다. 기본값은 영어입니다.

maxTokenLength

integer

255

최대 토큰 길이입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다. 300자보다 긴 토큰은 먼저 길이가 300인 토큰으로 분할된 다음, 각 토큰은 최대 토큰 길이 집합에 따라 분할됩니다. 기본값은 255입니다.

name

string

토큰라이저의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

MicrosoftStemmingTokenizerLanguage

Microsoft 언어 형태소 분석 토큰라이저에서 지원하는 언어를 Lists.

Name 형식 Description
arabic

string

아랍어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

bangla

string

Bangla에 대한 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

bulgarian

string

불가리아어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

catalan

string

카탈로니아어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

croatian

string

크로아티아어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

czech

string

체코어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

danish

string

덴마크어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

dutch

string

네덜란드어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

english

string

영어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

estonian

string

에스토니아어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

finnish

string

핀란드어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

french

string

프랑스어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

german

string

독일어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

greek

string

그리스어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

gujarati

string

구자라트어에 대한 Microsoft 형태소 분석 토큰라이저를 선택합니다.

hebrew

string

히브리어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

hindi

string

힌디어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

hungarian

string

헝가리어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

icelandic

string

아이슬란드어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

indonesian

string

인도네시아어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

italian

string

이탈리아어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

kannada

string

Kannada용 Microsoft 형태소 분석 토큰화기를 선택합니다.

latvian

string

라트비아어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

lithuanian

string

리투아니아어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

malay

string

말레이어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

malayalam

string

Malayalam에 대한 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

marathi

string

Marathi에 대한 Microsoft 형태소 분석 토큰화기를 선택합니다.

norwegianBokmaal

string

노르웨이어용 Microsoft 형태소 분석 토큰화기(Bokmål)를 선택합니다.

polish

string

폴란드어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

portuguese

string

포르투갈어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

portugueseBrazilian

string

포르투갈어(브라질)용 Microsoft 형태소 분석 토큰화기를 선택합니다.

punjabi

string

펀잡에 대한 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

romanian

string

루마니아어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

russian

string

러시아어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

serbianCyrillic

string

세르비아어(키릴 자모)에 대한 Microsoft 형태소 분석 토큰라이저를 선택합니다.

serbianLatin

string

세르비아어(라틴어)에 대한 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

slovak

string

Slovak용 Microsoft 형태소 분석 토큰라이저를 선택합니다.

slovenian

string

슬로베니아어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

spanish

string

스페인어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

swedish

string

스웨덴어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

tamil

string

타밀어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

telugu

string

Telugu용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

turkish

string

터키어용 Microsoft 형태소 분석 토큰화기를 선택합니다.

ukrainian

string

우크라이나어용 Microsoft 형태소 분석 토큰 변환기를 선택합니다.

urdu

string

Urdu용 Microsoft 형태소 분석 토큰화기를 선택합니다.

MicrosoftTokenizerLanguage

Microsoft 언어 토큰라이저에서 지원하는 언어를 Lists.

Name 형식 Description
bangla

string

Bangla용 Microsoft 토큰화기를 선택합니다.

bulgarian

string

불가리아어용 Microsoft 토큰화기를 선택합니다.

catalan

string

카탈로니아어용 Microsoft 토큰화기를 선택합니다.

chineseSimplified

string

중국어용 Microsoft 토큰화기(간체)를 선택합니다.

chineseTraditional

string

중국어(번체)용 Microsoft 토큰라이저를 선택합니다.

croatian

string

크로아티아어용 Microsoft 토큰화기를 선택합니다.

czech

string

체코어용 Microsoft 토큰화기를 선택합니다.

danish

string

덴마크어용 Microsoft 토큰화기를 선택합니다.

dutch

string

네덜란드어용 Microsoft 토큰화기를 선택합니다.

english

string

영어용 Microsoft 토큰화기를 선택합니다.

french

string

프랑스어용 Microsoft 토큰화기를 선택합니다.

german

string

독일어용 Microsoft 토큰화기를 선택합니다.

greek

string

그리스어용 Microsoft 토큰화기를 선택합니다.

gujarati

string

구자라트어용 Microsoft 토큰라이저를 선택합니다.

hindi

string

힌디어용 Microsoft 토큰 변환기를 선택합니다.

icelandic

string

아이슬란드어용 Microsoft 토큰라이저를 선택합니다.

indonesian

string

인도네시아어용 Microsoft 토큰화기를 선택합니다.

italian

string

이탈리아어용 Microsoft 토큰화기를 선택합니다.

japanese

string

일본어용 Microsoft 토큰화기를 선택합니다.

kannada

string

Kannada용 Microsoft 토큰라이저를 선택합니다.

korean

string

한국어용 Microsoft 토큰화기를 선택합니다.

malay

string

말레이어용 Microsoft 토큰화기를 선택합니다.

malayalam

string

Malayalam용 Microsoft 토큰라이저를 선택합니다.

marathi

string

Marathi용 Microsoft 토큰화기를 선택합니다.

norwegianBokmaal

string

노르웨이어용 Microsoft 토케나이저(Bokmål)를 선택합니다.

polish

string

폴란드어용 Microsoft 토큰화기를 선택합니다.

portuguese

string

포르투갈어용 Microsoft 토큰화기를 선택합니다.

portugueseBrazilian

string

포르투갈어(브라질)용 Microsoft 토큰화기를 선택합니다.

punjabi

string

펀자브어용 Microsoft 토큰라이저를 선택합니다.

romanian

string

루마니아어용 Microsoft 토큰화기를 선택합니다.

russian

string

러시아어용 Microsoft 토큰화기를 선택합니다.

serbianCyrillic

string

세르비아어(키릴 자모)용 Microsoft 토큰라이저를 선택합니다.

serbianLatin

string

세르비아어(라틴어)에 대한 Microsoft 토큰 변환기를 선택합니다.

slovenian

string

슬로베니아어용 Microsoft 토케나이저를 선택합니다.

spanish

string

스페인어용 Microsoft 토큰화기를 선택합니다.

swedish

string

스웨덴어용 Microsoft 토큰화기를 선택합니다.

tamil

string

타밀어용 Microsoft 토큰라이저를 선택합니다.

telugu

string

Telugu용 Microsoft 토큰라이저를 선택합니다.

thai

string

태국어용 Microsoft 토큰화기를 선택합니다.

ukrainian

string

우크라이나어용 Microsoft 토큰화기를 선택합니다.

urdu

string

Urdu용 Microsoft 토큰화기를 선택합니다.

vietnamese

string

베트남어용 Microsoft 토큰화기를 선택합니다.

NGramTokenFilter

지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

maxGram

integer

2

최대 n그램 길이입니다. 기본값은 2입니다.

minGram

integer

1

최소 n그램 길이입니다. 기본값은 1입니다. maxGram 값보다 작아야 합니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

NGramTokenFilterV2

지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

토큰 필터 유형을 지정하는 URI 조각입니다.

maxGram

integer

2

최대 n그램 길이입니다. 기본값은 2입니다. 최대값은 300입니다.

minGram

integer

1

최소 n그램 길이입니다. 기본값은 1입니다. 최대값은 300입니다. maxGram 값보다 작아야 합니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

NGramTokenizer

입력을 지정된 크기의 n-gram으로 토큰화합니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

토큰라이저 유형을 지정하는 URI 조각입니다.

maxGram

integer

2

최대 n그램 길이입니다. 기본값은 2입니다. 최대값은 300입니다.

minGram

integer

1

최소 n그램 길이입니다. 기본값은 1입니다. 최대값은 300입니다. maxGram 값보다 작아야 합니다.

name

string

토큰라이저의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

tokenChars

TokenCharacterKind[]

토큰에 유지할 문자 클래스입니다.

PathHierarchyTokenizerV2

경로와 같은 계층 구조의 토크나이저입니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

토큰라이저 유형을 지정하는 URI 조각입니다.

delimiter

string

/

사용할 구분 기호 문자입니다. 기본값은 "/"입니다.

maxTokenLength

integer

300

최대 토큰 길이입니다. 기본값 및 최대값은 300입니다.

name

string

토큰라이저의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

replacement

string

/

설정된 경우 구분 기호 문자를 바꾸는 값입니다. 기본값은 "/"입니다.

reverse

boolean

False

토큰을 역순으로 생성할지 여부를 나타내는 값입니다. 기본값은 false입니다.

skip

integer

0

건너뛸 초기 토큰 수입니다. 기본값은 0입니다.

PatternAnalyzer

정규식 패턴을 통해 텍스트를 용어로 유연하게 구분합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

분석기 유형을 지정하는 URI 조각입니다.

flags

RegexFlags

정규식 플래그입니다.

lowercase

boolean

True

용어가 소문자여야 하는지 여부를 나타내는 값입니다. 기본값은 true입니다.

name

string

분석기의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

pattern

string

\W+

토큰 구분 기호와 일치하는 정규식 패턴입니다. 기본값은 단어가 아닌 하나 이상의 문자와 일치하는 식입니다.

stopwords

string[]

중지 단어 목록입니다.

PatternCaptureTokenFilter

Java regexes를 사용하여 하나 이상의 패턴으로 각 캡처 그룹에 대해 하나씩 여러 토큰을 내보낸다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

patterns

string[]

각 토큰과 일치시킬 패턴 목록입니다.

preserveOriginal

boolean

True

패턴 중 하나가 일치하는 경우에도 원래 토큰을 반환할지 여부를 나타내는 값입니다. 기본값은 true입니다.

PatternReplaceCharFilter

입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고, 대체 패턴을 사용하여 대체할 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", 패턴 "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

char 필터의 형식을 지정하는 URI 조각입니다.

name

string

char 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

pattern

string

정규식 패턴입니다.

replacement

string

대체 텍스트입니다.

PatternReplaceTokenFilter

입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고, 대체 패턴을 사용하여 대체할 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", 패턴 "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

pattern

string

정규식 패턴입니다.

replacement

string

대체 텍스트입니다.

PatternTokenizer

regex 패턴 일치를 사용하여 고유한 토큰을 생성하는 토큰 변환기입니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

토큰라이저 유형을 지정하는 URI 조각입니다.

flags

RegexFlags

정규식 플래그입니다.

group

integer

-1

토큰으로 추출할 정규식 패턴에서 일치하는 그룹의 0부터 시작하는 서수입니다. 일치하는 그룹에 관계없이 전체 패턴을 사용하여 입력을 토큰으로 분할하려면 -1을 사용합니다. 기본값은 -1입니다.

name

string

토큰라이저의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

pattern

string

\W+

토큰 구분 기호와 일치하는 정규식 패턴입니다. 기본값은 단어가 아닌 하나 이상의 문자와 일치하는 식입니다.

PhoneticEncoder

PhoneticTokenFilter와 함께 사용할 윗주 인코더의 유형을 식별합니다.

Name 형식 Description
beiderMorse

string

토큰을 Beider-Morse 값으로 인코딩합니다.

caverphone1

string

토큰을 Caverphone 1.0 값으로 인코딩합니다.

caverphone2

string

토큰을 Caverphone 2.0 값으로 인코딩합니다.

cologne

string

토큰을 쾰른 발음 값으로 인코딩합니다.

doubleMetaphone

string

토큰을 이중 메타폰 값으로 인코딩합니다.

haasePhonetik

string

Kölner Phonetik 알고리즘의 Haase 구체화를 사용하여 토큰을 인코딩합니다.

koelnerPhonetik

string

Kölner Phonetik 알고리즘을 사용하여 토큰을 인코딩합니다.

metaphone

string

토큰을 Metaphone 값으로 인코딩합니다.

nysiis

string

토큰을 NYSIIS 값으로 인코딩합니다.

refinedSoundex

string

토큰을 구체화된 Soundex 값으로 인코딩합니다.

soundex

string

토큰을 Soundex 값으로 인코딩합니다.

PhoneticTokenFilter

음성 일치 항목에 대한 토큰을 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

토큰 필터 유형을 지정하는 URI 조각입니다.

encoder

PhoneticEncoder

metaphone

사용할 윗주 인코더입니다. 기본값은 "메타폰"입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

replace

boolean

True

인코딩된 토큰이 원래 토큰을 대체해야 하는지 여부를 나타내는 값입니다. false이면 인코딩된 토큰이 동의어로 추가됩니다. 기본값은 true입니다.

PrioritizedFields

의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 제목, 콘텐츠 및 키워드 필드를 설명합니다.

Name 형식 Description
prioritizedContentFields

SemanticField[]

의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 콘텐츠 필드를 정의합니다. 최상의 결과를 위해 선택한 필드에는 자연어 형식의 텍스트가 포함되어야 합니다. 배열의 필드 순서는 우선 순위를 나타냅니다. 콘텐츠가 길면 우선 순위가 낮은 필드가 잘리게 될 수 있습니다.

prioritizedKeywordsFields

SemanticField[]

의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 키워드(keyword) 필드를 정의합니다. 최상의 결과를 위해 선택한 필드에는 키워드 목록이 포함되어야 합니다. 배열의 필드 순서는 우선 순위를 나타냅니다. 콘텐츠가 길면 우선 순위가 낮은 필드가 잘리게 될 수 있습니다.

titleField

SemanticField

의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 제목 필드를 정의합니다. 인덱스의 제목 필드가 없는 경우 이 필드를 비워 둡니다.

RegexFlags

패턴 분석기 및 패턴 토큰라이저에서 정규식이 사용되는 방식을 제어하기 위해 결합할 수 있는 플래그를 정의합니다.

Name 형식 Description
CANON_EQ

string

정식 동등성을 사용하도록 설정합니다.

CASE_INSENSITIVE

string

대/소문자를 구분하지 않는 일치를 사용하도록 설정합니다.

COMMENTS

string

패턴에서 공백 및 주석을 허용합니다.

DOTALL

string

dotall 모드를 사용하도록 설정합니다.

LITERAL

string

패턴의 리터럴 구문 분석을 사용하도록 설정합니다.

MULTILINE

string

여러 줄 모드를 사용하도록 설정합니다.

UNICODE_CASE

string

유니코드 인식 대/소문자 폴딩을 사용하도록 설정합니다.

UNIX_LINES

string

Unix 줄 모드를 사용하도록 설정합니다.

ScoringFunctionAggregation

점수 매기기 프로필에 있는 모든 점수 매기기 함수의 결과를 결합하는 데 사용되는 집계 함수를 정의합니다.

Name 형식 Description
average

string

모든 점수 매기기 함수 결과의 평균으로 점수를 높입니다.

firstMatching

string

점수 매기기 프로필에서 적용 가능한 첫 번째 점수 매기기 함수를 사용하여 점수를 높입니다.

maximum

string

모든 점수 매기기 함수 결과의 최대값으로 점수를 높입니다.

minimum

string

모든 점수 매기기 함수 결과의 최소값으로 점수를 높입니다.

sum

string

모든 점수 매기기 함수 결과의 합계로 점수를 높입니다.

ScoringFunctionInterpolation

다양한 문서에서 점수 상승의 보간에 사용되는 함수를 정의합니다.

Name 형식 Description
constant

string

상수 요소로 점수를 높입니다.

linear

string

선형으로 감소하는 양만큼 점수를 높입니다. 이는 점수 매기기 함수의 기본 보간입니다.

logarithmic

string

로그적으로 감소하는 양만큼 점수를 높입니다. 상승은 더 높은 점수를 위해 빠르게 감소하고, 점수가 감소함에 따라 더 느리게 감소합니다. 이 보간 옵션은 tag 점수 매기기 함수에서 허용되지 않습니다.

quadratic

string

사분면적으로 감소하는 양만큼 점수를 높입니다. 상승은 더 높은 점수를 위해 천천히 감소하고, 점수가 감소함에 따라 더 빨리 감소합니다. 이 보간 옵션은 tag 점수 매기기 함수에서 허용되지 않습니다.

ScoringProfile

검색 쿼리의 점수 매기기 에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다.

Name 형식 Description
functionAggregation

ScoringFunctionAggregation

개별 채점 함수의 결과를 결합하는 방법을 나타내는 값입니다. 기본값은 "Sum"입니다. 점수 매기기 함수가 없으면 무시됩니다.

functions ScoringFunction[]:

문서의 점수 매기기 에 영향을 주는 함수의 컬렉션입니다.

name

string

점수 매기기 프로필의 이름입니다.

text

TextWeights

특정 인덱스 필드의 텍스트 일치를 기반으로 점수 매기기를 향상시키는 매개 변수입니다.

SearchError

API의 오류 조건에 대해 설명합니다.

Name 형식 Description
code

string

서버 정의 오류 코드 집합 중 하나입니다.

details

SearchError[]

이 보고된 오류로 이어진 특정 오류에 대한 세부 정보 배열입니다.

message

string

사람이 읽을 수 있는 오류 표현입니다.

SearchField

필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다.

Name 형식 Description
analyzer

LexicalAnalyzerName

필드에 사용할 분석기의 이름입니다. 이 옵션은 검색 가능한 필드에만 사용할 수 있으며 searchAnalyzer 또는 indexAnalyzer와 함께 설정할 수 없습니다. 필드에 대해 분석기를 선택한 후에는 변경할 수 없습니다. 복합 필드의 경우 null이어야 합니다.

dimensions

integer

벡터 필드의 차원입니다.

facetable

boolean

패싯 쿼리에서 필드를 참조할 수 있도록 설정할지 여부를 나타내는 값입니다. 일반적으로 범주별 적중 횟수를 포함하는 검색 결과 프레젠테이션에 사용됩니다(예: 디지털 카메라를 검색하고 브랜드별 적중 횟수, 메가픽셀별, 가격 등). 이 속성은 복합 필드의 경우 null이어야 합니다. Edm.GeographyPoint 또는 Collection(Edm.GeographyPoint) 형식의 필드는 패싯할 수 없습니다. 다른 모든 단순 필드에 대한 기본값은 true입니다.

fields

SearchField[]

Edm.ComplexType 또는 Collection(Edm.ComplexType) 형식의 필드인 경우 하위 필드 목록입니다. 단순 필드의 경우 null이거나 비어 있어야 합니다.

filterable

boolean

$filter 쿼리에서 필드를 참조할 수 있도록 설정할지 여부를 나타내는 값입니다. 필터링 가능 항목은 문자열 처리 방식에서 검색 가능 항목과 다릅니다. 필터링할 수 있는 Edm.String 또는 Collection(Edm.String) 형식의 필드는 단어 분리를 거치지 않으므로 정확히 일치하는 항목에 대해서만 비교됩니다. 예를 들어 이러한 필드 f를 "화창한 날"로 설정하면 $filter=f eq 'sunny'는 일치하는 항목을 찾을 수 없지만 $filter=f eq 'sunny day'는 입니다. 이 속성은 복합 필드의 경우 null이어야 합니다. 기본값은 단순 필드의 경우 true이고 복합 필드에는 null입니다.

indexAnalyzer

LexicalAnalyzerName

필드의 인덱싱 시간에 사용되는 분석기의 이름입니다. 이 옵션은 검색 가능한 필드에만 사용할 수 있습니다. searchAnalyzer와 함께 설정해야 하며 분석기 옵션과 함께 설정할 수 없습니다. 이 속성은 언어 분석기의 이름으로 설정할 수 없습니다. 언어 분석기가 필요한 경우 대신 분석기 속성을 사용합니다. 필드에 대해 분석기를 선택한 후에는 변경할 수 없습니다. 복합 필드의 경우 null이어야 합니다.

key

boolean

필드가 인덱스의 문서를 고유하게 식별하는지 여부를 나타내는 값입니다. 각 인덱스에서 정확히 하나의 최상위 필드를 키 필드로 선택해야 하며 Edm.String 형식이어야 합니다. 키 필드는 문서를 직접 조회하고 특정 문서를 업데이트하거나 삭제하는 데 사용할 수 있습니다. 단순 필드의 경우 기본값이 false이고 복합 필드의 경우 null입니다.

name

string

인덱스 또는 부모 필드의 필드 컬렉션 내에서 고유해야 하는 필드의 이름입니다.

retrievable

boolean

검색 결과에서 필드를 반환할 수 있는지 여부를 나타내는 값입니다. 필드(예: 여백)를 필터, 정렬 또는 채점 메커니즘으로 사용하지만 최종 사용자에게 필드를 표시하지 않으려면 이 옵션을 사용하지 않도록 설정할 수 있습니다. 이 속성은 키 필드에 대해 true여야 하며 복합 필드의 경우 null이어야 합니다. 이 속성은 기존 필드에서 변경할 수 있습니다. 이 속성을 사용하도록 설정해도 인덱스 스토리지 요구 사항이 증가하지는 않습니다. 기본값은 단순 필드의 경우 true이고 복합 필드에는 null입니다.

searchAnalyzer

LexicalAnalyzerName

필드에 대한 검색 시간에 사용되는 분석기의 이름입니다. 이 옵션은 검색 가능한 필드에만 사용할 수 있습니다. indexAnalyzer와 함께 설정해야 하며 분석기 옵션과 함께 설정할 수 없습니다. 이 속성은 언어 분석기의 이름으로 설정할 수 없습니다. 언어 분석기가 필요한 경우 대신 분석기 속성을 사용합니다. 이 분석기는 기존 필드에서 업데이트할 수 있습니다. 복합 필드의 경우 null이어야 합니다.

searchable

boolean

필드가 전체 텍스트 검색 가능한지 여부를 나타내는 값입니다. 이렇게 표시된 필드의 경우 인덱싱 중에 단어 분리 등의 분석이 수행됩니다. 검색 가능 필드를 “sunny day” 등의 값으로 설정하면 내부적으로 해당 필드가 개별 토큰 “sunny”와 “day”로 분할됩니다. 따라서 이러한 용어에 대한 전체 텍스트 검색을 수행할 수 있습니다. Edm.String 또는 Collection(Edm.String) 형식의 필드는 기본적으로 검색할 수 있습니다. 이 속성은 문자열이 아닌 다른 데이터 형식의 단순 필드에 대해 false여야 하며 복합 필드의 경우 null이어야 합니다. 참고: 검색 가능한 필드는 전체 텍스트 검색에 대한 필드 값의 토큰화된 추가 버전을 수용하기 위해 인덱스의 추가 공간을 사용합니다. 인덱스의 공간을 절약하고 검색에 필드를 포함할 필요가 없는 경우 searchable을 false로 설정합니다.

sortable

boolean

$orderby 식에서 필드를 참조할 수 있도록 설정할지 여부를 나타내는 값입니다. 기본적으로 검색 엔진은 점수를 기준으로 결과를 정렬하지만 많은 환경에서 사용자는 문서의 필드를 기준으로 정렬하려고 합니다. 단순 필드는 단일 값(부모 문서의 scope 단일 값 포함)인 경우에만 정렬할 수 있습니다. 단순 컬렉션 필드는 다중 값이므로 정렬할 수 없습니다. 복합 컬렉션의 단순 하위 필드도 다중 값이므로 정렬할 수 없습니다. 이는 바로 부모 필드이든 상위 필드이든 관계없이 복잡한 컬렉션입니다. 복합 필드는 정렬할 수 없으며 정렬 가능한 속성은 해당 필드에 대해 null이어야 합니다. 정렬 가능의 기본값은 단일 값 단순 필드의 경우 true이고, 다중값 단순 필드에는 false이고, 복합 필드에는 null입니다.

synonymMaps

string[]

이 필드와 연결할 동의어 맵의 이름 목록입니다. 이 옵션은 검색 가능한 필드에만 사용할 수 있습니다. 현재 필드당 하나의 동의어 맵만 지원됩니다. 동의어 맵을 필드에 할당하면 해당 필드를 대상으로 하는 쿼리 용어가 동의어 맵의 규칙을 사용하여 쿼리 시간에 확장됩니다. 이 특성은 기존 필드에서 변경할 수 있습니다. 복합 필드의 경우 null이거나 빈 컬렉션이어야 합니다.

type

SearchFieldDataType

필드의 데이터 형식입니다.

vectorSearchProfile

string

벡터 필드를 검색할 때 사용할 알고리즘을 지정하는 벡터 검색 프로필의 이름입니다.

SearchFieldDataType

검색 인덱스에서 필드의 데이터 형식을 정의합니다.

Name 형식 Description
Edm.Boolean

string

필드에 부울 값(true 또는 false)이 포함되어 있음을 나타냅니다.

Edm.ComplexType

string

필드에 다른 형식의 하위 필드가 있는 하나 이상의 복잡한 개체가 포함되어 있음을 나타냅니다.

Edm.DateTimeOffset

string

필드에 표준 시간대 정보를 포함한 날짜/시간 값이 포함되어 있음을 나타냅니다.

Edm.Double

string

필드에 IEEE 배정밀도 부동 소수점 번호가 포함되어 있음을 나타냅니다.

Edm.GeographyPoint

string

필드에 경도 및 위도 측면에서 지리적 위치가 포함되어 있음을 나타냅니다.

Edm.Int32

string

필드에 부 서명된 32비트 정수가 포함되어 있음을 나타냅니다.

Edm.Int64

string

필드에 64비트 부가 정수가 포함되어 있음을 나타냅니다.

Edm.Single

string

필드에 단정밀도 부동 소수점 숫자가 포함되어 있음을 나타냅니다. Collection(Edm.Single)과 함께 사용할 때만 유효합니다.

Edm.String

string

필드에 문자열이 포함되어 있음을 나타냅니다.

SearchIndex

인덱스의 필드 및 검색 동작을 설명하는 검색 인덱스 정의를 나타냅니다.

Name 형식 Description
@odata.etag

string

인덱스의 ETag입니다.

analyzers LexicalAnalyzer[]:

인덱스에 대한 분석기입니다.

charFilters CharFilter[]:

인덱스에 대한 문자 필터입니다.

corsOptions

CorsOptions

인덱스에 대한 CORS(원본 간 리소스 공유)를 제어하는 옵션입니다.

defaultScoringProfile

string

쿼리에 지정되지 않은 경우 사용할 점수 매기기 프로필의 이름입니다. 이 속성이 설정되지 않고 쿼리에 점수 매기기 프로필이 지정되지 않은 경우 기본 점수 매기기(tf-idf)가 사용됩니다.

encryptionKey

SearchResourceEncryptionKey

Azure Key Vault 만드는 암호화 키에 대한 설명입니다. 이 키는 Microsoft를 비롯한 누구도 데이터의 암호를 해독할 수 없음을 완전히 보장하려는 경우 데이터에 대한 추가 수준의 미사용 암호화를 제공하는 데 사용됩니다. 데이터를 암호화한 후에는 항상 암호화된 상태로 유지됩니다. 검색 서비스는 이 속성을 null로 설정하려는 시도를 무시합니다. 암호화 키를 회전하려는 경우 필요에 따라 이 속성을 변경할 수 있습니다. 데이터는 영향을 받지 않습니다. 고객 관리형 키를 사용하는 암호화는 무료 검색 서비스에 사용할 수 없으며 2019년 1월 1일 또는 그 이후에 생성된 유료 서비스에만 사용할 수 있습니다.

fields

SearchField[]

인덱스의 필드입니다.

name

string

인덱스의 이름입니다.

scoringProfiles

ScoringProfile[]

인덱스에 대한 점수 매기기 프로필입니다.

semantic

SemanticSettings

의미 체계 기능에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다.

similarity Similarity:

검색 쿼리와 일치하는 문서의 점수를 매기고 순위를 지정하는 데 사용할 유사성 알고리즘의 유형입니다. 유사성 알고리즘은 인덱스를 만들 때만 정의할 수 있으며 기존 인덱스에서 수정할 수 없습니다. null이면 ClassicSimilarity 알고리즘이 사용됩니다.

suggesters

Suggester[]

인덱스 제안기입니다.

tokenFilters TokenFilter[]:

인덱스에 대한 토큰 필터입니다.

tokenizers LexicalTokenizer[]:

인덱스에 대한 토큰라이저입니다.

vectorSearch

VectorSearch

벡터 검색과 관련된 구성 옵션을 포함합니다.

SearchResourceEncryptionKey

Azure Key Vault 고객 관리형 암호화 키입니다. 만들고 관리하는 키를 사용하여 인덱스 및 동의어 맵과 같은 검색 서비스에서 미사용 데이터를 암호화하거나 암호 해독할 수 있습니다.

Name 형식 Description
accessCredentials

AzureActiveDirectoryApplicationCredentials

Azure Key Vault 액세스하는 데 사용되는 선택적 Azure Active Directory 자격 증명입니다. 대신 관리 ID를 사용하는 경우에는 필요하지 않습니다.

keyVaultKeyName

string

미사용 데이터를 암호화하는 데 사용할 Azure Key Vault 키의 이름입니다.

keyVaultKeyVersion

string

미사용 데이터를 암호화하는 데 사용할 Azure Key Vault 키의 버전입니다.

keyVaultUri

string

미사용 데이터를 암호화하는 데 사용할 키가 포함된 AZURE Key Vault(DNS 이름이라고도 함)의 URI입니다. 예제 URL은 https://my-keyvault-name.vault.azure.net을 참조하십시오.

SemanticConfiguration

의미 체계 기능의 컨텍스트에서 사용할 특정 구성을 정의합니다.

Name 형식 Description
name

string

의미 체계 구성의 이름입니다.

prioritizedFields

PrioritizedFields

의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 제목, 콘텐츠 및 키워드(keyword) 필드에 대해 설명합니다. 세 가지 하위 속성(titleField, prioritizedKeywordsFields 및 prioritizedContentFields) 중 하나 이상을 설정해야 합니다.

SemanticField

의미 체계 구성의 일부로 사용되는 필드입니다.

Name 형식 Description
fieldName

string

SemanticSettings

의미 체계 기능에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다.

Name 형식 Description
configurations

SemanticConfiguration[]

인덱스에 대한 의미 체계 구성입니다.

defaultConfiguration

string

인덱스에서 기본 의미 체계 구성의 이름을 설정할 수 있으므로 매번 쿼리 매개 변수로 전달할 수 있습니다.

ShingleTokenFilter

토큰의 조합을 단일 토큰으로 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

토큰 필터의 유형을 지정하는 URI 조각입니다.

filterToken

string

_

토큰이 없는 각 위치에 삽입할 문자열입니다. 기본값은 밑줄("_")입니다.

maxShingleSize

integer

2

최대 대상 포진 크기입니다. 기본값과 최소값은 2입니다.

minShingleSize

integer

2

최소 대상 포진 크기입니다. 기본값과 최소값은 2입니다. maxShingleSize 값보다 작아야 합니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

outputUnigrams

boolean

True

출력 스트림에 입력 토큰(유니그램)과 대상 포진이 포함되는지 여부를 나타내는 값입니다. 기본값은 true입니다.

outputUnigramsIfNoShingles

boolean

False

대상 포진을 사용할 수 없는 시간에 대해 유니그램을 출력할지 여부를 나타내는 값입니다. outputUnigrams가 false로 설정된 경우 이 속성이 우선합니다. 기본값은 false입니다.

tokenSeparator

string

인접한 토큰을 조인하여 대상 포진을 형성하는 데 사용할 문자열입니다. 기본값은 단일 공간(" ")입니다.

SnowballTokenFilter

Snowball에서 생성된 형태소 분석기를 사용하여 단어를 막는 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 Description
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

토큰 필터의 유형을 지정하는 URI 조각입니다.

language

SnowballTokenFilterLanguage

사용할 언어입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

SnowballTokenFilterLanguage

Snowball 토큰 필터에 사용할 언어입니다.

Name 형식 Description
armenian

string

아르메니아의 루센 스노우볼 형태소 분석 토큰라이저를 선택합니다.

basque

string

바스크어의 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

catalan

string

카탈로니아어의 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

danish

string

덴마크어의 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

dutch

string

네덜란드어의 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

english

string

영어로 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

finnish

string

핀란드어의 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

french

string

프랑스어용 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

german

string

독일어로 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

german2

string

독일 변형 알고리즘을 사용하는 Lucene Snowball 형태소 분석 토큰라이저를 선택합니다.

hungarian

string

헝가리어의 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

italian

string

이탈리아어로 루센 스노우볼 형태소 분석 토큰라이저를 선택합니다.

kp

string

Kraaij-Pohlmann 형태소 분석 알고리즘을 사용하는 네덜란드어용 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

lovins

string

Lovins 형태소 분석 알고리즘을 사용하는 영어용 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

norwegian

string

노르웨이어의 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

porter

string

Porter 형태소 분석 알고리즘을 사용하는 영어용 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

portuguese

string

포르투갈어의 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

romanian

string

루마니아어의 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

russian

string

러시아어용 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

spanish

string

스페인어로 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

swedish

string

스웨덴어의 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

turkish

string

터키어용 Lucene Snowball 형태소 분석 토크나이저를 선택합니다.

StemmerOverrideTokenFilter

사용자 지정 사전 기반 형태소 분석으로 다른 형태소 분석 필터를 재정의하는 기능을 제공합니다. 사전 형태소 분석된 용어는 키워드로 표시되므로 체인 아래로 형태소 분석기를 사용하여 형태소 분석되지 않습니다. 형태소 분석 필터 전에 배치해야 합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 Description
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

토큰 필터의 유형을 지정하는 URI 조각입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

rules

string[]

"word = stem"(예: "ran =>> run") 형식의 형태소 분석 규칙 목록입니다.

StemmerTokenFilter

언어별 형태소 분석 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 Description
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

토큰 필터의 유형을 지정하는 URI 조각입니다.

language

StemmerTokenFilterLanguage

사용할 언어입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

StemmerTokenFilterLanguage

형태소 분석기 토큰 필터에 사용할 언어입니다.

Name 형식 Description
arabic

string

아랍어로 Lucene 형태소 분석 토크나이저를 선택합니다.

armenian

string

아르메니아어의 Lucene 형태소 분석 토큰라이저를 선택합니다.

basque

string

Basque에 대한 Lucene 형태소 분석 토크나이저를 선택합니다.

brazilian

string

포르투갈어(브라질)용 Lucene 형태소 분석 토크나이저를 선택합니다.

bulgarian

string

불가리아어의 Lucene 형태소 분석 토크나이저를 선택합니다.

catalan

string

카탈로니아어의 Lucene 형태소 분석 토크나이저를 선택합니다.

czech

string

체코어의 Lucene 형태소 분석 토크나이저를 선택합니다.

danish

string

덴마크어의 Lucene 형태소 분석 토크나이저를 선택합니다.

dutch

string

네덜란드어의 Lucene 형태소 분석 토크나이저를 선택합니다.

dutchKp

string

Kraaij-Pohlmann 형태소 분석 알고리즘을 사용하는 네덜란드어용 Lucene 형태소 분석 토크나이저를 선택합니다.

english

string

영어로 Lucene 형태소 분석 토크나이저를 선택합니다.

finnish

string

핀란드어의 Lucene 형태소 분석 토크나이저를 선택합니다.

french

string

프랑스어로 Lucene 형태소 분석 토큰라이저를 선택합니다.

galician

string

갈리시아어의 Lucene 형태소 분석 토큰라이저를 선택합니다.

german

string

독일어로 Lucene 형태소 분석 토크나이저를 선택합니다.

german2

string

독일어 변형 알고리즘을 사용하는 Lucene 형태소 분석 토크나이저를 선택합니다.

greek

string

그리스어의 Lucene 형태소 분석 토크나이저를 선택합니다.

hindi

string

힌디어에 대한 Lucene 형태소 분석 토크나이저를 선택합니다.

hungarian

string

헝가리어의 Lucene 형태소 분석 토크나이저를 선택합니다.

indonesian

string

인도네시아어의 Lucene 형태소 분석 토크나이저를 선택합니다.

irish

string

아일랜드어의 Lucene 형태소 분석 토크나이저를 선택합니다.

italian

string

이탈리아어로 Lucene 형태소 분석 토크나이저를 선택합니다.

latvian

string

라트비아어의 Lucene 형태소 분석 토크나이저를 선택합니다.

lightEnglish

string

빛 형태소 분석을 수행하는 영어의 Lucene 형태소 분석 토크나이저를 선택합니다.

lightFinnish

string

빛 형태소 분석을 수행하는 핀란드어의 Lucene 형태소 분석 토큰라이저를 선택합니다.

lightFrench

string

광원 형태소 분석을 수행하는 프랑스어용 Lucene 형태소 분석 토큰라이저를 선택합니다.

lightGerman

string

빛 형태소 분석을 수행하는 독일어의 Lucene 형태소 분석 토크나이저를 선택합니다.

lightHungarian

string

광원 형태소 분석을 수행하는 헝가리어의 Lucene 형태소 분석 토큰라이저를 선택합니다.

lightItalian

string

가벼운 형태소 분석을 수행하는 이탈리아어의 Lucene 형태소 분석 토크나이저를 선택합니다.

lightNorwegian

string

빛 형태소 분석을 수행하는 노르웨이어(Bokmål)용 Lucene 형태소 분석 토크나이저를 선택합니다.

lightNynorsk

string

빛 형태소 분석을 수행하는 노르웨이어(Nynorsk)용 Lucene 형태소 분석 토크나이저를 선택합니다.

lightPortuguese

string

광원 형태소 분석을 수행하는 포르투갈어의 Lucene 형태소 분석 토큰라이저를 선택합니다.

lightRussian

string

광원 형태소 분석을 수행하는 러시아어용 Lucene 형태소 분석 토크나이저를 선택합니다.

lightSpanish

string

광원 형태소 분석을 수행하는 스페인어의 Lucene 형태소 분석 토크나이저를 선택합니다.

lightSwedish

string

빛 형태소 분석을 수행하는 스웨덴어의 Lucene 형태소 분석 토크나이저를 선택합니다.

lovins

string

Lovins 형태소 분석 알고리즘을 사용하는 영어의 Lucene 형태소 분석 토크나이저를 선택합니다.

minimalEnglish

string

최소한의 형태소 분석을 수행하는 영어의 Lucene 형태소 분석 토크나이저를 선택합니다.

minimalFrench

string

최소한의 형태소 분석을 수행하는 프랑스어용 Lucene 형태소 분석 토크나이저를 선택합니다.

minimalGalician

string

형태소 분석을 최소화하는 Galician의 Lucene 형태소 분석 토큰라이저를 선택합니다.

minimalGerman

string

최소한의 형태소 분석을 수행하는 독일어의 Lucene 형태소 분석 토큰라이저를 선택합니다.

minimalNorwegian

string

최소한의 형태소 분석을 수행하는 노르웨이어(Bokmål)용 Lucene 형태소 분석 토크나이저를 선택합니다.

minimalNynorsk

string

최소한의 형태소 분석을 수행하는 노르웨이어(Nynorsk)용 Lucene 형태소 분석 토크나이저를 선택합니다.

minimalPortuguese

string

최소한의 형태소 분석을 수행하는 포르투갈어의 Lucene 형태소 분석 토크나이저를 선택합니다.

norwegian

string

노르웨이어(Bokmål)용 Lucene 형태소 분석 토크나이저를 선택합니다.

porter2

string

Porter2 형태소 분석 알고리즘을 사용하는 영어의 Lucene 형태소 분석 토크나이저를 선택합니다.

portuguese

string

포르투갈어의 Lucene 형태소 분석 토크나이저를 선택합니다.

portugueseRslp

string

RSLP 형태소 분석 알고리즘을 사용하는 포르투갈어의 Lucene 형태소 분석 토크나이저를 선택합니다.

possessiveEnglish

string

단어에서 후행 소유를 제거하는 영어의 Lucene 형태소 분석 토크나이저를 선택합니다.

romanian

string

루마니아어의 Lucene 형태소 분석 토크나이저를 선택합니다.

russian

string

러시아어의 Lucene 형태소 분석 토크나이저를 선택합니다.

sorani

string

소라니에 대한 Lucene 형태소 분석 토큰라이저를 선택합니다.

spanish

string

스페인어로 Lucene 형태소 분석 토크나이저를 선택합니다.

swedish

string

스웨덴어의 Lucene 형태소 분석 토크나이저를 선택합니다.

turkish

string

터키어의 Lucene 형태소 분석 토크나이저를 선택합니다.

StopAnalyzer

텍스트를 문자가 아닌 문자로 나눕니다. 소문자 및 중지 단어 토큰 필터를 적용합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 Description
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

분석기 유형을 지정하는 URI 조각입니다.

name

string

분석기의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

stopwords

string[]

중지 단어 목록입니다.

StopwordsList

언어별 중지 단어의 미리 정의된 목록을 식별합니다.

Name 형식 Description
arabic

string

아랍어에 대한 중지 단어 목록을 선택합니다.

armenian

string

아르메니아어의 중지 단어 목록을 선택합니다.

basque

string

Basque에 대한 중지 단어 목록을 선택합니다.

brazilian

string

포르투갈어(브라질)의 중지 단어 목록을 선택합니다.

bulgarian

string

불가리아어의 중지 단어 목록을 선택합니다.

catalan

string

카탈로니아어의 중지 단어 목록을 선택합니다.

czech

string

체코어의 중지 단어 목록을 선택합니다.

danish

string

덴마크어의 중지 단어 목록을 선택합니다.

dutch

string

네덜란드어의 중지 단어 목록을 선택합니다.

english

string

영어의 중지 단어 목록을 선택합니다.

finnish

string

핀란드어의 중지 단어 목록을 선택합니다.

french

string

프랑스어에 대한 중지 단어 목록을 선택합니다.

galician

string

Galician에 대한 중지 단어 목록을 선택합니다.

german

string

독일어의 중지 단어 목록을 선택합니다.

greek

string

그리스어의 중지 단어 목록을 선택합니다.

hindi

string

힌디어에 대한 중지 단어 목록을 선택합니다.

hungarian

string

헝가리어의 중지 단어 목록을 선택합니다.

indonesian

string

인도네시아어의 중지 단어 목록을 선택합니다.

irish

string

아일랜드어의 중지 단어 목록을 선택합니다.

italian

string

이탈리아어의 중지 단어 목록을 선택합니다.

latvian

string

라트비아어의 중지 단어 목록을 선택합니다.

norwegian

string

노르웨이어의 중지 단어 목록을 선택합니다.

persian

string

페르시아어의 중지 단어 목록을 선택합니다.

portuguese

string

포르투갈어의 중지 단어 목록을 선택합니다.

romanian

string

루마니아어의 중지 단어 목록을 선택합니다.

russian

string

러시아어에 대한 중지 단어 목록을 선택합니다.

sorani

string

Sorani의 중지 단어 목록을 선택합니다.

spanish

string

스페인어에 대한 중지 단어 목록을 선택합니다.

swedish

string

스웨덴어의 중지 단어 목록을 선택합니다.

thai

string

태국어의 중지 단어 목록을 선택합니다.

turkish

string

터키어의 중지 단어 목록을 선택합니다.

StopwordsTokenFilter

토큰 스트림에서 중지 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

토큰 필터의 유형을 지정하는 URI 조각입니다.

ignoreCase

boolean

False

대/소문자를 무시할지 여부를 나타내는 값입니다. true이면 모든 단어가 먼저 소문자로 변환됩니다. 기본값은 false입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

removeTrailing

boolean

True

중지 단어인 경우 마지막 검색어를 무시할지 여부를 나타내는 값입니다. 기본값은 true입니다.

stopwords

string[]

중지 단어 목록입니다. 이 속성과 중지 단어 목록 속성은 둘 다 설정할 수 없습니다.

stopwordsList

StopwordsList

english

사용할 중지 단어의 미리 정의된 목록입니다. 이 속성과 stopwords 속성은 둘 다 설정할 수 없습니다. 기본값은 영어입니다.

Suggester

인덱스의 필드 그룹에 Suggest API를 적용하는 방법을 정의합니다.

Name 형식 Description
name

string

제안기의 이름입니다.

searchMode

SuggesterSearchMode

제안기의 기능을 나타내는 값입니다.

sourceFields

string[]

제안기가 적용되는 필드 이름 목록입니다. 각 필드를 검색할 수 있어야 합니다.

SuggesterSearchMode

제안기의 기능을 나타내는 값입니다.

Name 형식 Description
analyzingInfixMatching

string

필드의 연속된 전체 용어 및 접두사를 일치합니다. 예를 들어 '가장 빠른 갈색 여우' 필드의 경우 쿼리 '빠른' 및 '가장 빠른 눈썹'은 모두 일치합니다.

SynonymTokenFilter

토큰 스트림의 단일 또는 다중 단어 동의어와 일치합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

토큰 필터의 유형을 지정하는 URI 조각입니다.

expand

boolean

True

동의어 목록의 모든 단어(=> 표기법이 사용되지 않는 경우)가 서로 매핑되는지 여부를 나타내는 값입니다. true이면 동의어 목록의 모든 단어(=> 표기법이 사용되지 않는 경우)가 서로 매핑됩니다. 다음 목록: 믿을 수 없는, 믿을 수 없는, 멋진, 놀라운 에 해당: 믿을 수 없는, 믿을 수 없는, 멋진, 놀라운 => 믿을 수 없는, 멋진, 놀라운. 거짓 인 경우, 다음 목록 : 믿을 수없는, 믿을 수없는, 멋진, 놀라운 동일 할 것이다 : 믿을 수없는, 믿을 수없는, 멋진, 놀라운 => 믿을 수 없습니다. 기본값은 true입니다.

ignoreCase

boolean

False

일치를 위해 대/소문자 입력을 접을지 여부를 나타내는 값입니다. 기본값은 false입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

synonyms

string[]

두 가지 형식 중 하나인 1의 동의어 목록입니다. 놀라운, 믿을 수없는, 멋진 => 놀라운 - => 기호의 왼쪽에있는 모든 용어는 오른쪽에있는 모든 용어로 대체됩니다; 2. 믿을 수없는, 믿을 수없는, 멋진, 놀라운 - 동등한 단어의 쉼표로 구분 된 목록. 이 목록을 해석하는 방식을 변경하려면 확장 옵션을 설정합니다.

TagScoringFunction

지정된 태그 목록과 일치하는 문자열 값을 사용하여 문서 점수를 높이는 함수를 정의합니다.

Name 형식 Description
boost

number

원시 점수의 승수입니다. 1.0과 같지 않은 양수여야 합니다.

fieldName

string

채점 함수에 대한 입력으로 사용되는 필드의 이름입니다.

interpolation

ScoringFunctionInterpolation

문서 점수에서 부스팅을 보간하는 방법을 나타내는 값입니다. 기본값은 "선형"입니다.

tag

TagScoringParameters

태그 채점 함수의 매개 변수 값입니다.

type string:

tag

사용할 함수의 유형을 나타냅니다. 유효한 값에는 magnitude, freshness, distance, tag 등이 있습니다. 함수 형식은 소문자여야 합니다.

TagScoringParameters

태그 채점 함수에 매개 변수 값을 제공합니다.

Name 형식 Description
tagsParameter

string

대상 필드와 비교할 태그 목록을 지정하기 위해 검색 쿼리에 전달된 매개 변수의 이름입니다.

TextWeights

일치 항목이 검색 쿼리에서 점수를 높여야 하는 인덱스 필드에 대한 가중치를 정의합니다.

Name 형식 Description
weights

object

문서 채점을 높이기 위한 필드별 가중치 사전입니다. 키는 필드 이름이고 값은 각 필드의 가중치입니다.

TokenCharacterKind

토큰 필터가 작동할 수 있는 문자의 클래스를 나타냅니다.

Name 형식 Description
digit

string

토큰에 숫자를 유지합니다.

letter

string

문자를 토큰에 유지합니다.

punctuation

string

토큰에 문장 부호를 유지합니다.

symbol

string

토큰에 기호를 유지합니다.

whitespace

string

공백을 토큰에 유지합니다.

TokenFilterName

검색 엔진에서 지원하는 모든 토큰 필터의 이름을 정의합니다.

Name 형식 Description
apostrophe

string

아포스트로피 다음의 모든 문자를 제거합니다(아포스트로피 자체도 포함). http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html을 참조하십시오.

arabic_normalization

string

아랍어 노멀라이저를 적용하여 표기법을 정규화하는 토큰 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html을 참조하십시오.

asciifolding

string

처음 127개의 ASCII 문자("기본 라틴 문자" 유니코드 블록)에 없는 알파벳, 숫자 및 기호 유니코드 문자를 ASCII 등가물(있는 경우)로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html를 참조하세요.

cjk_bigram

string

표준 토큰화기에서 생성된 CJK 용어의 bigrams를 형성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html을 참조하십시오.

cjk_width

string

CJK 너비 차이를 정규화합니다. ASCII 변형을 해당하는 기본 라틴어로 접고 반자 가타카나 변형을 해당하는 가나로 접습니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html를 참조하세요.

classic

string

영어 소유 및 머리글자어에서 점을 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html을 참조하십시오.

common_grams

string

인덱싱 동안 자주 발생하는 용어에 대한 바이그램을 생성합니다. 단일 단어도 바이그램이 오버레이된 상태로 계속 인덱싱됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html를 참조하세요.

edgeNGram_v2

string

입력 토큰의 앞면 또는 뒷면에서 시작하여 지정된 크기의 n그램을 생성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html을 참조하십시오.

elision

string

생략 발음을 제거합니다. 예를 들어 "l'avion"(평면)은 "avion"(평면)으로 변환됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html을 참조하십시오.

german_normalization

string

German2 눈덩이 알고리즘의 추론에 따라 독일어 문자를 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html를 참조하세요.

hindi_normalization

string

힌디어의 텍스트를 정규화하여 철자 변형의 차이를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html를 참조하세요.

indic_normalization

string

인도어 텍스트의 유니코드 표현을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html를 참조하세요.

keyword_repeat

string

들어오는 각 토큰을 키워드(keyword) 한 번, 키워드(keyword) 아닌 토큰으로 두 번 내보낸다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html를 참조하세요.

kstem

string

영어에 대한 고성능 kstem 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html를 참조하세요.

length

string

너무 길거나 너무 짧은 단어를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html를 참조하세요.

limit

string

인덱싱을 할 때 토큰 수를 제한합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html을 참조하십시오.

lowercase

string

토큰 텍스트를 소문자로 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm를 참조하세요.

nGram_v2

string

지정된 크기의 n-gram을 생성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html을 참조하십시오.

persian_normalization

string

페르시아어에 정규화를 적용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html를 참조하세요.

phonetic

string

음성 일치 항목에 대한 토큰을 만듭니다. https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html을 참조하십시오.

porter_stem

string

Porter 형태소 분석 알고리즘을 사용하여 토큰 스트림을 변환합니다. http://tartarus.org/~martin/PorterStemmer를 참조하세요.

reverse

string

토큰 문자열을 반대로 바꿉니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html을 참조하십시오.

scandinavian_folding

string

스칸디나비아어 문자 åÅäæÄÆ->a, öÖøØ->o로 접습니다. 또한 이중 모음 aa, ae, ao, oe 및 oo의 사용과 구분하고 첫 번째 모음만 남겨둡니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html를 참조하세요.

scandinavian_normalization

string

교환 가능한 스칸디나비아어 문자의 사용을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html를 참조하세요.

shingle

string

토큰의 조합을 단일 토큰으로 만듭니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html을 참조하십시오.

snowball

string

Snowball에서 생성된 형태소 분석기를 사용하여 단어를 막는 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html를 참조하세요.

sorani_normalization

string

소라니어 텍스트의 유니코드 표현을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html를 참조하세요.

stemmer

string

언어별 형태소 분석 필터입니다. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters를 참조하세요.

stopwords

string

토큰 스트림에서 중지 단어를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html를 참조하세요.

trim

string

토큰에서 선행 및 후행 공백을 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html를 참조하세요.

truncate

string

용어를 특정 길이로 자립니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html를 참조하세요.

unique

string

이전 토큰과 동일한 텍스트를 포함하는 토큰을 필터링합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html을 참조하십시오.

uppercase

string

토큰 텍스트를 대문자로 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html을 참조하십시오.

word_delimiter

string

단어를 부분 단어로 분할하고 부분 단어 그룹에 대해 선택적 변환을 수행합니다.

TruncateTokenFilter

용어를 특정 길이로 자립니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

토큰 필터의 유형을 지정하는 URI 조각입니다.

length

integer

300

용어가 잘리는 길이입니다. 기본값 및 최대값은 300입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

UaxUrlEmailTokenizer

URL과 이메일을 하나의 토큰으로 토큰화합니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

토큰라이저 유형을 지정하는 URI 조각입니다.

maxTokenLength

integer

255

최대 토큰 길이입니다. 기본값은 255입니다. 최대 길이보다 긴 토큰은 분할됩니다. 사용할 수 있는 최대 토큰 길이는 300자입니다.

name

string

토큰라이저의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

UniqueTokenFilter

이전 토큰과 동일한 텍스트를 포함하는 토큰을 필터링합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

토큰 필터의 유형을 지정하는 URI 조각입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

onlyOnSamePosition

boolean

False

동일한 위치에서만 중복 항목을 제거할지 여부를 나타내는 값입니다. 기본값은 false입니다.

VectorSearch

벡터 검색과 관련된 구성 옵션을 포함합니다.

Name 형식 Description
algorithms VectorSearchAlgorithmConfiguration[]:

인덱싱 또는 쿼리 중에 사용되는 알고리즘과 관련된 구성 옵션을 포함합니다.

profiles

VectorSearchProfile[]

벡터 검색에 사용할 구성 조합을 정의합니다.

VectorSearchAlgorithmKind

인덱싱 및 쿼리에 사용되는 알고리즘입니다.

Name 형식 Description
exhaustiveKnn

string

무차별 암호 대입 검색을 수행하는 철저한 KNN 알고리즘입니다.

hnsw

string

HNSW(계층적 탐색 가능한 Small World), 가장 가까운 근사 알고리즘의 유형입니다.

VectorSearchAlgorithmMetric

벡터 비교에 사용할 유사성 메트릭입니다.

Name 형식 Description
cosine

string

dotProduct

string

euclidean

string

VectorSearchProfile

벡터 검색에 사용할 구성의 조합을 정의합니다.

Name 형식 Description
algorithm

string

알고리즘 및 선택적 매개 변수를 지정하는 벡터 검색 알고리즘 구성의 이름입니다.

name

string

이 특정 벡터 검색 프로필과 연결할 이름입니다.

WordDelimiterTokenFilter

단어를 부분 단어로 분할하고 부분 단어 그룹에 대해 선택적 변환을 수행합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Name 형식 기본값 Description
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

토큰 필터의 유형을 지정하는 URI 조각입니다.

catenateAll

boolean

False

모든 하위 단어 부분을 범주화할지 여부를 나타내는 값입니다. 예를 들어 이 값이 true로 설정된 경우 "Azure-Search-1"은 "AzureSearch1"이 됩니다. 기본값은 false입니다.

catenateNumbers

boolean

False

숫자 부분의 최대 실행을 범주화할지 여부를 나타내는 값입니다. 예를 들어 이 값이 true로 설정된 경우 "1-2"는 "12"가 됩니다. 기본값은 false입니다.

catenateWords

boolean

False

단어 부분의 최대 실행을 범주화할지 여부를 나타내는 값입니다. 예를 들어 이 값이 true로 설정된 경우 "Azure-Search"는 "AzureSearch"가 됩니다. 기본값은 false입니다.

generateNumberParts

boolean

True

숫자 하위 단어를 생성할지 여부를 나타내는 값입니다. 기본값은 true입니다.

generateWordParts

boolean

True

파트 단어를 생성할지 여부를 나타내는 값입니다. 를 설정하면 단어의 일부가 생성됩니다. 예를 들어 "AzureSearch"는 "Azure" "Search"가 됩니다. 기본값은 true입니다.

name

string

토큰 필터의 이름입니다. 문자, 숫자, 공백, 대시 또는 밑줄만 사용해야 하며 영숫자 문자로만 시작하고 끝낼 수 있습니다. 길이는 128자로 제한됩니다.

preserveOriginal

boolean

False

원래 단어를 보존하고 하위 단어 목록에 추가할지 여부를 나타내는 값입니다. 기본값은 false입니다.

protectedWords

string[]

구분되지 않도록 보호할 토큰 목록입니다.

splitOnCaseChange

boolean

True

caseChange에서 단어를 분할할지 여부를 나타내는 값입니다. 예를 들어 이 값이 true로 설정된 경우 "AzureSearch"는 "Azure" "Search"가 됩니다. 기본값은 true입니다.

splitOnNumerics

boolean

True

숫자로 분할할지 여부를 나타내는 값입니다. 예를 들어 이 값이 true로 설정된 경우 "Azure1Search"는 "Azure" "1" "Search"가 됩니다. 기본값은 true입니다.

stemEnglishPossessive

boolean

True

각 하위 단어에 대해 후행 "'s"를 제거할지 여부를 나타내는 값입니다. 기본값은 true입니다.