Compartir a través de


NGramTokenizer interface

Tokeniza la entrada en n-gramas de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene.

Extends

Propiedades

maxGram

Longitud máxima de n-gramas. El valor predeterminado es 2. El máximo es 300.

minGram

Longitud mínima de n-gramas. El valor predeterminado es 1. El máximo es 300. Debe ser menor que el valor de maxGram.

odatatype

Discriminador polimórfico, que especifica los distintos tipos que puede ser este objeto.

tokenChars

Clases de caracteres que se mantendrán en los tokens.

Propiedades heredadas

name

Nombre del tokenizador. Solo debe contener letras, dígitos, espacios, guiones o caracteres de subrayado, solo puede comenzar y terminar con caracteres alfanuméricos y está limitado a 128 caracteres.

Detalles de las propiedades

maxGram

Longitud máxima de n-gramas. El valor predeterminado es 2. El máximo es 300.

maxGram?: number

Valor de propiedad

number

minGram

Longitud mínima de n-gramas. El valor predeterminado es 1. El máximo es 300. Debe ser menor que el valor de maxGram.

minGram?: number

Valor de propiedad

number

odatatype

Discriminador polimórfico, que especifica los distintos tipos que puede ser este objeto.

odatatype: "#Microsoft.Azure.Search.NGramTokenizer"

Valor de propiedad

"#Microsoft.Azure.Search.NGramTokenizer"

tokenChars

Clases de caracteres que se mantendrán en los tokens.

tokenChars?: TokenCharacterKind[]

Valor de propiedad

Detalles de las propiedades heredadas

name

Nombre del tokenizador. Solo debe contener letras, dígitos, espacios, guiones o caracteres de subrayado, solo puede comenzar y terminar con caracteres alfanuméricos y está limitado a 128 caracteres.

name: string

Valor de propiedad

string

Heredado deLexicalTokenizer.name