Compartir a través de


NGramTokenizer interface

Tokeniza la entrada en n-gramas de tamaños dados. Este tokenizador se implementa mediante Apache Lucene.

Extends

Propiedades

maxGram

Longitud máxima de n-gramas. El valor predeterminado es 2. El máximo es 300.

minGram

Longitud mínima de n-gramas. El valor predeterminado es 1. El máximo es 300. Debe ser menor que el valor de maxGram.

odatatype

Discriminador polimórfico, que especifica los diferentes tipos que puede ser este objeto.

tokenChars

Clases de caracteres que se mantendrán en los tokens.

Propiedades heredadas

name

Nombre del tokenizador. Solo puede contener letras, dígitos, espacios, guiones o guiones bajos, debe empezar y acabar con caracteres alfanuméricos y no puede superar los 128 caracteres.

Detalles de las propiedades

maxGram

Longitud máxima de n-gramas. El valor predeterminado es 2. El máximo es 300.

maxGram?: number

Valor de propiedad

number

minGram

Longitud mínima de n-gramas. El valor predeterminado es 1. El máximo es 300. Debe ser menor que el valor de maxGram.

minGram?: number

Valor de propiedad

number

odatatype

Discriminador polimórfico, que especifica los diferentes tipos que puede ser este objeto.

odatatype: "#Microsoft.Azure.Search.NGramTokenizer"

Valor de propiedad

"#Microsoft.Azure.Search.NGramTokenizer"

tokenChars

Clases de caracteres que se mantendrán en los tokens.

tokenChars?: TokenCharacterKind[]

Valor de propiedad

Detalles de las propiedades heredadas

name

Nombre del tokenizador. Solo puede contener letras, dígitos, espacios, guiones o guiones bajos, debe empezar y acabar con caracteres alfanuméricos y no puede superar los 128 caracteres.

name: string

Valor de propiedad

string

Heredado deBaseLexicalTokenizer.name