Compartir a través de


ClassicTokenizer interface

Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Este tokenizador se implementa mediante Apache Lucene.

Extends

Propiedades

maxTokenLength

Longitud máxima del token. El valor predeterminado es 255. Los tokens que sobrepasen la longitud máxima se dividen. La longitud máxima del token que se puede usar es de 300 caracteres.

odatatype

Discriminador polimórfico, que especifica los diferentes tipos que puede ser este objeto

Propiedades heredadas

name

Nombre del tokenizador. Solo puede contener letras, dígitos, espacios, guiones o guiones bajos, debe empezar y acabar con caracteres alfanuméricos y no puede superar los 128 caracteres.

Detalles de las propiedades

maxTokenLength

Longitud máxima del token. El valor predeterminado es 255. Los tokens que sobrepasen la longitud máxima se dividen. La longitud máxima del token que se puede usar es de 300 caracteres.

maxTokenLength?: number

Valor de propiedad

number

odatatype

Discriminador polimórfico, que especifica los diferentes tipos que puede ser este objeto

odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"

Valor de propiedad

"#Microsoft.Azure.Search.ClassicTokenizer"

Detalles de las propiedades heredadas

name

Nombre del tokenizador. Solo puede contener letras, dígitos, espacios, guiones o guiones bajos, debe empezar y acabar con caracteres alfanuméricos y no puede superar los 128 caracteres.

name: string

Valor de propiedad

string

Heredado deBaseLexicalTokenizer.name