Compartir a través de


ClassicTokenizer interface

Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Este tokenizador se implementa mediante Apache Lucene.

Extends

Propiedades

maxTokenLength

Longitud máxima del token. El valor predeterminado es 255. Los tokens más largos que la longitud máxima se dividen. La longitud máxima del token que se puede usar es de 300 caracteres.

odatatype

Discriminador polimórfico, que especifica los distintos tipos que puede ser este objeto.

Propiedades heredadas

name

Nombre del tokenizador. Solo debe contener letras, dígitos, espacios, guiones o caracteres de subrayado, solo puede comenzar y terminar con caracteres alfanuméricos y está limitado a 128 caracteres.

Detalles de las propiedades

maxTokenLength

Longitud máxima del token. El valor predeterminado es 255. Los tokens más largos que la longitud máxima se dividen. La longitud máxima del token que se puede usar es de 300 caracteres.

maxTokenLength?: number

Valor de propiedad

number

odatatype

Discriminador polimórfico, que especifica los distintos tipos que puede ser este objeto.

odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"

Valor de propiedad

"#Microsoft.Azure.Search.ClassicTokenizer"

Detalles de las propiedades heredadas

name

Nombre del tokenizador. Solo debe contener letras, dígitos, espacios, guiones o caracteres de subrayado, solo puede comenzar y terminar con caracteres alfanuméricos y está limitado a 128 caracteres.

name: string

Valor de propiedad

string

heredado deBaseLexicalTokenizer.name