ClassicTokenizer interface
Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Este tokenizador se implementa mediante Apache Lucene.
- Extends
Propiedades
max |
Longitud máxima del token. El valor predeterminado es 255. Los tokens más largos que la longitud máxima se dividen. La longitud máxima del token que se puede usar es de 300 caracteres. |
odatatype | Discriminador polimórfico, que especifica los distintos tipos que puede ser este objeto. |
Propiedades heredadas
name | Nombre del tokenizador. Solo debe contener letras, dígitos, espacios, guiones o caracteres de subrayado, solo puede comenzar y terminar con caracteres alfanuméricos y está limitado a 128 caracteres. |
Detalles de las propiedades
maxTokenLength
Longitud máxima del token. El valor predeterminado es 255. Los tokens más largos que la longitud máxima se dividen. La longitud máxima del token que se puede usar es de 300 caracteres.
maxTokenLength?: number
Valor de propiedad
number
odatatype
Discriminador polimórfico, que especifica los distintos tipos que puede ser este objeto.
odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"
Valor de propiedad
"#Microsoft.Azure.Search.ClassicTokenizer"
Detalles de las propiedades heredadas
name
Nombre del tokenizador. Solo debe contener letras, dígitos, espacios, guiones o caracteres de subrayado, solo puede comenzar y terminar con caracteres alfanuméricos y está limitado a 128 caracteres.
name: string
Valor de propiedad
string
heredado deBaseLexicalTokenizer.name