EdgeNGramTokenizer interface
Tokeniza la entrada de un borde en n-gramas de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene.
- Extends
Propiedades
max |
Longitud máxima de n-gramas. El valor predeterminado es 2. El máximo es 300. |
min |
Longitud mínima de n-gramas. El valor predeterminado es 1. El máximo es 300. Debe ser menor que el valor de maxGram. |
odatatype | Discriminador polimórfico, que especifica los diferentes tipos que puede ser este objeto. |
token |
Clases de caracteres que se mantendrán en los tokens. |
Propiedades heredadas
name | Nombre del tokenizador. Solo puede contener letras, dígitos, espacios, guiones o guiones bajos, debe empezar y acabar con caracteres alfanuméricos y no puede superar los 128 caracteres. |
Detalles de las propiedades
maxGram
Longitud máxima de n-gramas. El valor predeterminado es 2. El máximo es 300.
maxGram?: number
Valor de propiedad
number
minGram
Longitud mínima de n-gramas. El valor predeterminado es 1. El máximo es 300. Debe ser menor que el valor de maxGram.
minGram?: number
Valor de propiedad
number
odatatype
Discriminador polimórfico, que especifica los diferentes tipos que puede ser este objeto.
odatatype: "#Microsoft.Azure.Search.EdgeNGramTokenizer"
Valor de propiedad
"#Microsoft.Azure.Search.EdgeNGramTokenizer"
tokenChars
Clases de caracteres que se mantendrán en los tokens.
tokenChars?: TokenCharacterKind[]
Valor de propiedad
Detalles de las propiedades heredadas
name
Nombre del tokenizador. Solo puede contener letras, dígitos, espacios, guiones o guiones bajos, debe empezar y acabar con caracteres alfanuméricos y no puede superar los 128 caracteres.
name: string
Valor de propiedad
string
Heredado deBaseLexicalTokenizer.name