LuceneStandardTokenizer interface
Suddivide il testo in base alle regole di segmentazione del testo Unicode. Questo tokenizzatore viene implementato usando Apache Lucene.
Proprietà
max |
Lunghezza massima del token. Il valore predefinito è 255. I token con lunghezza superiore a quella massima vengono suddivisi. La lunghezza massima del token che può essere usata è di 300 caratteri. Valore predefinito: 255. |
name | Nome del tokenizer. Può contenere solo lettere, numeri, spazi, trattini o caratteri di sottolineatura, deve iniziare e terminare con caratteri alfanumerici e non può contenere più di 128 caratteri. |
odatatype | Discriminazione polimorfica |
Dettagli proprietà
maxTokenLength
Lunghezza massima del token. Il valore predefinito è 255. I token con lunghezza superiore a quella massima vengono suddivisi. La lunghezza massima del token che può essere usata è di 300 caratteri. Valore predefinito: 255.
maxTokenLength?: number
Valore della proprietà
number
name
Nome del tokenizer. Può contenere solo lettere, numeri, spazi, trattini o caratteri di sottolineatura, deve iniziare e terminare con caratteri alfanumerici e non può contenere più di 128 caratteri.
name: string
Valore della proprietà
string
odatatype
Discriminazione polimorfica
odatatype: "#Microsoft.Azure.Search.StandardTokenizer" | "#Microsoft.Azure.Search.StandardTokenizerV2"
Valore della proprietà
"#Microsoft.Azure.Search.StandardTokenizer" | "#Microsoft.Azure.Search.StandardTokenizerV2"