CommonModelParameters interface
Parametri del modello linguistico comune per i completamenti della chat. Se omesso, vengono utilizzati i valori predefiniti.
Proprietà
| frequency |
Un float nell'intervallo [-2,2] che riduce o aumenta la probabilità di token ripetuti. Il valore predefinito è 0. |
| max |
Numero massimo di token da generare. |
| model | Il nome del modello da utilizzare (ad esempio, 'gpt-4o', ecc.). Il valore predefinito è null se non specificato. |
| presence |
Un float nell'intervallo [-2,2] che penalizza i nuovi token in base alla loro presenza esistente. Il valore predefinito è 0. |
| seed | Seme casuale per il controllo di output deterministici. Se omesso, viene utilizzata la randomizzazione. |
| stop | Elenco delle sequenze di arresto che interromperanno la generazione di testo. Il valore predefinito è none. |
| temperature | Temperatura di campionamento. Il valore predefinito è 0,7. |
Dettagli proprietà
frequencyPenalty
Un float nell'intervallo [-2,2] che riduce o aumenta la probabilità di token ripetuti. Il valore predefinito è 0.
frequencyPenalty?: number
Valore della proprietà
number
maxTokens
Numero massimo di token da generare.
maxTokens?: number
Valore della proprietà
number
model
Il nome del modello da utilizzare (ad esempio, 'gpt-4o', ecc.). Il valore predefinito è null se non specificato.
model?: string
Valore della proprietà
string
presencePenalty
Un float nell'intervallo [-2,2] che penalizza i nuovi token in base alla loro presenza esistente. Il valore predefinito è 0.
presencePenalty?: number
Valore della proprietà
number
seed
Seme casuale per il controllo di output deterministici. Se omesso, viene utilizzata la randomizzazione.
seed?: number
Valore della proprietà
number
stop
Elenco delle sequenze di arresto che interromperanno la generazione di testo. Il valore predefinito è none.
stop?: string[]
Valore della proprietà
string[]
temperature
Temperatura di campionamento. Il valore predefinito è 0,7.
temperature?: number
Valore della proprietà
number