GetChatCompletionsOptions interface
Ten moduł zawiera modele, które chcemy żyć obok odpowiednich wygenerowanych modeli. Jest to przydatne w przypadku udostępniania modeli przeznaczonych dla klientów, które mają różne nazwy/typy niż wygenerowane modele.
- Extends
Właściwości
azure |
Wpisy konfiguracji rozszerzeń czatu usługi Azure OpenAI, które z nich korzystają. Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI. |
frequency |
Wartość, która wpływa na prawdopodobieństwo pojawienia się wygenerowanych tokenów na podstawie ich skumulowanej częstotliwości w wygenerowanym tekście. Wartości dodatnie sprawią, że tokeny będą mniej prawdopodobne, ponieważ ich częstotliwość wzrasta i zmniejsza prawdopodobieństwo, że model powtarza te same instrukcje dosłowne. |
function |
Określa sposób reagowania modelu na wywołania funkcji. "none" oznacza, że model nie wywołuje funkcji i odpowiada użytkownikowi końcowemu. "auto" oznacza, że model może wybrać między użytkownikiem końcowym lub wywołaniem funkcji.
Określenie konkretnej funkcji za pośrednictwem |
functions | Lista funkcji, dla których model może generować dane wejściowe JSON. |
logit |
Mapa między identyfikatorami tokenów GPT i wynikami stronniczości, która wpływa na prawdopodobieństwo pojawienia się określonych tokenów w odpowiedzi uzupełniania. Identyfikatory tokenów są obliczane za pośrednictwem narzędzi tokenizatora zewnętrznego, natomiast wyniki stronniczości znajdują się w zakresie od -100 do 100 z minimalnymi i maksymalnymi wartościami odpowiadającymi pełnemu zakazowi lub wyłącznemu wyborowi tokenu. Dokładne zachowanie danego wyniku stronniczości różni się w zależności od modelu. |
max |
Maksymalna liczba tokenów do wygenerowania. |
n | Liczba opcji ukończenia czatu, które powinny zostać wygenerowane dla odpowiedzi na ukończenie czatu. Ponieważ to ustawienie może wygenerować wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy uważnie używać i zapewnić odpowiednie ustawienia dla parametrów maxTokens i stop. |
presence |
Wartość, która wpływa na prawdopodobieństwo pojawienia się wygenerowanych tokenów na podstawie ich istniejącej obecności w wygenerowanym tekście. Wartości dodatnie sprawią, że tokeny staną się mniej prawdopodobne, gdy już istnieją, i zwiększą prawdopodobieństwo pojawienia się nowych tematów modelu. |
response |
Obiekt określający format, który musi zostać wygenerowany przez model. Służy do włączania trybu JSON. |
seed | Jeśli zostanie określony, system będzie starał się próbkować deterministycznie tak, aby powtarzające się żądania z tym samym inicjatorem i parametrami powinny zwrócić ten sam wynik. Determinizm nie jest gwarantowany i należy odwołać się do parametru odpowiedzi system_fingerprint w celu monitorowania zmian w zapleczu. |
stop | Kolekcja sekwencji tekstowych, które zakończą generowanie ukończenia. |
temperature | Temperatura próbkowania do użycia steruje pozorną kreatywnością generowanych zakończeń. Wyższe wartości sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości sprawią, że wyniki będą bardziej skoncentrowane i deterministyczne. Nie zaleca się modyfikowania temperatury i topP dla tego samego żądania ukończenia, ponieważ interakcja tych dwóch ustawień jest trudna do przewidzenia. |
tool |
Jeśli zostanie określony, model skonfiguruje, które z dostarczonych narzędzi może użyć do odpowiedzi na zakończenie czatu. |
tools | Dostępne definicje narzędzi, których może używać żądanie ukończenia czatu, w tym funkcji zdefiniowanych przez obiekt wywołujący. |
topP | Alternatywą dla próbkowania z temperaturą nazywaną próbkowaniem jądra. Ta wartość powoduje, że model uwzględnia wyniki tokenów z podaną masą prawdopodobieństwa. Na przykład wartość 0,15 spowoduje, że uwzględniane są tylko tokeny składające się z 15% pierwszej masy prawdopodobieństwa. Nie zaleca się modyfikowania temperatury i topP dla tego samego żądania ukończenia, ponieważ interakcja tych dwóch ustawień jest trudna do przewidzenia. |
user | Identyfikator obiektu wywołującego lub użytkownika końcowego operacji. Może to być używane do celów śledzenia lub ograniczania szybkości. |
Właściwości dziedziczone
abort |
Sygnał, który może służyć do przerwania żądań. |
on |
Funkcja, która ma być wywoływana za każdym razem, gdy odpowiedź jest odbierana z serwera podczas wykonywania żądanej operacji. Może być wywoływana wiele razy. |
request |
Opcje używane podczas tworzenia i wysyłania żądań HTTP dla tej operacji. |
tracing |
Opcje używane podczas śledzenia są włączone. |
Szczegóły właściwości
azureExtensionOptions
Wpisy konfiguracji rozszerzeń czatu usługi Azure OpenAI, które z nich korzystają. Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI.
azureExtensionOptions?: AzureExtensionsOptions
Wartość właściwości
frequencyPenalty
Wartość, która wpływa na prawdopodobieństwo pojawienia się wygenerowanych tokenów na podstawie ich skumulowanej częstotliwości w wygenerowanym tekście. Wartości dodatnie sprawią, że tokeny będą mniej prawdopodobne, ponieważ ich częstotliwość wzrasta i zmniejsza prawdopodobieństwo, że model powtarza te same instrukcje dosłowne.
frequencyPenalty?: number
Wartość właściwości
number
functionCall
Określa sposób reagowania modelu na wywołania funkcji. "none" oznacza, że model nie wywołuje funkcji i odpowiada użytkownikowi końcowemu. "auto" oznacza, że model może wybrać między użytkownikiem końcowym lub wywołaniem funkcji.
Określenie konkretnej funkcji za pośrednictwem {"name": "my_function"}
wymusza wywołanie tej funkcji przez model.
Wartość domyślna "none" jest wartością domyślną, gdy nie ma żadnych funkcji. "auto" jest wartością domyślną, jeśli funkcje są obecne.
functionCall?: string | FunctionName
Wartość właściwości
string | FunctionName
functions
Lista funkcji, dla których model może generować dane wejściowe JSON.
functions?: FunctionDefinition[]
Wartość właściwości
logitBias
Mapa między identyfikatorami tokenów GPT i wynikami stronniczości, która wpływa na prawdopodobieństwo pojawienia się określonych tokenów w odpowiedzi uzupełniania. Identyfikatory tokenów są obliczane za pośrednictwem narzędzi tokenizatora zewnętrznego, natomiast wyniki stronniczości znajdują się w zakresie od -100 do 100 z minimalnymi i maksymalnymi wartościami odpowiadającymi pełnemu zakazowi lub wyłącznemu wyborowi tokenu. Dokładne zachowanie danego wyniku stronniczości różni się w zależności od modelu.
logitBias?: Record<string, number>
Wartość właściwości
Record<string, number>
maxTokens
Maksymalna liczba tokenów do wygenerowania.
maxTokens?: number
Wartość właściwości
number
n
Liczba opcji ukończenia czatu, które powinny zostać wygenerowane dla odpowiedzi na ukończenie czatu. Ponieważ to ustawienie może wygenerować wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy uważnie używać i zapewnić odpowiednie ustawienia dla parametrów maxTokens i stop.
n?: number
Wartość właściwości
number
presencePenalty
Wartość, która wpływa na prawdopodobieństwo pojawienia się wygenerowanych tokenów na podstawie ich istniejącej obecności w wygenerowanym tekście. Wartości dodatnie sprawią, że tokeny staną się mniej prawdopodobne, gdy już istnieją, i zwiększą prawdopodobieństwo pojawienia się nowych tematów modelu.
presencePenalty?: number
Wartość właściwości
number
responseFormat
Obiekt określający format, który musi zostać wygenerowany przez model. Służy do włączania trybu JSON.
responseFormat?: ChatCompletionsResponseFormat
Wartość właściwości
seed
Jeśli zostanie określony, system będzie starał się próbkować deterministycznie tak, aby powtarzające się żądania z tym samym inicjatorem i parametrami powinny zwrócić ten sam wynik. Determinizm nie jest gwarantowany i należy odwołać się do parametru odpowiedzi system_fingerprint w celu monitorowania zmian w zapleczu.
seed?: number
Wartość właściwości
number
stop
Kolekcja sekwencji tekstowych, które zakończą generowanie ukończenia.
stop?: string[]
Wartość właściwości
string[]
temperature
Temperatura próbkowania do użycia steruje pozorną kreatywnością generowanych zakończeń. Wyższe wartości sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości sprawią, że wyniki będą bardziej skoncentrowane i deterministyczne. Nie zaleca się modyfikowania temperatury i topP dla tego samego żądania ukończenia, ponieważ interakcja tych dwóch ustawień jest trudna do przewidzenia.
temperature?: number
Wartość właściwości
number
toolChoice
Jeśli zostanie określony, model skonfiguruje, które z dostarczonych narzędzi może użyć do odpowiedzi na zakończenie czatu.
toolChoice?: ChatCompletionsNamedToolSelectionUnion
Wartość właściwości
tools
Dostępne definicje narzędzi, których może używać żądanie ukończenia czatu, w tym funkcji zdefiniowanych przez obiekt wywołujący.
tools?: ChatCompletionsToolDefinitionUnion[]
Wartość właściwości
topP
Alternatywą dla próbkowania z temperaturą nazywaną próbkowaniem jądra. Ta wartość powoduje, że model uwzględnia wyniki tokenów z podaną masą prawdopodobieństwa. Na przykład wartość 0,15 spowoduje, że uwzględniane są tylko tokeny składające się z 15% pierwszej masy prawdopodobieństwa. Nie zaleca się modyfikowania temperatury i topP dla tego samego żądania ukończenia, ponieważ interakcja tych dwóch ustawień jest trudna do przewidzenia.
topP?: number
Wartość właściwości
number
user
Identyfikator obiektu wywołującego lub użytkownika końcowego operacji. Może to być używane do celów śledzenia lub ograniczania szybkości.
user?: string
Wartość właściwości
string
Szczegóły właściwości dziedziczonej
abortSignal
Sygnał, który może służyć do przerwania żądań.
abortSignal?: AbortSignalLike
Wartość właściwości
Dziedziczone z OperationOptions.abortSignal
onResponse
Funkcja, która ma być wywoływana za każdym razem, gdy odpowiedź jest odbierana z serwera podczas wykonywania żądanej operacji. Może być wywoływana wiele razy.
onResponse?: RawResponseCallback
Wartość właściwości
Dziedziczone z OperationOptions.onResponse
requestOptions
Opcje używane podczas tworzenia i wysyłania żądań HTTP dla tej operacji.
requestOptions?: OperationRequestOptions
Wartość właściwości
Dziedziczone z OperationOptions.requestOptions
tracingOptions
Opcje używane podczas śledzenia są włączone.
tracingOptions?: OperationTracingOptions
Wartość właściwości
Dziedziczone z OperationOptions.tracingOptions
Azure SDK for JavaScript