GetChatCompletionsOptions interface
Este módulo contém modelos que queremos viver lado a lado com os modelos gerados correspondentes. Isso é útil para fornecer modelos voltados para o cliente que têm nomes/tipos diferentes dos modelos gerados.
- Extends
Propriedades
azure |
As entradas de configuração para extensões de chat do OpenAI do Azure que as usam. Essa especificação adicional só é compatível com o OpenAI do Azure. |
frequency |
Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer à medida que sua frequência aumentar e diminuir a probabilidade de o modelo repetir as mesmas instruções textualmente. |
function |
Controla como o modelo responde a chamadas de função. “none” significa que o modelo não chama uma função e responde ao usuário final. “auto” significa que o modelo pode escolher entre um usuário final ou chamar uma função.
Especificar uma função específica por meio |
functions | Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
logit |
Um mapa entre IDs de token GPT e pontuações de desvio que influenciam a probabilidade de tokens específicos aparecerem em uma resposta de conclusões. As IDs de token são computadas por meio de ferramentas de token externo, enquanto as pontuações de desvio residem no intervalo de -100 a 100 com valores mínimos e máximos correspondentes a uma proibição completa ou seleção exclusiva de um token, respectivamente. O comportamento exato de uma determinada pontuação de desvio varia de acordo com o modelo. |
max |
O número máximo de tokens a serem gerados. |
n | O número de opções de conclusões de chat que devem ser geradas para uma resposta de conclusões de chat. Como essa configuração pode gerar muitas conclusões, ela pode consumir rapidamente sua cota de token. Use cuidadosamente e garanta configurações razoáveis para maxTokens e pare. |
presence |
Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua presença existente no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer quando já existirem e aumentarão a probabilidade do modelo gerar novos tópicos. |
response |
Um objeto que especifica o formato que o modelo deve gerar. Usado para habilitar o modo JSON. |
seed | Se especificado, o sistema fará o melhor esforço para amostrar deterministicamente de modo que solicitações repetidas com a mesma semente e parâmetros retornem o mesmo resultado. O determinismo não é garantido e você deve se referir ao parâmetro de resposta system_fingerprint para monitorar as alterações no back-end". |
stop | Uma coleção de sequências textuais que encerrará a geração de conclusões. |
temperature | A temperatura de amostragem a ser usada que controla a criatividade aparente das conclusões geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e o topP para a mesma solicitação de conclusões que a interação dessas duas configurações é difícil de prever. |
tool |
Se especificado, o modelo configurará quais das ferramentas fornecidas ele pode usar para a resposta de conclusões de chat. |
tools | As definições de ferramenta disponíveis que a solicitação de conclusões de chat pode usar, incluindo funções definidas pelo chamador. |
topP | Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados de tokens com a massa de probabilidade fornecida. Por exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15% principais da massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e o topP para a mesma solicitação de conclusões que a interação dessas duas configurações é difícil de prever. |
user | Um identificador para o chamador ou usuário final da operação. Isso pode ser usado para fins de acompanhamento ou limitação de taxa. |
Propriedades herdadas
abort |
O sinal que pode ser usado para anular solicitações. |
on |
Uma função a ser chamada sempre que uma resposta é recebida do servidor durante a execução da operação solicitada. Pode ser chamado várias vezes. |
request |
Opções usadas ao criar e enviar solicitações HTTP para essa operação. |
tracing |
Opções usadas quando o rastreamento está habilitado. |
Detalhes da propriedade
azureExtensionOptions
As entradas de configuração para extensões de chat do OpenAI do Azure que as usam. Essa especificação adicional só é compatível com o OpenAI do Azure.
azureExtensionOptions?: AzureExtensionsOptions
Valor da propriedade
frequencyPenalty
Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer à medida que sua frequência aumentar e diminuir a probabilidade de o modelo repetir as mesmas instruções textualmente.
frequencyPenalty?: number
Valor da propriedade
number
functionCall
Controla como o modelo responde a chamadas de função. “none” significa que o modelo não chama uma função e responde ao usuário final. “auto” significa que o modelo pode escolher entre um usuário final ou chamar uma função.
Especificar uma função específica por meio {"name": "my_function"}
de força o modelo a chamar essa função.
“none” é o padrão quando nenhuma função está presente. “auto” é o padrão se as funções estiverem presentes.
functionCall?: string | FunctionName
Valor da propriedade
string | FunctionName
functions
Uma lista de funções para as quais o modelo pode gerar entradas JSON.
functions?: FunctionDefinition[]
Valor da propriedade
logitBias
Um mapa entre IDs de token GPT e pontuações de desvio que influenciam a probabilidade de tokens específicos aparecerem em uma resposta de conclusões. As IDs de token são computadas por meio de ferramentas de token externo, enquanto as pontuações de desvio residem no intervalo de -100 a 100 com valores mínimos e máximos correspondentes a uma proibição completa ou seleção exclusiva de um token, respectivamente. O comportamento exato de uma determinada pontuação de desvio varia de acordo com o modelo.
logitBias?: Record<string, number>
Valor da propriedade
Record<string, number>
maxTokens
O número máximo de tokens a serem gerados.
maxTokens?: number
Valor da propriedade
number
n
O número de opções de conclusões de chat que devem ser geradas para uma resposta de conclusões de chat. Como essa configuração pode gerar muitas conclusões, ela pode consumir rapidamente sua cota de token. Use cuidadosamente e garanta configurações razoáveis para maxTokens e pare.
n?: number
Valor da propriedade
number
presencePenalty
Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua presença existente no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer quando já existirem e aumentarão a probabilidade do modelo gerar novos tópicos.
presencePenalty?: number
Valor da propriedade
number
responseFormat
Um objeto que especifica o formato que o modelo deve gerar. Usado para habilitar o modo JSON.
responseFormat?: ChatCompletionsResponseFormat
Valor da propriedade
seed
Se especificado, o sistema fará o melhor esforço para amostrar deterministicamente de modo que solicitações repetidas com a mesma semente e parâmetros retornem o mesmo resultado. O determinismo não é garantido e você deve se referir ao parâmetro de resposta system_fingerprint para monitorar as alterações no back-end".
seed?: number
Valor da propriedade
number
stop
Uma coleção de sequências textuais que encerrará a geração de conclusões.
stop?: string[]
Valor da propriedade
string[]
temperature
A temperatura de amostragem a ser usada que controla a criatividade aparente das conclusões geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e o topP para a mesma solicitação de conclusões que a interação dessas duas configurações é difícil de prever.
temperature?: number
Valor da propriedade
number
toolChoice
Se especificado, o modelo configurará quais das ferramentas fornecidas ele pode usar para a resposta de conclusões de chat.
toolChoice?: ChatCompletionsNamedToolSelectionUnion
Valor da propriedade
tools
As definições de ferramenta disponíveis que a solicitação de conclusões de chat pode usar, incluindo funções definidas pelo chamador.
tools?: ChatCompletionsToolDefinitionUnion[]
Valor da propriedade
topP
Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados de tokens com a massa de probabilidade fornecida. Por exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15% principais da massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e o topP para a mesma solicitação de conclusões que a interação dessas duas configurações é difícil de prever.
topP?: number
Valor da propriedade
number
user
Um identificador para o chamador ou usuário final da operação. Isso pode ser usado para fins de acompanhamento ou limitação de taxa.
user?: string
Valor da propriedade
string
Detalhes das propriedades herdadas
abortSignal
O sinal que pode ser usado para anular solicitações.
abortSignal?: AbortSignalLike
Valor da propriedade
Herdado de OperationOptions.abortSignal
onResponse
Uma função a ser chamada sempre que uma resposta é recebida do servidor durante a execução da operação solicitada. Pode ser chamado várias vezes.
onResponse?: RawResponseCallback
Valor da propriedade
Herdado de OperationOptions.onResponse
requestOptions
Opções usadas ao criar e enviar solicitações HTTP para essa operação.
requestOptions?: OperationRequestOptions
Valor da propriedade
Herdado de OperationOptions.requestOptions
tracingOptions
Opções usadas quando o rastreamento está habilitado.
tracingOptions?: OperationTracingOptions
Valor da propriedade
Herdado de OperationOptions.tracingOptions
Azure SDK for JavaScript