GetCompletionsOptions interface
As informações de configuração de uma solicitação de conclusão. As conclusões dão suporte a uma ampla variedade de tarefas e geram texto que continua ou "conclui" dados de prompt fornecidos.
- Extends
Propriedades
best |
Um valor que controla quantas conclusões serão geradas internamente antes da formulação de resposta. Quando usado junto com n, best_of controla o número de conclusões de candidatos e deve ser maior que n. Como essa configuração pode gerar muitas conclusões, ela pode consumir rapidamente sua cota de token. Use cuidadosamente e garanta configurações razoáveis para max_tokens e parar. |
echo | Um valor que especifica se as respostas de conclusões devem incluir prompts de entrada como prefixos para a saída gerada. |
frequency |
Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer à medida que sua frequência aumentar e diminuir a probabilidade de o modelo repetir as mesmas instruções textualmente. |
logit |
Um mapa entre IDs de token GPT e pontuações de desvio que influenciam a probabilidade de tokens específicos aparecerem em uma resposta de conclusões. As IDs de token são computadas por meio de ferramentas de token externo, enquanto as pontuações de desvio residem no intervalo de -100 a 100 com valores mínimos e máximos correspondentes a uma proibição completa ou seleção exclusiva de um token, respectivamente. O comportamento exato de uma determinada pontuação de desvio varia de acordo com o modelo. |
logprobs | Um valor que controla a emissão de probabilidades de log para o número fornecido de tokens mais prováveis em uma resposta de conclusões. |
max |
O número máximo de tokens a serem gerados. |
n | O número de opções de conclusões que devem ser geradas por prompt fornecido como parte de uma resposta geral de conclusões. Como essa configuração pode gerar muitas conclusões, ela pode consumir rapidamente sua cota de token. Use cuidadosamente e garanta configurações razoáveis para max_tokens e parar. |
presence |
Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua presença existente no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer quando já existirem e aumentarão a probabilidade do modelo gerar novos tópicos. |
stop | Uma coleção de sequências textuais que encerrará a geração de conclusões. |
temperature | A temperatura de amostragem a ser usada que controla a criatividade aparente das conclusões geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e top_p para a mesma solicitação de conclusões que a interação dessas duas configurações é difícil de prever. |
topP | Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados de tokens com a massa de probabilidade fornecida. Por exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15% principais da massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e top_p para a mesma solicitação de conclusões que a interação dessas duas configurações é difícil de prever. |
user | Um identificador para o chamador ou usuário final da operação. Isso pode ser usado para fins de acompanhamento ou limitação de taxa. |
Propriedades herdadas
abort |
O sinal que pode ser usado para anular solicitações. |
on |
Uma função a ser chamada sempre que uma resposta é recebida do servidor durante a execução da operação solicitada. Pode ser chamado várias vezes. |
request |
Opções usadas ao criar e enviar solicitações HTTP para essa operação. |
tracing |
Opções usadas quando o rastreamento está habilitado. |
Detalhes da propriedade
bestOf
Um valor que controla quantas conclusões serão geradas internamente antes da formulação de resposta. Quando usado junto com n, best_of controla o número de conclusões de candidatos e deve ser maior que n. Como essa configuração pode gerar muitas conclusões, ela pode consumir rapidamente sua cota de token. Use cuidadosamente e garanta configurações razoáveis para max_tokens e parar.
bestOf?: number
Valor da propriedade
number
echo
Um valor que especifica se as respostas de conclusões devem incluir prompts de entrada como prefixos para a saída gerada.
echo?: boolean
Valor da propriedade
boolean
frequencyPenalty
Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer à medida que sua frequência aumentar e diminuir a probabilidade de o modelo repetir as mesmas instruções textualmente.
frequencyPenalty?: number
Valor da propriedade
number
logitBias
Um mapa entre IDs de token GPT e pontuações de desvio que influenciam a probabilidade de tokens específicos aparecerem em uma resposta de conclusões. As IDs de token são computadas por meio de ferramentas de token externo, enquanto as pontuações de desvio residem no intervalo de -100 a 100 com valores mínimos e máximos correspondentes a uma proibição completa ou seleção exclusiva de um token, respectivamente. O comportamento exato de uma determinada pontuação de desvio varia de acordo com o modelo.
logitBias?: Record<string, number>
Valor da propriedade
Record<string, number>
logprobs
Um valor que controla a emissão de probabilidades de log para o número fornecido de tokens mais prováveis em uma resposta de conclusões.
logprobs?: number
Valor da propriedade
number
maxTokens
O número máximo de tokens a serem gerados.
maxTokens?: number
Valor da propriedade
number
n
O número de opções de conclusões que devem ser geradas por prompt fornecido como parte de uma resposta geral de conclusões. Como essa configuração pode gerar muitas conclusões, ela pode consumir rapidamente sua cota de token. Use cuidadosamente e garanta configurações razoáveis para max_tokens e parar.
n?: number
Valor da propriedade
number
presencePenalty
Um valor que influencia a probabilidade de tokens gerados aparecerem com base em sua presença existente no texto gerado. Os valores positivos tornarão os tokens menos propensos a aparecer quando já existirem e aumentarão a probabilidade do modelo gerar novos tópicos.
presencePenalty?: number
Valor da propriedade
number
stop
Uma coleção de sequências textuais que encerrará a geração de conclusões.
stop?: string[]
Valor da propriedade
string[]
temperature
A temperatura de amostragem a ser usada que controla a criatividade aparente das conclusões geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e top_p para a mesma solicitação de conclusões que a interação dessas duas configurações é difícil de prever.
temperature?: number
Valor da propriedade
number
topP
Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados de tokens com a massa de probabilidade fornecida. Por exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15% principais da massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e top_p para a mesma solicitação de conclusões que a interação dessas duas configurações é difícil de prever.
topP?: number
Valor da propriedade
number
user
Um identificador para o chamador ou usuário final da operação. Isso pode ser usado para fins de acompanhamento ou limitação de taxa.
user?: string
Valor da propriedade
string
Detalhes das propriedades herdadas
abortSignal
O sinal que pode ser usado para anular solicitações.
abortSignal?: AbortSignalLike
Valor da propriedade
Herdado de OperationOptions.abortSignal
onResponse
Uma função a ser chamada sempre que uma resposta é recebida do servidor durante a execução da operação solicitada. Pode ser chamado várias vezes.
onResponse?: RawResponseCallback
Valor da propriedade
Herdado de OperationOptions.onResponse
requestOptions
Opções usadas ao criar e enviar solicitações HTTP para essa operação.
requestOptions?: OperationRequestOptions
Valor da propriedade
Herdado de OperationOptions.requestOptions
tracingOptions
Opções usadas quando o rastreamento está habilitado.
tracingOptions?: OperationTracingOptions
Valor da propriedade
Herdado de OperationOptions.tracingOptions
Azure SDK for JavaScript