Bagikan melalui


GetChatCompletionsOptions interface

Modul ini berisi model yang ingin kita jalankan berdampingan dengan model yang dihasilkan yang sesuai. Ini berguna untuk menyediakan model yang menghadap pelanggan yang memiliki nama/jenis yang berbeda dari model yang dihasilkan.

Extends

Properti

azureExtensionOptions

Entri konfigurasi untuk ekstensi obrolan Azure OpenAI yang menggunakannya. Spesifikasi tambahan ini hanya kompatibel dengan Azure OpenAI.

frequencyPenalty

Nilai yang memengaruhi probabilitas token yang dihasilkan muncul berdasarkan frekuensi kumulatifnya dalam teks yang dihasilkan. Nilai positif akan membuat token lebih kecil kemungkinannya muncul saat frekuensinya meningkat dan mengurangi kemungkinan model mengulangi pernyataan yang sama secara verbatim.

functionCall

Mengontrol bagaimana model merespons panggilan fungsi. "none" berarti model tidak memanggil fungsi, dan merespons pengguna akhir. "otomatis" berarti model dapat memilih antara pengguna akhir atau memanggil fungsi. Menentukan fungsi tertentu melalui {"name": "my_function"} memaksa model untuk memanggil fungsi tersebut. "none" adalah default ketika tidak ada fungsi yang ada. "otomatis" adalah default jika fungsi ada.

functions

Daftar fungsi yang dapat digunakan model untuk menghasilkan input JSON.

logitBias

Peta antara ID token GPT dan skor bias yang memengaruhi probabilitas token tertentu yang muncul dalam respons penyelesaian. ID token dihitung melalui alat tokenizer eksternal, sementara skor bias berada di kisaran -100 hingga 100 dengan nilai minimum dan maksimum yang sesuai dengan larangan penuh atau pilihan eksklusif token, masing-masing. Perilaku yang tepat dari skor bias tertentu bervariasi menurut model.

maxTokens

Jumlah maksimum token yang akan dihasilkan.

n

Jumlah pilihan penyelesaian obrolan yang harus dihasilkan untuk respons penyelesaian obrolan. Karena pengaturan ini dapat menghasilkan banyak penyelesaian, pengaturan ini dapat dengan cepat mengonsumsi kuota token Anda. Gunakan dengan hati-hati dan pastikan pengaturan yang wajar untuk maxTokens dan hentikan.

presencePenalty

Nilai yang memengaruhi probabilitas token yang dihasilkan muncul berdasarkan kehadiran yang ada dalam teks yang dihasilkan. Nilai positif akan membuat token lebih kecil kemungkinannya muncul ketika sudah ada dan meningkatkan kemungkinan model untuk menghasilkan topik baru.

responseFormat

Objek yang menentukan format yang harus dihasilkan model. Digunakan untuk mengaktifkan mode JSON.

seed

Jika ditentukan, sistem akan melakukan upaya terbaik untuk mengambil sampel secara deterministik sehingga permintaan berulang dengan nilai awal dan parameter yang sama harus mengembalikan hasil yang sama. Determinisme tidak dijamin, dan Anda harus merujuk ke parameter respons system_fingerprint untuk memantau perubahan backend."

stop

Kumpulan urutan tekstual yang akan mengakhiri pembuatan penyelesaian.

temperature

Suhu pengambilan sampel untuk digunakan yang mengontrol kreativitas yang jelas dari penyelesaian yang dihasilkan. Nilai yang lebih tinggi akan membuat output lebih acak sementara nilai yang lebih rendah akan membuat hasil lebih fokus dan deterministik. Tidak disarankan untuk memodifikasi suhu dan topP untuk permintaan penyelesaian yang sama karena interaksi kedua pengaturan ini sulit diprediksi.

toolChoice

Jika ditentukan, model akan mengonfigurasi alat mana yang disediakan yang dapat digunakan untuk respons penyelesaian obrolan.

tools

Definisi alat yang tersedia yang dapat digunakan permintaan penyelesaian obrolan, termasuk fungsi yang ditentukan pemanggil.

topP

Alternatif untuk pengambilan sampel dengan suhu yang disebut pengambilan sampel nukleus. Nilai ini menyebabkan model mempertimbangkan hasil token dengan massa probabilitas yang disediakan. Sebagai contoh, nilai 0,15 hanya akan menyebabkan token yang terdiri dari 15% massa probabilitas teratas yang dipertimbangkan. Tidak disarankan untuk memodifikasi suhu dan topP untuk permintaan penyelesaian yang sama karena interaksi kedua pengaturan ini sulit diprediksi.

user

Pengidentifikasi untuk pemanggil atau pengguna akhir operasi. Ini dapat digunakan untuk tujuan pelacakan atau pembatasan tarif.

Properti yang Diwariskan

abortSignal

Sinyal yang dapat digunakan untuk membatalkan permintaan.

onResponse

Fungsi yang akan dipanggil setiap kali respons diterima dari server saat melakukan operasi yang diminta. Dapat dipanggil beberapa kali.

requestOptions

Opsi yang digunakan saat membuat dan mengirim permintaan HTTP untuk operasi ini.

tracingOptions

Opsi yang digunakan saat pelacakan diaktifkan.

Detail Properti

azureExtensionOptions

Entri konfigurasi untuk ekstensi obrolan Azure OpenAI yang menggunakannya. Spesifikasi tambahan ini hanya kompatibel dengan Azure OpenAI.

azureExtensionOptions?: AzureExtensionsOptions

Nilai Properti

frequencyPenalty

Nilai yang memengaruhi probabilitas token yang dihasilkan muncul berdasarkan frekuensi kumulatifnya dalam teks yang dihasilkan. Nilai positif akan membuat token lebih kecil kemungkinannya muncul saat frekuensinya meningkat dan mengurangi kemungkinan model mengulangi pernyataan yang sama secara verbatim.

frequencyPenalty?: number

Nilai Properti

number

functionCall

Mengontrol bagaimana model merespons panggilan fungsi. "none" berarti model tidak memanggil fungsi, dan merespons pengguna akhir. "otomatis" berarti model dapat memilih antara pengguna akhir atau memanggil fungsi. Menentukan fungsi tertentu melalui {"name": "my_function"} memaksa model untuk memanggil fungsi tersebut. "none" adalah default ketika tidak ada fungsi yang ada. "otomatis" adalah default jika fungsi ada.

functionCall?: string | FunctionName

Nilai Properti

string | FunctionName

functions

Daftar fungsi yang dapat digunakan model untuk menghasilkan input JSON.

functions?: FunctionDefinition[]

Nilai Properti

logitBias

Peta antara ID token GPT dan skor bias yang memengaruhi probabilitas token tertentu yang muncul dalam respons penyelesaian. ID token dihitung melalui alat tokenizer eksternal, sementara skor bias berada di kisaran -100 hingga 100 dengan nilai minimum dan maksimum yang sesuai dengan larangan penuh atau pilihan eksklusif token, masing-masing. Perilaku yang tepat dari skor bias tertentu bervariasi menurut model.

logitBias?: Record<string, number>

Nilai Properti

Record<string, number>

maxTokens

Jumlah maksimum token yang akan dihasilkan.

maxTokens?: number

Nilai Properti

number

n

Jumlah pilihan penyelesaian obrolan yang harus dihasilkan untuk respons penyelesaian obrolan. Karena pengaturan ini dapat menghasilkan banyak penyelesaian, pengaturan ini dapat dengan cepat mengonsumsi kuota token Anda. Gunakan dengan hati-hati dan pastikan pengaturan yang wajar untuk maxTokens dan hentikan.

n?: number

Nilai Properti

number

presencePenalty

Nilai yang memengaruhi probabilitas token yang dihasilkan muncul berdasarkan kehadiran yang ada dalam teks yang dihasilkan. Nilai positif akan membuat token lebih kecil kemungkinannya muncul ketika sudah ada dan meningkatkan kemungkinan model untuk menghasilkan topik baru.

presencePenalty?: number

Nilai Properti

number

responseFormat

Objek yang menentukan format yang harus dihasilkan model. Digunakan untuk mengaktifkan mode JSON.

responseFormat?: ChatCompletionsResponseFormat

Nilai Properti

seed

Jika ditentukan, sistem akan melakukan upaya terbaik untuk mengambil sampel secara deterministik sehingga permintaan berulang dengan nilai awal dan parameter yang sama harus mengembalikan hasil yang sama. Determinisme tidak dijamin, dan Anda harus merujuk ke parameter respons system_fingerprint untuk memantau perubahan backend."

seed?: number

Nilai Properti

number

stop

Kumpulan urutan tekstual yang akan mengakhiri pembuatan penyelesaian.

stop?: string[]

Nilai Properti

string[]

temperature

Suhu pengambilan sampel untuk digunakan yang mengontrol kreativitas yang jelas dari penyelesaian yang dihasilkan. Nilai yang lebih tinggi akan membuat output lebih acak sementara nilai yang lebih rendah akan membuat hasil lebih fokus dan deterministik. Tidak disarankan untuk memodifikasi suhu dan topP untuk permintaan penyelesaian yang sama karena interaksi kedua pengaturan ini sulit diprediksi.

temperature?: number

Nilai Properti

number

toolChoice

Jika ditentukan, model akan mengonfigurasi alat mana yang disediakan yang dapat digunakan untuk respons penyelesaian obrolan.

toolChoice?: ChatCompletionsNamedToolSelectionUnion

Nilai Properti

tools

Definisi alat yang tersedia yang dapat digunakan permintaan penyelesaian obrolan, termasuk fungsi yang ditentukan pemanggil.

tools?: ChatCompletionsToolDefinitionUnion[]

Nilai Properti

topP

Alternatif untuk pengambilan sampel dengan suhu yang disebut pengambilan sampel nukleus. Nilai ini menyebabkan model mempertimbangkan hasil token dengan massa probabilitas yang disediakan. Sebagai contoh, nilai 0,15 hanya akan menyebabkan token yang terdiri dari 15% massa probabilitas teratas yang dipertimbangkan. Tidak disarankan untuk memodifikasi suhu dan topP untuk permintaan penyelesaian yang sama karena interaksi kedua pengaturan ini sulit diprediksi.

topP?: number

Nilai Properti

number

user

Pengidentifikasi untuk pemanggil atau pengguna akhir operasi. Ini dapat digunakan untuk tujuan pelacakan atau pembatasan tarif.

user?: string

Nilai Properti

string

Detail Properti yang Diwariskan

abortSignal

Sinyal yang dapat digunakan untuk membatalkan permintaan.

abortSignal?: AbortSignalLike

Nilai Properti

Diwarisi Dari OperationOptions.abortSignal

onResponse

Fungsi yang akan dipanggil setiap kali respons diterima dari server saat melakukan operasi yang diminta. Dapat dipanggil beberapa kali.

onResponse?: RawResponseCallback

Nilai Properti

Diwarisi Dari OperationOptions.onResponse

requestOptions

Opsi yang digunakan saat membuat dan mengirim permintaan HTTP untuk operasi ini.

requestOptions?: OperationRequestOptions

Nilai Properti

Diwarisi Dari OperationOptions.requestOptions

tracingOptions

Opsi yang digunakan saat pelacakan diaktifkan.

tracingOptions?: OperationTracingOptions

Nilai Properti

Diwarisi Dari OperationOptions.tracingOptions