Bagikan melalui


Simulasikan Azure OpenAI API

Sekilas
Tujuan: Menyimulasikan Azure OpenAI menggunakan LLM lokal
Waktu: 15 menit
Plugins:OpenAIMockResponsePlugin
Prasyarat:Menyiapkan Proksi Dev, Model bahasa lokal

Saat Anda membangun aplikasi yang terhubung ke Azure OpenAI, sering kali, hanya sebagian aplikasi yang berinteraksi dengan Azure OpenAI API. Saat Anda mengerjakan bagian aplikasi yang tidak memerlukan balasan nyata dari Azure OpenAI API, Anda dapat mensimulasikan respons menggunakan Dev Proxy. Menggunakan respons yang disimulasikan memungkinkan Anda untuk menghindari timbulnya biaya yang tidak perlu. Menggunakan OpenAIMockResponsePlugin model bahasa lokal yang berjalan di komputer Anda untuk mensimulasikan respons dari Azure OpenAI API.

Sebelum memulai

Untuk mensimulasikan respons API Azure OpenAI menggunakan Proksi Dev, Anda memerlukan klien model bahasa yang didukung yang diinstal di komputer Anda.

Secara default, Dev Proxy menggunakan model bahasa llama3.2 yang berjalan di Ollama. Untuk menggunakan klien atau model yang berbeda, perbarui pengaturan model bahasa di file konfigurasi Dev Proxy.

Mengonfigurasi Dev Proxy untuk mensimulasikan respons Azure OpenAI API

Petunjuk / Saran

Langkah-langkah yang dijelaskan dalam tutorial ini tersedia dalam preset Proksi Dev yang siap digunakan. Untuk menggunakan preset, di baris perintah, jalankan devproxy config get simulate-azure-openai, dan ikuti instruksinya.

Untuk mensimulasikan respons Azure OpenAI API menggunakan Dev Proxy, Anda perlu mengaktifkan OpenAIMockResponsePlugin di dalam file devproxyrc.json.

File:devproxyrc.json

{
  "$schema": "https://raw.githubusercontent.com/dotnet/dev-proxy/main/schemas/v2.1.0/rc.schema.json",
  "plugins": [
    {
      "name": "OpenAIMockResponsePlugin",
      "enabled": true,
      "pluginPath": "~appFolder/plugins/DevProxy.Plugins.dll"
    }
  ]
}

Selanjutnya, konfigurasikan Dev Proxy untuk mencegat permintaan ke Azure OpenAI API. Untuk kesederhanaan, gunakan wildcard untuk mencegat permintaan ke semua penyebaran.

File: devproxyrc.json

{
  // [...] trimmed for brevity
  "urlsToWatch": [
    "https://*.openai.azure.com/openai/deployments/*/completions*"
  ]
}

Terakhir, konfigurasikan Dev Proxy untuk menggunakan model bahasa lokal.

File: devproxyrc.json

{
  // [...] trimmed for brevity
  "languageModel": {
    "enabled": true
  }
}

File konfigurasi lengkap terlihat seperti ini.

File: devproxyrc.json

{
  "$schema": "https://raw.githubusercontent.com/dotnet/dev-proxy/main/schemas/v2.1.0/rc.schema.json",
  "plugins": [
    {
      "name": "OpenAIMockResponsePlugin",
      "enabled": true,
      "pluginPath": "~appFolder/plugins/DevProxy.Plugins.dll"
    }
  ],
  "urlsToWatch": [
    "https://*.openai.azure.com/openai/deployments/*/completions*"
  ],
  "languageModel": {
    "enabled": true
  }
}

Mensimulasikan respons Azure OpenAI API

Dengan asumsi konfigurasi default, mulai Ollama dengan model bahasa llama3.2. Di baris perintah, jalankan ollama run llama3.2.

Selanjutnya mulai Dev Proxy. Jika Anda menggunakan prasetel, jalankan devproxy -c "~appFolder/config/simulate-azure-openai/simulate-azure-openai.json. Jika Anda menggunakan file konfigurasi kustom bernama devproxyrc.json, disimpan di direktori kerja saat ini, jalankan devproxy. Proksi Pengembang memeriksa bahwa ia dapat mengakses model bahasa di Ollama dan mengonfirmasi bahwa ia siap untuk mensimulasikan respons API Azure OpenAI.

 info    OpenAIMockResponsePlugin: Checking language model availability...
 info    Listening on 127.0.0.1:8000...

Hotkeys: issue (w)eb request, (r)ecord, (s)top recording, (c)lear screen
Press CTRL+C to stop Dev Proxy

Jalankan aplikasi Anda dan buat permintaan ke Azure OpenAI API. Dev Proxy mencegat permintaan dan mensimulasikan respons menggunakan model bahasa lokal.

Cuplikan layar prompt perintah dengan respons simulasi Dev Proxy untuk permintaan ke Azure OpenAI API.

Langkah selanjutnya

Pelajari selengkapnya tentang OpenAIMockResponsePlugin.

Sampel

Lihat juga sampel Proksi Dev terkait: