Bagikan melalui


Mengimpor Google Gemini API yang kompatibel dengan OpenAI

BERLAKU UNTUK: Semua tingkatan manajemen API

Artikel ini menunjukkan kepada Anda cara mengimpor Google Gemini API yang kompatibel dengan OpenAI untuk mengakses model seperti gemini-2.0-flash. Untuk model ini, Azure API Management dapat mengelola titik akhir penyelesaian obrolan yang kompatibel dengan OpenAI.

Pelajari lebih lanjut tentang mengelola API AI di Manajemen API.

Prasyarat

Mengimpor API Gemini yang kompatibel dengan OpenAI menggunakan portal

  1. Di portal Azure, navigasikan ke instance Manajemen API Anda.

  2. Pada menu sebelah kiri, di bawah API, pilih API>+ Tambah API.

  3. Di bawah Tentukan API baru, pilih API Model Bahasa.

    Cuplikan layar pembuatan API model bahasa passthrough di portal.

  4. Pada tab Konfigurasi API :

    1. Masukkan Nama tampilan dan Deskripsi opsional untuk API.

    2. Di URL, masukkan URL dasar berikut dari dokumentasi kompatibilitas Gemini OpenAI: https://generativelanguage.googleapis.com/v1beta/openai

    3. Di Jalur, tambahkan jalur yang digunakan instans API Management Anda untuk merutekan permintaan ke titik akhir Gemini API.

    4. Di Jenis, pilih Buat OpenAI API.

    5. Di Kunci akses, masukkan yang berikut ini:

      1. Nama header: Otorisasi.
      2. Nilai header (kunci): Bearer diikuti oleh kunci API Anda untuk API Gemini.

    Cuplikan layar mengimpor Gemini LLM API di portal.

  5. Pada tab yang tersisa, Anda dapat mengonfigurasi kebijakan opsional untuk mengelola akses token, cache semantik, dan keselamatan konten AI. Untuk detailnya, lihat Mengimpor API model bahasa.

  6. Pilih Tinjau.

  7. Setelah pengaturan divalidasi, pilih Buat.

API Management membuat API dan mengonfigurasi hal berikut:

  • Sumber daya backend dan kebijakan layanan set-backend yang mengarahkan permintaan API ke titik akhir Google Gemini.
  • Akses ke backend LLM menggunakan kunci API Gemini yang Anda sediakan. Kunci dilindungi sebagai rahasia bernama nilai dalam Pengelolaan API.
  • (opsional) Kebijakan untuk membantu Anda memantau dan mengelola API.

Menguji model Gemini

Setelah mengimpor API, Anda dapat menguji titik akhir penyelesaian obrolan untuk API.

  1. Pilih API yang Anda buat di langkah sebelumnya.

  2. Pilih tab Uji.

  3. Pilih operasi POST Creates a model response for the given chat conversation, yang merupakan permintaan POST ke titik akhir /chat/completions.

  4. Di bagian Isi permintaan , masukkan JSON berikut untuk menentukan model dan contoh perintah. Dalam contoh ini, gemini-2.0-flash model digunakan.

    {
        "model": "gemini-2.0-flash",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    Ketika pengujian berhasil, backend merespons dengan kode respons HTTP yang berhasil dan beberapa data. Ditambahkan ke respons adalah data penggunaan token untuk membantu Anda memantau dan mengelola konsumsi token model bahasa Anda.

    Cuplikan layar pengujian Gemini LLM API di portal.