Udostępnij za pomocą


Importowanie interfejsu API Google Gemini zgodnego z interfejsem OpenAI

DOTYCZY: Wszystkich poziomów zarządzania API

W tym artykule pokazano, jak zaimportować interfejs API Google Gemini zgodny z platformą OpenAI w celu uzyskania dostępu do modeli, takich jak gemini-2.0-flash. W przypadku tych modeli usługa Azure API Management może zarządzać punktem końcowym uzupełniania czatów zgodnym z interfejsem OpenAI.

Dowiedz się więcej o zarządzaniu interfejsami API sztucznej inteligencji w usłudze API Management:

Wymagania wstępne

Importowanie interfejsu API Gemini zgodnego z interfejsem OpenAI przy użyciu portalu

  1. Na portalu Azure przejdź do instancji zarządzania API.

  2. W menu po lewej stronie, w obszarze APIs, wybierz APIs>+ Dodaj API.

  3. W obszarze Definiowanie nowego interfejsu API wybierz pozycję Interfejs API modelu językowego.

    Zrzut ekranu przedstawiający tworzenie interfejsu API przejściowego modelu językowego w portalu.

  4. Na karcie Konfiguracja API :

    1. Wprowadź nazwę wyświetlaną i opcjonalny opis dla API.

    2. W polu Adres URL wprowadź następujący podstawowy adres URL z dokumentacji zgodności z interfejsem OpenAI Gemini: https://generativelanguage.googleapis.com/v1beta/openai

    3. W polu Ścieżka dołącz ścieżkę używaną przez wystąpienie usługi API Management do kierowania żądań do punktów końcowych interfejsu API Gemini.

    4. W polu Typ wybierz pozycję Utwórz interfejs API OpenAI.

    5. W polu Klucz dostępu wprowadź następujące informacje:

      1. Nazwa nagłówka: Autoryzacja.
      2. Wartość nagłówka (klucz): Bearer a następnie klucz API Gemini.

    Zrzut ekranu przedstawiający importowanie interfejsu API GEmini LLM w portalu.

  5. Na pozostałych kartach opcjonalnie skonfiguruj zasady do zarządzania użyciem tokenów, buforowaniem semantycznym i bezpieczeństwem zawartości sztucznej inteligencji. Aby uzyskać szczegółowe informacje, zobacz Importowanie interfejsu API modelu językowego.

  6. Wybierz opcję Przejrzyj.

  7. Po zweryfikowaniu ustawień wybierz pozycję Utwórz.

Usługa API Management tworzy interfejs API i konfiguruje następujące elementy:

  • Zasób backend i zasada set-backend-service, która kieruje żądania interfejsu API do punktu końcowego Google Gemini.
  • Dostęp do zaplecza LLM przy użyciu klucza API Gemini, który podałeś. Klucz jest chroniony jako klucz tajny o nazwie value w usłudze API Management.
  • (opcjonalnie) Zasady ułatwiające monitorowanie interfejsu API i zarządzanie nim.

Testowanie modelu Gemini

Po zaimportowaniu interfejsu API możesz przetestować punkt końcowy zakończeń czatu.

  1. Wybierz interfejs API utworzony w poprzednim kroku.

  2. Wybierz kartę Test.

  3. Wybierz operację POST Creates a model response for the given chat conversation , która jest żądaniem POST do punktu końcowego /chat/completions .

  4. W sekcji Treść żądania wprowadź następujący kod JSON, aby określić model i przykładowy monit. W tym przykładzie używany jest model gemini-2.0-flash.

    {
        "model": "gemini-2.0-flash",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    Po pomyślnym zakończeniu testu zaplecze odpowiada z pomyślnym kodem odpowiedzi HTTP i pewnymi danymi. Dołączane do odpowiedzi to dane użycia tokenu, które ułatwiają monitorowanie użycia tokenów modelu językowego i zarządzanie nim.

    Zrzut ekranu przedstawiający testowanie interfejsu API Gemini LLM w portalu.