Compartir vía


Importación de una API de Google Gemini compatible con OpenAI

SE APLICA A: Todos los niveles de API Management

En este artículo se muestra cómo importar una API de Google Gemini compatible con OpenAI para acceder a modelos como gemini-2.0-flash. Para estos modelos, Azure API Management puede gestionar un punto de conexión compatible con OpenAI para finalizaciones de chat.

Obtenga más información sobre cómo administrar las API de IA en API Management:

Prerrequisitos

Importación de una API de Gemini compatible con OpenAI mediante el portal

  1. Vaya a la instancia de API Management en Azure Portal.

  2. En el menú de la izquierda, en API, seleccioneAPI >+ Agregar API.

  3. En Definir una nueva API, seleccione Language Model API.

    Captura de pantalla de la creación de una API de modelo de lenguaje de paso a través en el portal.

  4. En la pestaña Configurar API :

    1. Escriba un Nombre para mostrar y una Descripción opcional para la API.

    2. En URL, escriba la siguiente dirección URL base en la documentación de compatibilidad de Gemini OpenAI: https://generativelanguage.googleapis.com/v1beta/openai

    3. En Path, añada una ruta que su instancia de API Management usa para enrutar solicitudes a los puntos de conexión del Gemini API.

    4. En Tipo, seleccione Crear API de OpenAI.

    5. En Clave de acceso, escriba lo siguiente:

      1. Nombre del encabezado: Autorización.
      2. Valor de encabezado (clave):Bearer seguido de la clave de API para la API de Gemini.

    Captura de pantalla de la importación de una API de Gemini LLM en el portal.

  5. En las pestañas restantes, puede configurar directivas para administrar el consumo de tokens, el almacenamiento en caché semántico y la seguridad del contenido de inteligencia artificial. Para más información, consulte Importación de una API de modelo de lenguaje.

  6. Seleccione Revisar.

  7. Una vez validada la configuración, seleccione Crear.

API Management crea la API y configura lo siguiente:

  • Un recurso deback-end y una directiva set-backend-service que dirige las solicitudes de API al punto de conexión de Google Gemini.
  • Acceso al back-end de LLM mediante la clave de API de Gemini que proporcionó. La clave está protegida como un secreto denominado valor en API Management.
  • (opcionalmente) Directivas que le ayudarán a supervisar y administrar la API.

Probar el modelo de Gemini

Después de importar la API, puede probar el punto de conexión de finalizaciones de chat para la API.

  1. Seleccione la API que creó en el paso anterior.

  2. Seleccione la pestaña Prueba.

  3. Seleccione la POST Creates a model response for the given chat conversation operación, que es una solicitud POST al endpoint /chat/completions.

  4. En la sección Cuerpo de la solicitud, escriba el siguiente JSON para especificar el modelo y un comando de ejemplo. En este ejemplo, se usa el gemini-2.0-flash modelo.

    {
        "model": "gemini-2.0-flash",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    Cuando la prueba se realiza correctamente, el back-end responde con un código de respuesta HTTP correcto y algunos datos. Anexados a la respuesta son datos de uso de tokens para ayudarle a supervisar y administrar el consumo de tokens del modelo de idioma.

    Captura de pantalla de la prueba de una API de Gemini LLM en el portal.