Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
SE APLICA A: Todos los niveles de API Management
En este artículo se muestra cómo importar una API de Google Gemini compatible con OpenAI para acceder a modelos como gemini-2.0-flash. Para estos modelos, Azure API Management puede gestionar un punto de conexión compatible con OpenAI para finalizaciones de chat.
Obtenga más información sobre cómo administrar las API de IA en API Management:
- Funcionalidades de puerta de enlace de IA en Azure API Management
- Importación de una API de modelo de lenguaje
Prerrequisitos
- Una instancia existente de API Management. Créelo si aún no lo ha hecho.
- Una clave de API para la API de Gemini. Si no tiene una, créela en Google AI Studio y almacénela en una ubicación segura.
Importación de una API de Gemini compatible con OpenAI mediante el portal
Vaya a la instancia de API Management en Azure Portal.
En el menú de la izquierda, en API, seleccioneAPI >+ Agregar API.
En Definir una nueva API, seleccione Language Model API.
En la pestaña Configurar API :
Escriba un Nombre para mostrar y una Descripción opcional para la API.
En URL, escriba la siguiente dirección URL base en la documentación de compatibilidad de Gemini OpenAI:
https://generativelanguage.googleapis.com/v1beta/openaiEn Path, añada una ruta que su instancia de API Management usa para enrutar solicitudes a los puntos de conexión del Gemini API.
En Tipo, seleccione Crear API de OpenAI.
En Clave de acceso, escriba lo siguiente:
- Nombre del encabezado: Autorización.
- Valor de encabezado (clave):
Bearerseguido de la clave de API para la API de Gemini.
En las pestañas restantes, puede configurar directivas para administrar el consumo de tokens, el almacenamiento en caché semántico y la seguridad del contenido de inteligencia artificial. Para más información, consulte Importación de una API de modelo de lenguaje.
Seleccione Revisar.
Una vez validada la configuración, seleccione Crear.
API Management crea la API y configura lo siguiente:
- Un recurso deback-end y una directiva set-backend-service que dirige las solicitudes de API al punto de conexión de Google Gemini.
- Acceso al back-end de LLM mediante la clave de API de Gemini que proporcionó. La clave está protegida como un secreto denominado valor en API Management.
- (opcionalmente) Directivas que le ayudarán a supervisar y administrar la API.
Probar el modelo de Gemini
Después de importar la API, puede probar el punto de conexión de finalizaciones de chat para la API.
Seleccione la API que creó en el paso anterior.
Seleccione la pestaña Prueba.
Seleccione la
POST Creates a model response for the given chat conversationoperación, que es una solicitudPOSTal endpoint/chat/completions.En la sección Cuerpo de la solicitud, escriba el siguiente JSON para especificar el modelo y un comando de ejemplo. En este ejemplo, se usa el
gemini-2.0-flashmodelo.{ "model": "gemini-2.0-flash", "messages": [ { "role": "system", "content": "You are a helpful assistant" }, { "role": "user", "content": "How are you?" } ], "max_tokens": 50 }Cuando la prueba se realiza correctamente, el back-end responde con un código de respuesta HTTP correcto y algunos datos. Anexados a la respuesta son datos de uso de tokens para ayudarle a supervisar y administrar el consumo de tokens del modelo de idioma.