Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
SE APLICA A: Todos los niveles de API Management
Puede importar los puntos de conexión del modelo de IA implementados en Azure AI Foundry a la instancia de API Management como API. Use directivas de puerta de enlace de IA y otras funcionalidades de API Management para simplificar la integración, mejorar la observabilidad y mejorar el control sobre los puntos de conexión del modelo.
Obtenga más información sobre cómo administrar las API de IA en API Management:
Opciones de compatibilidad de cliente
API Management admite dos opciones de compatibilidad de cliente para las API de IA. Elija la opción adecuada para la implementación del modelo. La opción determina cómo los clientes llaman a la API y cómo la instancia de API Management enruta las solicitudes al servicio de IA.
Azure AI: administre puntos de conexión de modelo en Azure AI Foundry que se exponen a través de la API de inferencia de modelos de Azure AI.
Los clientes llaman a la implementación en un
/models
punto de conexión como/my-model/models/chat/completions
. El nombre de implementación se pasa en el cuerpo de la solicitud. Use esta opción si quiere flexibilidad para cambiar entre los modelos expuestos a través de la API de inferencia de modelos de Azure AI y los implementados en el servicio Azure OpenAI.Servicio Azure OpenAI : administre los puntos de conexión del modelo implementados en el servicio Azure OpenAI.
Los clientes llaman a la implementación en un
/openai
punto de conexión como/openai/deployments/my-deployment/chat/completions
. El nombre de implementación se pasa en la ruta de acceso de la solicitud. Use esta opción si el servicio de IA solo incluye implementaciones del modelo de servicio OpenAI de Azure.
Prerrequisitos
- Una instancia existente de API Management. Créelo si aún no lo ha hecho.
- Un servicio de Azure AI en la suscripción con uno o varios modelos implementados. Algunos ejemplos son los modelos implementados en Azure AI Foundry o azure OpenAI Service.
Importación de AI Foundry API mediante el portal
Siga estos pasos para importar una API de IA a API Management.
Al importar la API, API Management configura automáticamente:
- Operaciones para cada uno de los puntos de conexión de la API REST.
- Una identidad asignada por el sistema con los permisos necesarios para acceder a la implementación del servicio de IA.
- Un recurso backend y una directiva set-backend-service que redirige las solicitudes de API al punto de conexión del servicio de IA.
- Autenticación en el back-end mediante la identidad administrada asignada por el sistema de la instancia.
- (opcionalmente) Directivas que le ayudarán a supervisar y administrar la API.
Para importar una API de AI Foundry a API Management:
Vaya a la instancia de API Management en Azure Portal.
En el menú de la izquierda, en API, seleccioneAPI >+ Agregar API.
En Crear desde un recurso de Azure, seleccione Azure AI Foundry.
En la pestaña Seleccionar servicio de IA :
- Seleccione la suscripción en la que se van a buscar los servicios de IA. Para obtener información sobre las implementaciones de modelos en un servicio, seleccione el vínculo implementaciones junto al nombre del servicio.
- Seleccione un servicio de IA.
- Seleccione Siguiente.
- Seleccione la suscripción en la que se van a buscar los servicios de IA. Para obtener información sobre las implementaciones de modelos en un servicio, seleccione el vínculo implementaciones junto al nombre del servicio.
En la pestaña Configurar API :
Escriba un Nombre para mostrar y una Descripción opcional para la API.
En Ruta de acceso base, escriba una ruta de acceso que la instancia de API Management usa para acceder al punto de conexión de implementación.
Opcionalmente, seleccione uno o varios productos para asociarlos a la API.
En Compatibilidad de cliente, seleccione cualquiera de las siguientes opciones en función de los tipos de cliente que quiera admitir. Consulte Opciones de compatibilidad de cliente para obtener más información.
- Azure OpenAI : seleccione esta opción si los clientes solo necesitan acceder a las implementaciones del modelo del servicio OpenAI de Azure.
- Azure AI : seleccione esta opción si los clientes necesitan acceder a otros modelos en Azure AI Foundry.
Seleccione Siguiente.
En la pestaña Administrar consumo de tokens , escriba la configuración o acepte valores predeterminados que definan las siguientes directivas para ayudar a supervisar y administrar la API:
En la pestaña Aplicar almacenamiento en caché semántico , opcionalmente escriba la configuración o acepte valores predeterminados que definan las directivas para ayudar a optimizar el rendimiento y reducir la latencia de la API:
En la seguridad del contenido de AI, puede ingresar la configuración de forma opcional o aceptar los valores predeterminados para configurar el servicio de seguridad del contenido de Azure AI para bloquear las indicaciones con contenido peligroso.
Seleccione Revisar.
Una vez validada la configuración, seleccione Crear.
Prueba de la API de IA
Para asegurarse de que la API de IA funciona según lo previsto, pruébela en la consola de prueba de API Management.
Seleccione la API que creó en los pasos anteriores.
Seleccione la pestaña Prueba.
Seleccione una operación compatible con la implementación del modelo. En la página se muestran los campos de los parámetros y los encabezados.
Escriba los parámetros y los encabezados según sea necesario. En función de la operación, es posible que tenga que configurar o actualizar un cuerpo de la solicitud.
Nota:
En la consola de prueba, API Management rellena automáticamente un encabezado Ocp-Apim-Subscription-Key y configura la clave de suscripción de la suscripción de acceso completo integrada. Esta clave permite el acceso a todas las API de la instancia de API Management. Opcionalmente, se puede mostrar el encabezado Ocp-Apim-Subscription-Key si se selecciona el icono de ojo situado junto a la Solicitud HTTP.
Seleccione Enviar.
Cuando la prueba se realiza correctamente, el back-end responde con un código de respuesta HTTP correcto y algunos datos. Anexados a la respuesta son datos de uso de tokens para ayudarle a supervisar y administrar el consumo de tokens del modelo de idioma.
Contenido relacionado
- Limitaciones de importación de API
- Importación de una especificación de OpenAPI
- Importación de una API de SOAP
- Importar una API de SOAP y convertir en REST
- Importar un API de App Service
- Importación de una API de aplicación de contenedor
- Importación de WebSocket API
- Importación de GraphQL API
- Importación de un esquema GraphQL y configuración de solucionadores de campos
- Importación de una API de aplicación de funciones
- Importación de una API de aplicación lógica
- Importación de un servicio Service Fabric
- Importación de una API de Azure AI Foundry
- Importación de una API de Azure OpenAI
- Importación de una API de LLM
- Importación de una API de OData
- Importación de metadatos de SAP OData
- Importación de una API de gRPC
- Edición de una API