Condividi tramite


Importare un'API Foundry per intelligenza artificiale di Azure

SI APPLICA A: Tutti i livelli di Gestione API

È possibile importare gli endpoint del modello di intelligenza artificiale distribuiti in Azure AI Foundry nell'istanza di Gestione API come API. Usare i criteri del gateway di intelligenza artificiale e altre funzionalità in Gestione API per semplificare l'integrazione, migliorare l'osservabilità e migliorare il controllo sugli endpoint del modello.

Altre informazioni sulla gestione delle API di intelligenza artificiale in Gestione API:

Opzioni di compatibilità client

Gestione API supporta due opzioni di compatibilità client per le API di intelligenza artificiale. Scegliere l'opzione adatta per la distribuzione del modello. L'opzione determina il modo in cui i client chiamano l'API e il modo in cui l'istanza di Gestione API instrada le richieste al servizio di intelligenza artificiale.

  • Intelligenza artificiale di Azure : gestire gli endpoint del modello in Azure AI Foundry esposti tramite l'API di inferenza del modello di intelligenza artificiale di Azure.

    I clienti chiamano la distribuzione presso un endpoint come /models, ad esempio /my-model/models/chat/completions. Il nome della distribuzione viene passato nel corpo della richiesta. Usare questa opzione se si vuole passare da un modello all'altro esposto tramite l'API di inferenza del modello di intelligenza artificiale di Azure e da quelli distribuiti nel servizio Azure OpenAI.

  • Servizio OpenAI di Azure : gestire gli endpoint del modello distribuiti nel servizio OpenAI di Azure.

    I clienti chiamano la distribuzione in un endpoint, ad esempio /openai/openai/deployments/my-deployment/chat/completions. Il nome della distribuzione viene passato nel percorso della richiesta. Usare questa opzione se il servizio di intelligenza artificiale include solo distribuzioni del modello di servizio OpenAI di Azure.

Prerequisiti

  • Un'istanza di API Management esistente. Crearne una se non è già stato fatto.
  • Un servizio di intelligenza artificiale di Azure nel tuo abbonamento con uno o più modelli distribuiti. Gli esempi includono i modelli distribuiti in Azure AI Foundry o nel servizio Azure OpenAI.

Importare l'API Foundry di intelligenza artificiale usando il portale

Usare la procedura seguente per importare un'API di intelligenza artificiale in Gestione API.

Quando si importa l'API, Gestione API configura automaticamente:

  • Operazioni per ciascun endpoint REST dell'API
  • Identità assegnata dal sistema con le autorizzazioni necessarie per accedere alla distribuzione del servizio di intelligenza artificiale.
  • Una risorsa back-end e un criterio set-back-end-service che indirizzano le richieste API all'endpoint del servizio di intelligenza artificiale.
  • Autenticazione al back-end usando l'identità gestita assegnata dal sistema dell'istanza.
  • (facoltativamente) Criteri che consentono di monitorare e gestire l'API.

Per importare un'API Foundry di intelligenza artificiale in Gestione delle API:

  1. Nel portale di Azure accedere all'istanza di Gestione API.

  2. Nel menu a sinistra, in API, selezionare >.

  3. In Crea dalla risorsa di Azure selezionare Azure AI Foundry.

    Screenshot della creazione di un'API compatibile con OpenAI nel portale.

  4. Nella scheda Seleziona servizio di intelligenza artificiale :

    1. Selezionare la sottoscrizione in cui cercare i servizi di intelligenza artificiale. Per ottenere informazioni sulle distribuzioni di modelli in un servizio, selezionare il collegamento distribuzioni accanto al nome del servizio. Screenshot delle distribuzioni per un servizio di intelligenza artificiale nel portale.
    2. Selezionare un servizio di intelligenza artificiale.
    3. Seleziona Avanti.
  5. Nella scheda Configura API :

    1. Immettere un Nome visualizzato e una Descrizione facoltativa per l'API.

    2. In Percorso di base immettere un percorso usato dall'istanza di Gestione API per accedere all'endpoint di distribuzione.

    3. Facoltativamente, selezionare uno o più prodotti da associare all'API.

    4. In Compatibilità client selezionare una delle opzioni seguenti in base ai tipi di client che si intende supportare. Per altre informazioni, vedere Opzioni di compatibilità client .

      • Azure OpenAI : selezionare questa opzione se i client devono accedere solo alle distribuzioni del modello di servizio OpenAI di Azure.
      • Intelligenza artificiale di Azure : selezionare questa opzione se i client devono accedere ad altri modelli in Azure AI Foundry.
    5. Seleziona Avanti.

      Screenshot della configurazione dell'API Ai Foundry nel portale.

  6. Nella scheda Gestisci consumo di token immettere facoltativamente le impostazioni o accettare le impostazioni predefinite che definiscono i criteri seguenti per monitorare e gestire l'API:

  7. Nella scheda Applica memorizzazione nella cache semantica immettere facoltativamente le impostazioni o accettare impostazioni predefinite che definiscono i criteri per ottimizzare le prestazioni e ridurre la latenza per l'API:

  8. Nella sicurezza dei contenuti di intelligenza artificiale immettere facoltativamente le impostazioni o accettare le impostazioni predefinite per configurare il servizio Sicurezza dei contenuti di Intelligenza artificiale di Azure per bloccare le richieste con contenuto non sicuro:

  9. Seleziona Esamina.

  10. Dopo aver convalidato le impostazioni, selezionare Crea.

Testare l'API di intelligenza artificiale

Per assicurarsi che l'API di intelligenza artificiale funzioni come previsto, testarla nella console di test di Gestione API.

  1. Selezionare l'API creata nel passaggio precedente.

  2. Selezionare la scheda Test.

  3. Selezionare un'operazione compatibile con la distribuzione del modello. Nella pagina vengono visualizzati i campi per i parametri e le intestazioni.

  4. Immettere parametri e intestazioni in base alle esigenze. A seconda dell'operazione, potrebbe essere necessario configurare o aggiornare un corpo della richiesta.

    Annotazioni

    Nella console di test, Gestione API popola automaticamente un'intestazione Ocp-Apim-Subscription-Key e configura la chiave di sottoscrizione della sottoscrizione con accesso completo integrata. Questa chiave consente l'accesso a ogni API nell'istanza di Gestione API. Facoltativamente, visualizzare l'intestazione Ocp-Apim-Subscription-Key selezionando l'icona "occhio" accanto alla richiesta HTTP.

  5. Seleziona Invia.

    Quando il test ha esito positivo, il back-end risponde con un codice di risposta HTTP corretto e alcuni dati. Allegati alla risposta sono i dati di utilizzo dei token per aiutarti a monitorare e gestire il consumo di token del modello linguistico.