Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo offre raccomandazioni sulla gestione per le organizzazioni che eseguono carichi di lavoro di intelligenza artificiale in Azure. Si concentra su Azure soluzioni PaaS (Platform-as-a-Service) per l'intelligenza artificiale.
Gestire le distribuzioni di intelligenza artificiale
Le configurazioni di distribuzione coerenti migliorano la sicurezza, la conformità e l'efficienza operativa in tutti gli ambienti di intelligenza artificiale. Le organizzazioni che standardizzano l'approccio di distribuzione riducono la deviazione della configurazione e garantiscono prestazioni affidabili. È necessario implementare procedure di distribuzione sistematiche in linea con i requisiti aziendali. Ecco come fare:
Selezionare il modello operativo appropriato per l'organizzazione. I modelli di distribuzione creano limiti logici, ad esempio domini dati o funzioni aziendali, per garantire autonomia, governance e rilevamento dei costi. Distribuire un'istanza di Microsoft Foundry per ogni business unit perché la condivisione di una singola istanza tra più business unit limita il rilevamento dei costi e crea vincoli di risorse. Definire un progetto per caso d'uso e usare progetti basati su hub solo quando i team richiedono risorse condivise. Per altre informazioni, vedere Che tipo di progetto Foundry mi serve? e Tipi di risorse di Microsoft Foundry.
Distribuire nelle regioni che soddisfano i tuoi requisiti. Il posizionamento del modello dipende da specifici requisiti di latenza, velocità effettiva e conformità che determinano prestazioni ottimali. Controllare la tabella di disponibilità dei prodotti dell'area di Azure per confermare il supporto per l'hardware, le funzionalità e le regole di residenza dei dati necessarie prima della distribuzione per garantire la conformità alle prestazioni e alle normative.
Monitorare continuamente le risorse di distribuzione di intelligenza artificiale. Il monitoraggio delle risorse acquisisce i dati sulle prestazioni e identifica i problemi prima che influiscano sugli utenti. Le impostazioni di diagnostica acquisiscono log e metriche per tutti i servizi chiave, incluse Foundry e Foundry Tools. Questo monitoraggio offre visibilità sull'integrità del sistema e consente la risoluzione proattiva dei problemi. Vedere anche Monitoraggio di Azure Avvisi di base.
Gestire le risorse di distribuzione centralmente. La gestione centralizzata delle risorse offre una supervisione e un controllo coerenti in tutte le distribuzioni di intelligenza artificiale. Usare il Centro gestione in Foundry per configurare i progetti Foundry, tenere traccia dell'utilizzo delle risorse e gestire l'accesso. Questo approccio garantisce l'allocazione standardizzata delle risorse e il controllo dei costi. Monitorare anche i costi in Foundry.
Usare Gestione API di Azure come gateway unificato per più distribuzioni. Gestione API offre sicurezza, scalabilità, limitazione della velocità, quote di token e monitoraggio centralizzato durante l'onboarding di più applicazioni o team. Questo approccio standardizza i modelli di accesso e riduce il sovraccarico di gestione nei servizi di intelligenza artificiale. Per altre informazioni, vedere Access Azure OpenAI e altri modelli linguistici tramite un gateway.
Gestire modelli di intelligenza artificiale
Il monitoraggio dei modelli garantisce che gli output siano allineati ai principi di IA responsabile e mantengano l'accuratezza nel tempo. I modelli di intelligenza artificiale sperimentano la deriva a causa della modifica di dati, comportamenti degli utenti o fattori esterni che possono causare risultati imprecisi o preoccupazioni etiche. È necessario implementare il monitoraggio continuo per rilevare e risolvere queste modifiche in modo proattivo. Ecco come fare:
Monitorare gli output del modello per la qualità e l'allineamento. I processi di monitoraggio assicurano che i carichi di lavoro rimangano allineati agli obiettivi di IA responsabili e forniscano i risultati previsti. Usare le funzionalità di osservabilità di Foundry e monitorare le applicazioni. Per il servizio agente Foundry, monitorare la distribuzione degli agenti.
Tenere traccia delle metriche delle prestazioni del modello in modo continuo. Il monitoraggio delle prestazioni consente di individuare i problemi quando la qualità della precisione o della risposta scende al di sotto delle soglie accettabili. Monitorare la latenza nei tempi di risposta e l'accuratezza dei risultati della ricerca vettoriale tramite tracciamento in Foundry.
Prendere in considerazione l'implementazione di un gateway di intelligenza artificiale generativo per il monitoraggio avanzato. Gestione API di Azure abilita funzionalità di registrazione e monitoraggio che le piattaforme non forniscono in modo nativo, tra cui la raccolta IP di origine, il rilevamento del testo di input e l'analisi del testo di output. Questo approccio fornisce audit trail completi e dati di monitoraggio. Per ulteriori informazioni, vedere Implementazione di registrazione e monitoraggio per i modelli di linguaggio del servizio Azure OpenAI.
Scegliere Calcolo. In Foundry le risorse di calcolo supportano le distribuzioni di modelli essenziali e l'ottimizzazione. Standardizzare tipi di calcolo, runtime e periodi di arresto tra istanze di calcolo, cluster e opzioni serverless.
Gestire i dati di intelligenza artificiale
La qualità dei dati determina l'accuratezza e l'affidabilità degli output del modello di intelligenza artificiale. Le organizzazioni che mantengono standard di dati di alta qualità ottengono prestazioni del modello migliori e riducono il rischio di risultati distorti o imprecisi. È necessario implementare procedure di gestione dei dati sistematiche per garantire una qualità coerente del modello. Ecco come fare:
Monitorare la deriva dei dati in modo continuo. Il rilevamento della deriva dei dati identifica quando i modelli di dati di input cambiano rispetto alle baseline di training, che possono ridurre le prestazioni del modello nel tempo. Tenere traccia dell'accuratezza e della deriva dei dati nei carichi di lavoro generativi e non generativi dell'intelligenza artificiale per garantire che i modelli rimangano pertinenti e reattivi alle condizioni correnti. Usare valutazioni in Foundry per stabilire linee di base di monitoraggio e soglie di rilevamento.
Configurare avvisi automatizzati per la riduzione delle prestazioni. I sistemi di avviso forniscono un avviso anticipato quando le prestazioni del modello scende al di sotto delle soglie accettabili, abilitando l'intervento proattivo prima che i problemi influiscano sugli utenti. Configurare avvisi personalizzati per rilevare le deviazioni delle prestazioni e attivare flussi di lavoro di correzione quando i modelli richiedono la ripetizione del training o la regolazione.
Garantire standard di elaborazione dei dati di qualità. I requisiti di preparazione dei dati differiscono tra i tipi di carico di lavoro di intelligenza artificiale, ma devono mantenere standard di qualità coerenti in tutte le implementazioni. Per l'intelligenza artificiale generativa, strutturare i dati nel formato corretto con la suddivisione in blocchi, l'arricchimento e l'incorporamento appropriati per un utilizzo ottimale del modello di intelligenza artificiale. Per altre informazioni, vedere Guida alla progettazione e allo sviluppo di una soluzione RAG.
Implementare la continuità aziendale
La continuità aziendale garantisce che i servizi di intelligenza artificiale rimangano disponibili durante interruzioni a livello di area o interruzioni del servizio. Le interruzioni del servizio possono influire sulle operazioni aziendali critiche che dipendono dalle funzionalità di intelligenza artificiale, rendendo essenziale la pianificazione della continuità per la resilienza dell'organizzazione. È necessario implementare strategie di distribuzione in più aree per mantenere la disponibilità del servizio. Ecco come fare:
Distribuire i servizi di intelligenza artificiale in più aree. Le distribuzioni in più aree offrono ridondanza che mantiene la disponibilità del servizio quando si verificano interruzioni o vincoli di capacità in singole aree. Implementare strategie di distribuzione in più aree per Foundry e Azure OpenAI per garantire una distribuzione coerente del servizio.
Configurare meccanismi di failover automatizzati. Il failover automatico riduce il tempo di ripristino e garantisce il recapito continuo del servizio quando le aree primarie non sono disponibili. Configurare il routing del traffico e il bilanciamento del carico tra aree per consentire transizioni senza problemi durante le interruzioni del servizio.