Condividi tramite


Processo per creare agenti nell'organizzazione

Questo articolo descrive il processo standardizzato che i team devono seguire per creare agenti di intelligenza artificiale in modo coerente nell'intera organizzazione. Questa guida è incentrata sulla governance e sulle decisioni strutturali necessarie per supportare i team di sviluppo, anziché l'implementazione tecnica dei singoli carichi di lavoro. Comprendere questo processo è il componente finale della fase di compilazione degli agenti nel processo di adozione dell'agente di intelligenza artificiale (vedere la figura 1).

Diagramma che mostra un flusso di lavoro orizzontale con quattro fasi connesse: pianificare gli agenti (i sotto-passi sono piano aziendale, piano tecnologico, preparazione organizzativa e architettura dei dati). Governare e proteggere gli agenti (i sotto-passi sono IA responsabile, governance e sicurezza, e ambiente di preparazione). Costruire gli agenti (i sotto-passi sono sistemi monolitici e multi-agente e processo per costruire gli agenti). Integrare e gestire gli agenti (sotto-processi Integrare gli agenti e operare gli agenti). Figura 1. Processo di adozione degli agenti di intelligenza artificiale di Microsoft.

Senza un processo di sviluppo unificato, le organizzazioni possono sperimentare una proliferazione incontrollata di agenti, architetture inconsistenti e gap critici della sicurezza. Questi problemi si accumulano come debito tecnico e rischio operativo e possono impedire all'organizzazione di ridimensionare in modo efficace l'adozione dell'IA. I team del carico di lavoro devono integrare le procedure consigliate dalle linee guida per il carico di lavoro di intelligenza artificiale di Well-Architected Framework.

Diagramma che mostra cinque passaggi per creare agenti: Orchestrazione, Modelli, Knowledge & Tools, Osservabilità, Sicurezza. Il centro evidenzia Microsoft Foundry e Copilot Studio come due piattaforme per Microsoft Build.

1. Orchestrazione dell'agente

Le decisioni di orchestrazione strategica determinano il modo in cui gli agenti coordinano il lavoro, si integrano con i sistemi esistenti e scalano in tutta l'azienda. Queste scelte influiscono sulla velocità di sviluppo, sulla complessità operativa e sulla capacità dell'organizzazione di mantenere il controllo man mano che aumenta l'adozione degli agenti.

Definire la carta dell'agente

Creare artefatti di governance che documentino i limiti dell'agente e l'allineamento aziendale. La carta funge da riferimento autorevole per ciò che il sistema agente esegue e ciò che deve evitare. Questa documentazione impedisce lo scorrimento dell'ambito, garantisce che i team di conformità comprendano i limiti del sistema e forniscano una chiara responsabilità quando si verificano problemi. Includere responsabilità di sistema che si collegano a obiettivi aziendali specifici, ruoli degli agenti che impediscono la sovrapposizione funzionale e azioni vietate per stabilire protezioni di conformità. Senza carte chiare, gli agenti si evolvono oltre il loro ambito previsto, creando vulnerabilità di sicurezza e esposizione normativa.

Strategia di orchestrazione

L'orchestrazione determina il modo in cui gli agenti coordinano, prendere decisioni ed eseguire attività. Le organizzazioni devono definire modelli di orchestrazione approvati per bilanciare la velocità di sviluppo con il controllo operativo. Senza strategie standardizzate, i team potrebbero creare sistemi incompatibili difficili da monitorare, eseguire il debug e la scalabilità.

  1. Selezionare un approccio di orchestrazione. Scegliere tra framework di orchestrazione gestita e di agente code-first in base alle funzionalità dell'organizzazione e ai requisiti di controllo. L'orchestrazione gestita, ad esempio il servizio agente Foundry, accelera la distribuzione e offre sicurezza predefinita, ma limita la personalizzazione. I framework code-first, ad esempio Microsoft Agent Framework o LangGraph, offrono un controllo granulare e flessibilità multicloud, ma richiedono investimenti di progettazione significativi e manutenzione continuativa. Definire i criteri per i casi in cui i team devono usare ogni approccio per garantire la coerenza.

  2. Definire i modelli di orchestrazione. Definire gli standard per il coordinamento multi-agente. Decidere se concatenare gli agenti in sequenza o implementare modelli di elaborazione paralleli. Il concatenamento sequenziale semplifica il debug e offre una chiara responsabilità, ma aumenta la latenza. L'elaborazione parallela migliora i tempi di risposta, ma richiede meccanismi di coordinamento sofisticati e la gestione degli errori. Per le guide alle decisioni sull'architettura, vedere Modelli di orchestrazione dell'agente di intelligenza artificiale nel Centro architetture di Azure.

  3. Implementare flussi di lavoro deterministici. Applicare l'uso di flussi di lavoro deterministici per la logica di business critica. Usare i flussi di lavoro in Foundry e Microsoft Agent Framework per vincolare il comportamento dell'agente all'interno di percorsi fissi anziché basarsi esclusivamente sulle decisioni del modello probabilistico. I sistemi multi-agente richiedono flussi di lavoro per controllare i passaggi e la gestione dello stato del sistema. Esaminare le linee guida sulle decisioni del flusso di lavoro per singoli agenti e sistemi multi-agente.

Facilitazione Microsoft:
Foundry: usare agenti basati su prompt per lo sviluppo rapido e i flussi di lavoro per la progettazione visiva con poco codice adatto per la creazione rapida di prototipi. Usare gli agenti ospitati per distribuire framework agente personalizzati nell'infrastruttura gestita.

Microsoft Agent Framework: usare i flussi di lavoro per implementare modelli di orchestrazione nel codice.

Copilot Studio: configurare i flussi agente per i sistemi multi-agente con ruoli distinti e checkpoint di approvazione. Configurare il comportamento dell'agente orchestrando con intelligenza artificiale generativa.

Istruzioni per l'agente

Le istruzioni funzionano come logica operativa per gli agenti di intelligenza artificiale per interpretare la finalità ed eseguire le attività. Considerando le istruzioni come codice di configurazione, anziché testo ad hoc, abilita il controllo della versione, la revisione peer e il rollback in caso di problemi.

  1. Standardizzare l'architettura delle istruzioni. Le strutture coerenti riducono la deriva comportamentale e garantiscono la conformità. Istruzioni sulla struttura per definire in modo esplicito:

    Componente istruzione Scopo Example
    Identità e tono Come l'agente si presenta agli utenti Assistente professionale, conciso, utile
    Ambito e limiti Cosa deve eseguire l'agente ed evitare Non accedere ai sistemi di retribuzione; Concentrarsi solo sul supporto clienti
    Mandati degli strumenti Requisiti specifici per l'utilizzo degli strumenti Usa lo strumento Ricerca di conoscenza per tutte le risposte; dichiara "Non so" se non trovata.
    Regole di citazione Requisiti per la trasparenza e l'origine Ogni risposta deve fornire citazioni dal materiale di origine
  2. Applicare i formati di output strutturati. Usare formati come JSON o XML per gli output dell'agente per migliorare l'interoperabilità con i sistemi downstream. Gli output strutturati riducono gli errori di analisi nelle orchestrazioni multi-agente e abilitano la convalida a livello di codice delle risposte dell'agente prima di raggiungere l'utente.

  3. Implementare il controllo della versione e la convalida. Archiviare le istruzioni nei repository di controllo del codice sorgente per mantenere un audit trail delle modifiche. Integrare i passaggi di convalida automatizzati in cui gli script di valutazione o gli agenti secondari verificano che gli aggiornamenti rispettino le linee guida per la sicurezza e gli standard di formattazione prima della distribuzione.

Facilitazione Microsoft:
Foundry: vedere Progettazione dei messaggi di sistema. Usa lo strumento A2A e il playground Foundry. Testare e perfezionare il comportamento usando gli analizzatori di agenti.

2. Strategia di selezione del modello agente

La selezione del modello influisce direttamente sui costi, sulle prestazioni e sulla conformità nella flotta dell'agente. Le organizzazioni che, per impostazione predefinita, scelgono i modelli più grandi disponibili affrontano costi e limitazioni di quota non necessari che ostacolano la scalabilità.

  1. Associare le funzionalità del modello alla complessità delle attività. I modelli più piccoli e ottimizzati gestiscono attività di routine come il riepilogo in modo efficiente, controllando i costi e riducendo la latenza. Riservare modelli Premium per scenari che richiedono un'analisi complessa o in più passaggi in cui il valore giustifica costi più elevati. Questo approccio a livelli impedisce il sovraccarico del budget garantendo al tempo stesso risorse appropriate per i carichi di lavoro critici.

  2. Applicare la governance delle quote e dei costi. I modelli di fascia alta impongono limiti di velocità più rigorosi che possono interrompere il servizio durante i carichi di picco. Diversificare l'utilizzo del modello tra carichi di lavoro per evitare singoli punti di errore. Implementare i tag di allocazione dei costi per tenere traccia della spesa in base al reparto e al caso d'uso, consentendo decisioni basate sui dati sugli investimenti dei modelli.

  3. Imporre la convalida prima della distribuzione. I test su scala ridotta con query rappresentative documentano compromessi sulle prestazioni e convalidano la conformità agli standard di governance. Questa convalida impedisce errori costosi in cui i team distribuiscono modelli costosi per attività semplici o modelli sottodimensionati per requisiti complessi.

Facilitazione Microsoft:
Foundry: usa il catalogo dei modelli e valuta le opzioni del modello usando le classifiche dei modelli per confrontare le prestazioni e i compromessi in termini di costi. Per gli agenti di produttività e azione, usare il Model Router per ottimizzare dinamicamente i costi mantenendo allo stesso tempo la qualità. Esaminare le quote e i limiti dei modelli.

Copilot Studio: scegliere un modello di intelligenza artificiale primario o usare un modello personalizzato da Foundry.

3. Conoscenza e strumenti dell'agente

Le autorizzazioni per l'accesso ai dati e gli strumenti determinano l'affidabilità dell'agente, il comportamento di conformità e il rischio operativo. Questi criteri stabiliscono limiti che impediscono azioni non autorizzate, consentendo agli agenti di recapitare valore. Seguire tutti i criteri di governance e conformità dei dati.

Conoscenza dell'agente

Segmentare le conoscenze in base al ruolo per ridurre al minimo l'esposizione dei dati. I sistemi multi-agente richiedono limiti di dati rigorosi in cui ogni agente accede solo alle informazioni necessarie per la relativa funzione. Questa segmentazione riduce le superfici di attacco e semplifica i controlli di conformità creando modelli di accesso ai dati chiari. Quando gli agenti si connettono alle origini dati, assicurarsi che il recupero si verifichi solo da repository regolamentati con filtri e controlli di accesso appropriati. Esaminare l'architettura dei dati per gli agenti di intelligenza artificiale per allineare le strategie di integrazione ai requisiti di sicurezza.

Facilitazione Microsoft:
Foundry: collegare gli agenti a Foundry IQ per integrare più origini dati tramite un motore di ricerca agentico, garantendo il rispetto dei controlli di governance.

Copilot Studio: usare le origini conoscenze per connettere gli agenti ai repository di informazioni e ai connettori approvati per l'integrazione con i sistemi aziendali in modo sicuro.

Strumenti dell'agente

Gli strumenti estendono le funzionalità degli agenti dal recupero delle informazioni passivo al coinvolgimento attivo del sistema. Questa transizione introduce un rischio operativo, poiché gli agenti possono ora modificare i dati, attivare i flussi di lavoro e interagire con le API esterne. La definizione di un rigoroso framework di governance per l'utilizzo degli strumenti garantisce che gli agenti funzionino entro i limiti di sicurezza definiti e rispettino gli standard di sicurezza.

  1. Definire i limiti espliciti degli strumenti. Gli agenti che interagiscono con sistemi esterni richiedono una governance rigorosa per impedire modifiche non autorizzate. Specificare nel messaggio di sistema dell'agente esattamente quando deve essere richiamato uno strumento e richiedere la conferma da parte di un operatore umano per azioni ad alto impatto, come operazioni di scrittura su database o transazioni finanziarie. Questo controllo impedisce errori autonomi e garantisce la responsabilità per le operazioni di modifica dello stato.

  2. Isolare gli endpoint di integrazione. Esporre le funzionalità di sistema tramite API con ambito limitato anziché l'accesso diretto al database o al sistema. Applicare la convalida rigorosa dell'input su questi endpoint per rifiutare i dati in formato non valido generati dal modello prima che raggiungano i sistemi back-end. Applicare il principio dei privilegi minimi ai token di autenticazione, assicurandosi che l'agente contenga solo le autorizzazioni necessarie per l'attività specifica.

  3. Convalidare le azioni in ambienti isolati. Lo strumento agente di test viene usato in ambienti in modalità sandbox che rispecchiano la produzione, ma non possono influire su dati in tempo reale. Verificare che l'agente gestisca correttamente gli errori dell'API o i payload imprevisti senza esporre gli interni del sistema all'utente. Configurare la registrazione per attribuire ogni azione all'istanza dell'agente e all'ID conversazione specifici, creando un audit trail tracciabile per il debug e la conformità.

Facilitazione Microsoft:
Foundry: usare strumenti e procedure consigliate per gli strumenti. Usare un gateway di intelligenza artificiale per la governance degli strumenti.

Copilot Studio: aggiungere strumenti e trigger.

Memoria agente

La memoria dell'agente trasforma l'inferenza del modello senza stato in processi aziendali con stato. In tutta l'organizzazione, i requisiti di memoria variano dal contesto di sessione temporaneo al richiamo cronologico persistente. Senza una strategia unificata, le implementazioni di memoria ad hoc creano vettori per la perdita di dati, violazioni della privacy e crescita dell'archiviazione non gestita. Le organizzazioni devono stabilire modelli di governance che considerano la cronologia delle conversazioni come dati aziendali sensibili.

  1. Allineare i modelli di persistenza con la funzione dell'agente. Differenziare l'architettura della memoria in base al ruolo dell'agente. Usare la memoria temporanea basata su sessione per gli agenti transazionali per ridurre al minimo i rischi di conservazione dei dati. Implementare memoria persistente a lungo termine solo per gli agenti consultivi in cui il contesto cronologico è fondamentale per la personalizzazione o per un ragionamento complesso. Questa segmentazione impedisce l'accumulo di dati non necessari e allinea i costi di archiviazione al valore aziendale.

  2. Esternalizzare l'archiviazione dello stato. Separare la memoria dal motore di inferenza. Archiviare la cronologia delle conversazioni e il contesto nei sistemi dati gestiti in cui è possibile applicare controlli di sicurezza aziendali, criteri di backup e controllo di accesso. Questo approccio garantisce che i dati rimangano sotto il controllo dell'organizzazione indipendentemente dal modello sottostante e consentano l'applicazione dei criteri di conformità standard alle interazioni dell'agente.

  3. Applicare limiti di isolamento rigorosi. Evitare fughe di contesto tra utenti, tenant e domini agente. Assicurarsi che i meccanismi di recupero della memoria rispettino rigorosamente l'identità e le autorizzazioni dell'utente autenticato. Nelle architetture multi-agente, definire in modo esplicito quali segmenti di memoria possono essere condivisi tra gli agenti per impedire l'escalation dei privilegi o la perdita di dati oltre i confini.

  4. Automatizzare la conservazione e l'eliminazione. Applicare i criteri relativi al ciclo di vita dei dati alla memoria dell'agente. Configurare l'eliminazione automatica per i log delle conversazioni in base ai requisiti normativi e all'utilità aziendale. Implementare meccanismi che consentono agli utenti di visualizzare ed eliminare la cronologia di memoria specifica per garantire la conformità alle normative sulla privacy.

Facilitazione Microsoft:
Foundry: usare la memoria per archiviare le conversazioni. Per l'archiviazione personalizzata, vedere Configurazione dell'agente standard, Azure Cosmos DB e Integrazione di Azure Cosmos DB.

Microsoft Agent Framework: usare la serializzazione e la deserializzazione dello stato del thread e della memoria dell'agente.

Copilot Studio: analizzare l'efficacia dell'agente per identificare le opportunità di ottimizzazione. Esaminare le domande utente in base al tema per individuare i modelli e perfezionare le risposte.

4. Osservabilità dell'agente

L'osservabilità offre la visibilità necessaria per mantenere le operazioni affidabili degli agenti, ottimizzare le prestazioni e garantire la conformità agli standard dell'organizzazione. L'implementazione anticipata del monitoraggio e della telemetria consente il rilevamento proattivo dei problemi e il miglioramento continuo.

Diagramma che mostra i componenti di osservabilità e sicurezza dell'agente: monitoraggio di tracce, metriche e valutazioni per l'integrità dell'agente; protezioni e elenchi di blocchi per la convalida dell'input, le chiamate degli strumenti, le risposte e il filtro di output.

  1. Implementare il tracciamento. Configurare tracce che acquisiscino percorsi di esecuzione, punti decisionali e modelli di interazione. Questa visibilità consente una diagnosi rapida quando gli agenti producono risultati imprevisti o un calo delle prestazioni. Definire le linee di base per latenza, il costo per interazione e le percentuali di successo. Avvisa i team quando le metriche deviano dagli intervalli previsti per abilitare l'analisi prima che gli utenti notino problemi.

  2. Standardizzare i framework di valutazione. Creare valutazioni condivise che misurano in modo coerente qualità, sicurezza e affidabilità. Archiviare le valutazioni in un catalogo centrale per garantire che tutti i team applichino gli stessi standard. Integrare le valutazioni nelle pipeline CI/CD per rilevare i problemi prima del rilascio in produzione. Questo approccio sistematico impedisce la deriva della qualità man mano che gli agenti evolvono e distribuiscono nuove versioni.

  3. Estendere i test di sicurezza. Gli agenti di intelligenza artificiale affrontano minacce uniche che i test di sicurezza convenzionali potrebbero sfuggire. Implementare il red team di intelligenza artificiale dedicato che testa le vulnerabilità di prompt injection, tenta di estrarre i dati di training o le richieste di sistema e convalida le protezioni contro gli input antagonisti. Le valutazioni regolari della sicurezza assicurano che gli agenti rimangano resilienti man mano che le tecniche di attacco si evolvono.

Facilitazione Microsoft:
Foundry: usare il piano di controllo di Microsoft Foundry per visibilità e governance unificata nella flotta di agenti.

Copilot Studio: usare l'analisi e connettersi ad Azure Application Insights per la telemetria centralizzata. Creare set di test per valutazioni, linee guida sulla sicurezza e governance, analisi di sicurezza automatiche e verificare lo stato di protezione del runtime dell'agente.

5. Sicurezza dell'agente

I controlli di sicurezza incorporati in tutto il ciclo di vita dell'agente impediscono output dannosi, proteggono dagli attacchi e garantiscono la conformità agli standard dell'organizzazione. Queste misure di sicurezza operano su più livelli per creare una difesa avanzata.

  1. Distribuire guardrail in più punti di intervento. Le protezioni efficaci operano durante tutto il ciclo di vita dell'interazione anziché in un singolo checkpoint. Filtrare gli input utente per bloccare richieste dannose o dati sensibili prima dell'elaborazione. Convalidare le chiamate degli strumenti per evitare attacchi di injection quando gli agenti interagiscono con sistemi esterni. Esaminare le risposte degli strumenti per la conformità e la sicurezza prima che gli agenti elaborino le informazioni. Applicare controlli di moderazione e plagio del contenuto agli output finali prima del recapito agli utenti. Questo approccio a più livelli garantisce che nessun singolo punto di errore compromette l'intero sistema.

  2. Mantenere liste di blocco centralizzate per un'applicazione coerente. Gli elenchi di blocchi impediscono l'immissione o l'uscita dal sistema di termini non consentiti, modelli sensibili o contenuti non sicuri. Centralizzare la gestione dell'elenco di blocchi per garantire che tutti gli agenti e i modelli applichino standard coerenti. Aggiornare gli elenchi regolarmente in base alle minacce emergenti, ai nuovi requisiti di conformità e alle lezioni apprese dagli eventi imprevisti. Combinare elenchi di blocchi statici con metodi di rilevamento dinamici per ottenere una copertura completa mantenendo al contempo le prestazioni.

Facilitazione Microsoft:
Foundry: vedere Panoramica dei guardrail e dei controlli. Applicare protezioni in punti di intervento diversi. Usare un gateway di intelligenza artificiale per controllare gli endpoint del modello e applicare l'accesso sicuro. Usare la protezione dell'intelligenza artificiale di Microsoft Defender for Cloud e acquisire il contesto dell'applicazione e dell'utente finale per gli avvisi di intelligenza artificiale.

Passo successivo