Nota
L'accesso a questa pagina richiede l'autorizzazione. Puoi provare ad accedere o a cambiare directory.
L'accesso a questa pagina richiede l'autorizzazione. Puoi provare a cambiare directory.
Queste domande frequenti illustrano le funzionalità, l'utilizzo e le misure di sicurezza delle fasi di approvazione basate sull'intelligenza artificiale (approvazioni di intelligenza artificiale) in Microsoft Copilot Studio. Le approvazioni di intelligenza artificiale consentono a un flusso agente di approvare o rifiutare automaticamente le richieste in base a criteri predefiniti, garantendo al tempo stesso che gli esseri umani mantengano il controllo per decisioni importanti. Ecco alcune domande e risposte comuni relative a questa funzionalità.
Che cosa sono le approvazioni di intelligenza artificiale?
Le approvazioni di intelligenza artificiale sono passaggi decisionali intelligenti e automatizzati nei flussi di lavoro di approvazione. Le approvazioni di intelligenza artificiale usano i modelli o i modelli OpenAI di Azure che è possibile usare da Fonderia Azure AI per valutare le richieste di approvazione rispetto alle regole di business e restituire una decisione "Approvata" o "Rifiutata" con una logica.
Che cosa sono le funzionalità delle approvazioni di intelligenza artificiale?
A differenza dell'automazione basata su regole di base, le approvazioni di intelligenza artificiale possono interpretare dati non strutturati e documenti complessi (ad esempio PDF o immagini associate a una richiesta) e applicare logica sfumata per prendere una decisione. Ad esempio, un'approvazione di intelligenza artificiale potrebbe leggere una giustificazione scritta, verificare la presenza di parole chiave dei criteri e quindi decidere.
Le fasi di approvazione dell'IA possono anche essere combinate con le fasi umane, in modo che, mentre l'IA gestisce le decisioni di routine, le persone possano ancora sorvegliare e finalizzare eventuali casi critici o eccezionali. In sintesi, le approvazioni di intelligenza artificiale automatizzano le decisioni ripetitive sì/no in un processo, velocizzando i flussi di lavoro senza rimuovere la supervisione umana in cui è importante.
Qual è l'uso previsto delle approvazioni di intelligenza artificiale?
Le approvazioni di intelligenza artificiale sono progettate per scenari aziendali comuni con criteri ben definiti, semplificando i flussi di lavoro quotidiani automatizzando le decisioni di routine. I casi d'uso tipici includono:
Approvazioni di rimborso spese: Approvare automaticamente le attestazioni con determinati importi con ricevute valide, consentendo ai manager di concentrarsi solo sulle eccezioni.
Approvazioni degli ordini di acquisto: Valutare le richieste rispetto ai limiti di budget e agli elenchi dei fornitori, approvando automaticamente gli ordini di acquisto standard all'interno dei criteri.
Approvazioni delle richieste di viaggio: Approvare automaticamente le richieste di spostamento conformi rifiutando le richieste con violazioni dei criteri.
Onboarding del fornitore: Accettare o rifiutare le applicazioni controllando i requisiti di qualificazione e conformità in base ai criteri predefiniti.
Approvazioni per l'elaborazione delle fatture: Convalidare le fatture in base agli importi corrispondenti agli ordini di acquisto e confermare che la documentazione richiesta è presente.
Approvazioni per la revisione dei documenti: Verificare che i contratti o i criteri includano gli elementi necessari e soddisfino gli standard di formattazione prima di passare ai passaggi successivi.
Approvazioni delle richieste di time-off: Approvare le richieste di congedo quando i dipendenti hanno un equilibrio sufficiente e non esistono conflitti di pianificazione.
Le approvazioni di intelligenza artificiale sono state progettate per decisioni di routine ben definite. Tuttavia, esistono scenari in cui il sistema potrebbe non avere prestazioni affidabili o responsabili. Si consiglia ai clienti di usare le approvazioni di intelligenza artificiale nelle soluzioni o nelle applicazioni innovative, ma considerando i principi seguenti quando si sceglie un caso d'uso:
High-stakes o decisioni su modifiche importanti: Il sistema non è stato progettato per gestire decisioni che hanno effetti su salute, sicurezza, finanze o stato legale. Gli esempi includono attestazioni assicurative, autorizzazioni mediche, approvazioni dei prestiti o decisioni di immigrazione, che richiedono giudizio umano e responsabilità.
Questioni legali o disciplinari: I casi d'uso che coinvolgono responsabilità legali, interpretazione della conformità o disciplina del dipendente potrebbero superare l'ambito previsto del sistema. Anche se l'IA può riepilogare gli input, le decisioni finali in queste aree devono rimanere a carico degli esseri umani.
Criteri soggettivi o ambigui: Il sistema potrebbe contrastare con decisioni che si basano su gusti, discrezione o compromessi complessi, ad esempio la valutazione del lavoro creativo o la valutazione della qualità, in cui gli standard non sono facilmente codificati.
Scenari sensibili o eticamente complessi: Le approvazioni di intelligenza artificiale non sono state progettate per decisioni che coinvolgono attributi personali, potenziali discriminazioni o generazione di contenuti con restrizioni. Questi usi generano problemi di intelligenza artificiale responsabile e potrebbero richiedere misure di sicurezza aggiuntive.
Settori regolamentati e flussi di lavoro sensibili alla conformità: In domini come sanità, finanza o aviazione, i requisiti normativi potrebbero richiedere supervisione umana anche per decisioni di routine. Il sistema non è stato valutato per la conformità in questi contesti.
Uso prevedibile ma non intenzionale: Con la diffusione in aumento, gli utenti potrebbero tentare di applicare le approvazioni di intelligenza artificiale ad aree quali revisioni delle prestazioni, decisioni di assunzione o valutazioni di idoneità dei clienti. Questi usi non fanno parte della progettazione o della valutazione dell'impatto del sistema e potrebbero introdurre rischi se non sono gestiti attentamente.
Importante
Considerazioni legali e normative. Le organizzazioni devono valutare potenziali obblighi legali e normativi specifici quando si usano servizi e soluzioni di intelligenza artificiale. I servizi e le soluzioni potrebbero non essere appropriati per l'uso in ogni settore o scenario. Le restrizioni possono variare in base ai requisiti normativi regionali o locali. Inoltre, i servizi o le soluzioni di intelligenza artificiale non sono progettati e non possono essere usati in modi vietati in termini di servizio applicabili e codici di comportamento pertinenti.
Quali sono le limitazioni tecniche delle approvazioni di intelligenza artificiale e come gli utenti possono ridurre al minimo l'impatto delle limitazioni?
Anche se le approvazioni di intelligenza artificiale sono una funzionalità potente, è consigliabile che gli utenti siano consapevoli delle proprie limitazioni:
Le approvazioni di intelligenza artificiale si basano sulle regole fornite: L'intelligenza artificiale segue rigorosamente le istruzioni e i dati. Se la richiesta non è chiara o incompleta, l'approvazione dell'intelligenza artificiale potrebbe prendere decisioni errate o fallire. Definire i criteri in modo esplicito; dicendo "approva se ragionevole" senza definire "ragionevole" porta a un'interpretazione errata.
Possibilità di errori: Le approvazioni di intelligenza artificiale possono commettere errori a causa di input ambigui, casi limite complessi o lettura errata di documenti analizzati in modo non corretto. Gli output non sono sempre accurati al 100%, quindi la supervisione è essenziale per i casi limite.
Mancanza di intuizione umana: Le approvazioni di intelligenza artificiale non comprendono il contesto oltre a quello che viene detto e non possono porre domande chiare o sfruttare i presentimenti. L'approvazione di intelligenza artificiale potrebbe perdere sfumature, come individuare spese sospette che "sembrano troppo elevate per quel viaggio".
Nessun apprendimento dall'esperienza: Le approvazioni di intelligenza artificiale non si adattano a ogni approvazione, ma non cambiano il comportamento a meno che non si aggiorni la richiesta. I nuovi scenari non coperti dalle regole esistenti richiedono una manutenzione continua man mano che i criteri si evolvono.
Dipendenza dalla qualità dei dati: Le decisioni di approvazione dell'intelligenza artificiale sono valide solo per i dati di input. I file di scarsa qualità, i documenti incompleti o le analisi non leggibili possono causare decisioni o errori di sistema non corretti.
Vincoli di integrazione e prestazioni: Criteri o decisioni di approvazione complessi che richiedono dati in tempo reale da più sistemi potrebbero ridurre l'accuratezza e aumentare il tempo di elaborazione.
Richiede la configurazione responsabile: Gli utenti devono configurare le approvazioni di intelligenza artificiale in modo etico, con regole appropriate per gli errori umani e senza pregiudizi. Assicurati sempre che le istruzioni siano allineate ai criteri aziendali e alle linee guida etiche.
Nessun accesso alle informazioni in tempo reale: Le approvazioni di intelligenza artificiale possono funzionare solo con i dati forniti in modo esplicito come input. Non possono controllare gli affari attuali, le notizie o gli eventi, a meno che tali informazioni non vengano inserite nel processo di approvazione.
Per ridurre i rischi e migliorare l'affidabilità quando si usano le approvazioni di intelligenza artificiale:
Includere la supervisione umana: indirizzare casi critici o ambigui alle fasi di revisione manuale per garantire la responsabilità e il giudizio.
Eseguire test con esempi diversi: usare i dati cronologici e i casi perimetrali per convalidare il comportamento del sistema prima della distribuzione.
Perfezionare regolarmente le richieste: le istruzioni di aggiornamento man mano che i criteri evolvono nuovi scenari per mantenere la pertinenza e l'accuratezza.
Evitare criteri vaghi: assicurarsi che le richieste siano esplicite e ben definite, evitando termini come "ragionevoli" senza un contesto chiaro.
Monitora le decisioni: utilizza strumenti come l'attività del generatore di prompt per monitorare i tassi di approvazione e identificare modelli o errori.
Formare gli utenti: informare il personale sull'interpretazione delle razionalità dell'IA e sulle procedure di override per creare fiducia e trasparenza.
Ricorda: L'IA può eseguire in modo sicuro istruzioni difettose, quindi è essenziale una guida chiara e corretta.
Quali fattori operativi e impostazioni consentono un uso efficace e responsabile dell'esperienza di approvazione dell'agente?
Per usare le approvazioni di intelligenza artificiale in modo efficace e sicuro, prendi in considerazione queste procedure operative consigliate:
Impostare la bassa temperatura per la coerenza: Usare le impostazioni di bassa temperatura (quasi 0) per garantire che l'intelligenza artificiale faccia decisioni deterministiche e prevedibili anziché variare le risposte agli input identici. Le impostazioni predefinite di Copilot Studio sono già ottimizzate per l'affidabilità.
Scegliere il modello corretto: GPT-4.1 è in genere ideale per la maggior parte degli scenari di approvazione. I modelli di ragionamento avanzati (ad esempio O3) potrebbero gestire meglio la logica complessa, ma sono più lenti. I modelli forniti da Microsoft sono preintegrati e testati, anche se è possibile usare i propri modelli ottimizzati da Fonderia Azure AI se si hanno requisiti specifici o esigenze personalizzate.
Implementare la supervisione umana: Configurare le fasi umane o manuali che possono essere indirizzate a per decisioni critiche. Le fasi umane e manuali assicurano che gli esseri umani siano sempre in controllo.
Testare accuratamente nella sandbox: Eseguire test estesi con dati cronologici e richieste di esempio prima di procedere in tempo reale. Casi di test perimetrali deliberatamente mancanti, campi mancanti, regole in conflitto, scenari insoliti. Verifica correttamente i trigger del flusso di lavoro end-to-end.
Monitorare le decisioni: Tutte le decisioni vengono registrate nella sezione Attività del generatore di prompt in Power Automate. Usa questi dati per tenere traccia delle metriche come i tassi di approvazione e valutare la correttezza delle decisioni di approvazione dell'intelligenza artificiale.
Aggiornare regolarmente i criteri: Considerare le richieste di intelligenza artificiale come documenti viventi. Aggiorna le istruzioni man mano che i criteri cambiano o emergono nuovi scenari. Incorpora commenti e suggerimenti dai manager sull'IA troppo restrittivo o meno in aree specifiche.
Fornire trasparenza e formazione: Formare il personale pertinente sull'interpretazione delle razionalità dell'IA e sulle procedure di override. Informare gli utenti finali che le richieste potrebbero essere valutate inizialmente dall'intelligenza artificiale. Le aspettative chiare impediscono confusione e creano fiducia.
Ottimizzando le impostazioni di intelligenza artificiale per coerenza, incorporando la supervisione umana e gestendo attivamente il processo, si garantisce che le approvazioni dell'intelligenza artificiale rimangano efficaci e monitorate. Considerala come una partnership: l'intelligenza artificiale gestisce il volume e la velocità, gli esseri umani gestiscono indicazioni ed eccezioni.
Quali sono le tutele previste in Copilot Studio per un'IA responsabile?
Quale tipo di moderazione del contenuto viene implementato?
I modelli GPT vengono addestrati su dati Internet, il che è ottimo per costruire un modello mondiale generale. Allo stesso tempo, può ereditare contenuti tossici, dannosi e distorti dalle stesse origini. I modelli vengono sottoposti a training per comportarsi in modo sicuro e non produrre contenuto dannoso, ma a volte può generare un output tossico. Le approvazioni di intelligenza artificiale usano il servizio Sicurezza dei contenuti di Azure AI per inserire le funzionalità di moderazione del contenuto all'avanguardia all'interno delle richieste di intelligenza artificiale. Questa moderazione include servizi per analizzare l'output generato con scanner di testo con gravità multipla e sicurezza da attacchi di prompt injection. L'output viene inoltre sottoposto a scansione per individuare il rigurgito di materiale protetto.
Quali modelli linguistici sono supportati, dove sono ospitati e come è possibile accedervi?
Le approvazioni di intelligenza artificiale supportano i modelli GPT 4.1 mini, GPT 4.o, GPT 4.1 e o3 ospitati nel servizio OpenAI di Azure. È possibile accedere a questi modelli tramite le richieste in Power Platform, nelle applicazioni, nei flussi e negli agenti.
Per altre informazioni, vedi Novità del Servizio OpenAI di Azure
I dati vengono usati per eseguire il training o migliorare i modelli linguistici di grandi dimensioni?
Le approvazioni di intelligenza artificiale vengono eseguite nel Servizio OpenAI di Azure ospitato da Microsoft. I dati dei clienti non vengono usati per eseguire il training o migliorare i modelli di base del Servizio OpenAI di Azure. Microsoft non condivide i dati dei tuoi clienti con terze parti a meno che tu non abbia dato autorizzazione in tal senso. Per addestrare o migliorare i modelli di base del Servizio OpenAI di Azure non vengono utilizzati né le richieste dei clienti (input) con i relativi dati di supporto, né le risposte del modello (output).
Come vengono elaborate le immagini delle persone?
Le approvazioni di intelligenza artificiale non sono destinate all'identificazione dei singoli utenti in base alle caratteristiche facciali o ai dati biometrici. Quando invii immagini contenenti persone nelle approvazioni di intelligenza artificiale, il sistema applica automaticamente una funzionalità di sfocatura del viso prima di analizzare le immagini per proteggere la privacy individuale. Questo passaggio di sfocatura contribuisce a risolvere i problemi di privacy impedendo l'identificazione basata sui tratti del volto. Con la sfocatura non è coinvolto alcun riconoscimento facciale o corrispondenza del modello facciale. Al contrario, qualsiasi identificazione di individui noti si basa su indizi contestuali, come uniformi o ambienti particolari, e non sui loro volti. Questa misura di privacy non dovrebbe influire sulla qualità dei risultati ricevuti. Occasionalmente, nelle risposte del sistema potrebbe essere menzionata la sfocatura dei volti.
Per altre informazioni, vedi Sfocatura del volto.
Quali sono i potenziali danni quando dell'utilizzo di immagini o documenti nelle richieste?
Le approvazioni di intelligenza artificiale attenuano la maggior parte dei rischi associati quando si usano immagini o documenti in richieste, ma alcuni rischi richiedono comunque maggiore attenzione da parte dell'autore del prompt:
Le immagini o i documenti possono contenere testo o oggetti visivi dannosi che potrebbero influire sui processi downstream.
Le immagini o i documenti possono includere istruzioni speciali e possibilmente nascoste che potrebbero compromettere o sovrascrivere la richiesta iniziale.
Le immagini o i documenti possono contenere istruzioni che potrebbero portare alla generazione di contenuti di proprietà intellettuale (IP).
I prompt possono produrre commenti distorti su immagini o documenti.
L'estrazione di informazioni da immagini o documenti di bassa qualità può causare allucinazione.
Quali tipi di problemi possono verificarsi quando si usano le approvazioni di intelligenza artificiale e come è possibile gestirli?
Quando si usano le approvazioni di intelligenza artificiale, è possibile che si verifichino problemi come gli errori di analisi (quando l'intelligenza artificiale non può applicare le regole), decisioni di approvazione errate (falsi positivi/negativi), risultati incoerenti su richieste simili o ritardi di elaborazione con casi complessi. Per gestire queste sfide in modo efficace, assicurati che il flusso di lavoro instradi le richieste alle fasi umane.
Implementa test coerenti e rigorosi durante lo sviluppo e la distribuzione per identificare i potenziali punti di errore in anticipo. Usa le impostazioni a bassa temperatura per ottenere risultati prevedibili e perfezionare continuamente le richieste in base agli errori osservati. Il monitoraggio regolare e i miglioramenti iterativi consentiranno di mantenere l'affidabilità e l'accuratezza del sistema nel tempo.