Remarque
L’accès à cette page requiert une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page requiert une autorisation. Vous pouvez essayer de modifier des répertoires.
Ces questions fréquemment posées expliquent les fonctionnalités, l’utilisation et les protections des phases d’approbation basées sur l’IA (approbations IA) dans Microsoft Copilot Studio. Les approbations IA permettent à un flux d’assistant d’approuver ou de rejeter automatiquement les demandes en fonction de critères prédéfinis, tout en garantissant que les humains gardent le contrôle pour les décisions importantes. Voici quelques réponses à des questions fréquentes sur cette fonctionnalité.
Qu’est-ce que les approbations IA ?
Les approbations IA sont des étapes de décision intelligentes et automatisées dans les flux de travail d’approbation. Les approbations IA utilisent l’IA (modèles ou modèles Azure OpenAI que vous pouvez apporter à partir d’Azure AI Foundry) pour évaluer les demandes d’approbation par rapport à vos règles d’entreprise et retourner une décision « Approuvée » ou « Rejetée » avec une justification.
Que sont les capacités d'approbations IA ?
Contrairement à l’automatisation basée sur des règles de base, les approbations IA peuvent interpréter des données non structurées et des documents complexes (tels que des fichiers PDF ou des images attachés à une demande) et appliquer une logique nuancée pour prendre une décision. Par exemple, une approbation IA peut lire une justification écrite, rechercher des mots clés de stratégie, puis décider.
Les étapes d'approbation par l'IA peuvent également être combinées avec des étapes humaines, de sorte que, tandis que l'IA traite les décisions courantes, les personnes continuent de superviser et de finaliser les cas critiques ou exceptionnels. En résumé, les approbations par IA automatisent les décisions répétitives de type oui/non dans un processus, accélérant ainsi les flux de travail sans supprimer la supervision humaine là où elle est nécessaire.
Quelle est l’utilisation prévue des approbations IA ?
Les approbations IA sont conçues pour les scénarios métier courants avec des critères bien définis, rationalisant les flux de travail quotidiens en automatisant les décisions de routine. Les cas d’usage classiques sont les suivants :
Approbations de remboursement des frais : Approuvez automatiquement les demandes de remboursement inférieures à un certain montant accompagnées de reçus valides, afin que les responsables puissent se concentrer uniquement sur les exceptions.
Approbations de bon de commande (PO) : Évaluer les demandes par rapport aux limites budgétaires et aux listes de fournisseurs, approuver automatiquement les bons de commande standard conformes à la stratégie.
Approbations des demandes de voyage : Approuvez automatiquement les demandes de déplacement conformes tout en rejetant celles qui enfreignent les politiques.
Intégration du fournisseur : Accepter ou rejeter les candidatures en vérifiant les qualifications et les exigences de conformité par rapport à des critères prédéfinis.
Approbations de traitement des factures : Valider les factures en vérifiant que les montants correspondent aux bons de commande et en confirmant que les documents requis sont présents.
Approbations de révision de documents : Vérifier que les contrats ou les politiques contiennent tous les éléments requis et respectent les normes de formatage avant de passer aux étapes suivantes.
Approbations des demandes de congé : Approuver les demandes de congé lorsque les employés disposent d'un solde suffisant et qu'il n'y a pas de conflit d'horaires.
Les approbations IA ont été conçues pour des décisions courantes et bien définies. Toutefois, il existe des scénarios où le système peut ne pas fonctionner de manière fiable ou responsable. Nous encourageons nos clients à utiliser les approbations IA dans leurs solutions ou applications innovantes, mais nous leur demandons de tenir compte des principes suivants lorsqu'ils choisissent un cas d'utilisation :
Décisions importantes ou susceptibles de changer le cours d'une vie : Le système n’a pas été conçu pour gérer les décisions qui affectent la santé, la sécurité, les finances ou le statut juridique. Par exemple, les demandes d’assurance, les autorisations médicales, les approbations de prêts ou les déterminations d’immigration, qui nécessitent un jugement humain et une responsabilité.
Questions juridiques ou disciplinaires : Les cas d’usage impliquant la responsabilité juridique, l’interprétation de conformité ou la discipline des employés peuvent dépasser l’étendue prévue du système. Bien que l'IA puisse résumer les données saisies, les décisions finales dans ces domaines doivent rester du ressort des humains.
Critères subjectifs ou ambigus : Le système pourrait avoir des difficultés à prendre des décisions qui reposent sur le goût, la discrétion ou des compromis complexes, comme l'évaluation d'un travail créatif ou l'appréciation de la qualité, où les normes ne sont pas faciles à codifier.
Scénarios sensibles ou éthiquement complexes : Les autorisations d'IA n'ont pas été conçues pour les décisions impliquant des attributs personnels, une discrimination potentielle ou la génération de contenu restreint. Ces utilisations soulèvent des questions relatives à l'IA responsable et pourraient nécessiter des garanties supplémentaires.
Industries réglementées et flux de travail sensibles à la conformité : Dans des domaines tels que les soins de santé, les finances ou l’aviation, les exigences réglementaires peuvent nécessiter une surveillance humaine même pour les décisions courantes. La conformité du système n'a pas été évaluée dans ces contextes.
Utilisations prévisibles mais involontaires : À mesure que l’adoption augmente, les utilisateurs peuvent tenter d’appliquer des approbations IA à des domaines tels que les évaluations de performances, les décisions d’embauche ou les évaluations d’éligibilité des clients. Ces utilisations ne faisaient pas partie de la conception du système ni de l'évaluation d'impact et pourraient présenter des risques si elles ne sont pas gérées avec soin.
Important
Considérations juridiques et réglementaires. Les organisations doivent évaluer les obligations légales et réglementaires spécifiques potentielles lorsqu'elles utilisent des services et des solutions d'IA. Les services et solutions peuvent ne pas être appropriés pour une utilisation dans chaque secteur ou scénario. Les restrictions peuvent varier en fonction des exigences réglementaires régionales ou locales. De plus, les services ou solutions d'IA ne sont pas conçus pour être utilisés à des fins interdites par les conditions d'utilisation applicables et les codes de conduite pertinents, et ne doivent pas l'être.
Quelles sont les limitations techniques des approbations IA et comment les utilisateurs peuvent-ils réduire l’impact des limitations ?
Bien que les approbations IA soient une fonctionnalité puissante, nous recommandons aux utilisateurs d’être conscients de leurs limitations :
Les approbations IA s’appuient sur les règles fournies : L’IA suit strictement vos instructions et vos données. Si votre invite n’est pas claire ou si elle est incomplète, l’approbation IA peut prendre de mauvaises décisions ou échouer. Définissez explicitement les critères ; dire « approuver si raisonnable » sans définir « raisonnable » conduit à des interprétations erronées.
Possibilité d’erreurs : Les approbations par IA peuvent commettre des erreurs en raison d'entrées ambiguës, de cas limites complexes ou d'une mauvaise lecture de documents mal numérisés. Les résultats ne sont pas toujours exacts à 100 %, il est donc essentiel de vérifier les cas limites.
Manque d’intuition humaine : Les approbations IA ne comprennent pas le contexte au-delà de ce qu'on leur dit et ne peuvent pas poser de questions pour clarifier les choses ni se fier à leur intuition. L’approbation IA peut passer à côté de nuances qu'un humain remarquerait, comme repérer des dépenses suspectes qui « semblent trop élevées pour ce voyage ».
Aucun apprentissage tiré de l’expérience : Les approbations IA ne s’adaptent pas à chaque approbation, elles ne changent pas de comportement, sauf si vous mettez à jour l’invite. Les nouveaux scénarios non couverts par les règles existantes nécessitent une mise à jour constante à mesure que les politiques évoluent.
Dépendance de qualité des données : La qualité des décisions prises par l'IA dépend entièrement de la qualité des données utilisées. Des fichiers de mauvaise qualité, des documents incomplets ou des numérisations illisibles peuvent entraîner des décisions erronées ou des défaillances du système.
Contraintes d’intégration et de performances : Des critères d’approbation complexes ou des décisions nécessitant des données en temps réel provenant de plusieurs systèmes peuvent réduire la précision et augmenter le temps de traitement.
Nécessite une configuration responsable : Les utilisateurs doivent configurer les autorisations d'IA de manière éthique, avec des dispositifs de sécurité humains appropriés et des règles exemptes de tout parti pris. Assurez-vous toujours que les instructions respectent la politique de l’entreprise et les directives éthiques.
Aucun accès aux informations en temps réel : Les approbations IA peuvent uniquement fonctionner avec les données explicitement fournies en tant qu’entrée. L'IA ne peut pas vérifier le déroulement de certains cas, les actualités ou les événements à moins que ces informations ne soient intégrées dans le processus d'approbation.
Pour réduire les risques et améliorer la fiabilité lors de l’utilisation des approbations IA, appliquez les principes suivants :
Inclure la surveillance humaine : transférer les cas critiques ou ambigus vers des étapes de révision manuelle afin de garantir la responsabilité et le jugement.
Testez avec différents exemples : utilisez les données historiques et les cas limites pour valider le comportement du système avant son déploiement.
Affiner régulièrement les invites : mettez à jour les instructions à mesure que les stratégies évoluent ou que de nouveaux scénarios émergent pour maintenir la pertinence et la précision.
Évitez les critères vagues : assurez-vous que les invites sont explicites et bien définies : évitez les termes comme « raisonnables » sans contexte clair.
Surveillez les décisions : utilisez des outils tels que l’activité du générateur d’invites pour suivre les taux d’approbation et identifier les modèles ou les erreurs.
Former des utilisateurs : formez le personnel à l'interprétation des raisonnements de l'IA et aux procédures de contournement afin d'instaurer la confiance et la transparence.
Souvenez-vous : L'IA peut exécuter en toute confiance des instructions erronées, il est donc essentiel de lui fournir des directives claires et correctes.
Quels sont les facteurs opérationnels et les paramètres qui permettent une utilisation efficace et responsable de l’expérience d’approbation de l’assistant ?
Pour utiliser efficacement et en toute sécurité les approbations IA, tenez compte des meilleures pratiques opérationnelles suivantes :
Définissez une faible température pour la cohérence : utilisez des réglages de température bas (proches de 0) pour vous assurer que l'IA prend des décisions déterministes et prévisibles plutôt que des réponses variables à des entrées identiques. Les paramètres Copilot Studio par défaut sont déjà optimisés pour la fiabilité.
Choisissez le modèle approprié : GPT-4.1 est généralement idéal pour la plupart des scénarios d’approbation. Les modèles de raisonnement avancés (comme O3) peuvent mieux gérer une logique complexe, mais sont plus lents. Les modèles fournis par Microsoft sont pré-intégrés et testés, mais vous pouvez apporter vos propres modèles affinés à partir d’Azure AI Foundry si vous avez des exigences spécifiques ou des besoins personnalisés.
Instaurez une supervision humaine : configurez des étapes humaines ou manuelles vers lesquelles les décisions critiques peuvent être acheminées. Les étapes humaines et manuelles garantissent que les humains gardent toujours le contrôle.
Testez soigneusement dans l'environnement de bac à sable : effectuez des tests approfondis avec des données historiques et des exemples de demandes avant la mise en service. Testez délibérément les cas limites : champs manquants, règles contradictoires, scénarios inhabituels. Vérifiez correctement les déclencheurs de flux de travail de bout en bout.
Surveiller les décisions : Toutes les décisions sont consignées dans la section Activité du générateur d’invites dans Power Automate. Utilisez ces données pour suivre les métriques telles que les taux d’approbation et évaluer la justesse des décisions d’approbation IA.
Mettez régulièrement à jour les critères : considérez les invites IA comme des documents évolutifs. Mettez à jour les instructions à mesure que les stratégies changent ou que de nouveaux scénarios émergent. Intégrer les commentaires des responsables concernant le caractère trop strict ou trop laxiste de l'IA dans certains domaines spécifiques.
Assurez la transparence et la formation : formez le personnel concerné à l’interprétation des logiques d’IA et aux procédures de remplacement. Informez les utilisateurs finaux que les demandes peuvent être évaluées initialement par l’IA. Des attentes claires évitent toute confusion et renforcent la confiance.
En ajustant les paramètres de l'IA pour garantir la cohérence, en intégrant une supervision humaine et en gérant activement le processus, vous vous assurez que les approbations de l'IA restent efficaces et conformes. Considérez cela comme un partenariat : l'IA gère le volume et la vitesse, les humains gèrent les conseils et les exceptions.
Quelles protections sont mises en place dans Copilot Studio pour une IA responsable ?
Quel type de modération du contenu est implémenté ?
Les modèles GPT sont formés sur des données Internet, ce qui est idéal pour créer un modèle mondial général. Dans le même temps, il peut hériter du contenu toxique, nuisible et biaisé des mêmes sources. Les modèles sont entraînés à se comporter de manière sûre et à ne pas produire de contenu préjudiciable, mais ils peuvent parfois générer des résultats toxiques. Les approbations IA utilisent le service Azure AI Content Safety pour mettre en place les fonctionnalités de modération de contenu de pointe dans les invites d’IA. Cette modération comprend des services permettant d'analyser les résultats générés à l'aide de scanners de texte à plusieurs niveaux de gravité et d'assurer la sécurité contre les attaques par injection de prompt. La sortie est également analysée pour détecter toute régurgitation de documents protégés.
Quel modèle de langage est pris en charge, où sont-ils hébergés et comment puis-je y accéder ?
Les approbations IA prennent en charge les modèles GPT 4.1 mini, GPT 4.o, GPT 4.1 et o3, hébergés sur Azure OpenAI Service. Vous pouvez accéder à ces modèles via les invites dans Power Platform, dans vos applications, flux et assistants.
Pour plus d’informations, consultez Nouveautés d’Azure OpenAI Service
Mes données sont-elles utilisées pour entraîner ou améliorer les grands modèles de langage ?
Les approbations IA s’exécutent sur Azure OpenAI Service hébergé par Microsoft. Les données des clients ne sont pas utilisées pour entraîner ou améliorer les modèles de base d'Azure OpenAI Service. Microsoft ne partage pas vos données client avec des tiers, sauf si vous lui en avez donné l'autorisation. Ni les invites client (entrées) avec leurs données de base, ni les réponses du modèle (sorties) ne sont utilisées pour entraîner ou améliorer les modèles de base Azure OpenAI Service.
Comment les images des personnes sont-elles traitées ?
Les approbations IA ne sont pas destinées à identifier les individus en fonction des caractéristiques faciales ou des données biométriques. Lorsque vous soumettez des images contenant des personnes dans le cadre des autorisations IA, le système applique automatiquement une fonction de floutage des visages avant d'analyser les images afin de protéger la vie privée des individus. Cette étape de floutage permet de répondre aux préoccupations en matière de protection de la vie privée en empêchant l’identification basée sur les traits du visage. Avec le floutage, il n’y a pas de reconnaissance faciale ou de correspondance de modèle facial. Au lieu de cela, toute identification d’individus bien connus repose sur des indices contextuels, comme des uniformes ou des décors uniques, et non sur leurs visages. Cette mesure de confidentialité ne devrait pas avoir d’impact sur la qualité des résultats que vous recevez. Le floutage des visages peut parfois être référencé dans les réponses du système.
Pour en savoir plus, consultez ma rubrique Floutage du visage.
Quels sont les préjudices potentiels lors de l’utilisation d’images ou de documents dans des invites ?
Les autorisations IA atténuent la plupart des risques liés à l'utilisation d'images ou de documents dans les invites, mais certains risques nécessitent tout de même une attention particulière de la part du créateur de l'invite :
Les images ou les documents peuvent contenir du texte ou des visuels nuisibles susceptibles d’avoir un impact sur vos processus en aval.
Les images ou les documents peuvent inclure des instructions spéciales et éventuellement cachées qui pourraient compromettre ou remplacer l’invite initiale.
Les images ou les documents peuvent contenir des instructions qui pourraient conduire à la génération de contenu relevant de la propriété intellectuelle (PI).
Les invites peuvent produire des commentaires biaisés sur les images ou les documents.
L’extraction d’informations à partir d’images ou de documents de faible qualité peut entraîner une hallucination.
Quels types de problèmes peuvent survenir lors de l’utilisation des approbations IA et comment puis-je les gérer ?
Lorsque vous utilisez des approbations IA, vous pouvez rencontrer des problèmes tels que des échecs d’analyse (lorsque l’IA ne peut pas appliquer en toute confiance des règles), des décisions d’approbation incorrectes (faux positifs/négatifs), des résultats incohérents sur des demandes similaires ou des retards de traitement avec des cas complexes. Pour gérer ces défis efficacement, assurez-vous que votre flux de travail achemine les demandes vers des phases gérées par des humains.
Implémentez des tests cohérents et rigoureux tout au long du développement et du déploiement pour identifier les points d’échec potentiels dès le départ. Utilisez des paramètres à basse température pour des résultats prévisibles et affinez continuellement vos invites en fonction des erreurs observées. La surveillance régulière et les améliorations itératives permettront de maintenir la fiabilité et la précision du système au fil du temps.