Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Ces questions fréquemment posées décrivent l’impact de l’IA sur la fonctionnalité de raisonnement profond dans Copilot Studio.
Qu’est-ce que le raisonnement profond ?
Les modèles de raisonnement approfondi sont de grands modèles de langage avancés conçus pour résoudre des problèmes complexes. Ils examinent attentivement chaque question, générant une chaîne de réflexion interne détaillée avant de fournir une réponse à l’utilisateur.
Comment pouvez-vous utiliser des modèles de raisonnement approfondi dans Copilot Studio ?
Les modèles de raisonnement approfondi dans Copilot Studio offrent des capacités puissantes pour créer des agents sophistiqués. Les modèles comme Azure OpenAI o3 utilisent un raisonnement profond pour améliorer la prise de décision de l’agent et retourner des réponses plus précises.
Lors de la génération d’agents, vous pouvez ajouter des instructions qui définissent les tâches de l’agent et leur façon de les accomplir. Ces tâches peuvent aller de simples à très complexes, nécessitant une analyse approfondie.
Les créateurs peuvent appliquer des modèles de raisonnement à des étapes spécifiques des instructions de l’agent, améliorant ainsi la capacité de l’agent à effectuer un raisonnement avancé et à fournir des résultats plus précis et plus perspicaces. Vous pouvez ajouter des modèles de raisonnement approfondis pour les tâches nécessitant une recherche scientifique, des questions complexes et une analyse approfondie des données non structurées. Ces modèles fournissent des informations qui vont au-delà des capacités des modèles plus simples.
Pour utiliser des modèles de raisonnement, ajoutez le mot-clé raison à des étapes spécifiques des instructions de l’agent. Par exemple : Utilisez la raison pour déterminer l’élément suivant dans une série mathématique, par exemple 2, 5, 10, 17. Cela déclenche le modèle de raisonnement pendant le runtime de l’agent pour cette étape spécifique. Copilot Studio utilise actuellement le modèle Azure OpenAI o3 pour ses fonctionnalités avancées de raisonnement.
Quelles sont les utilisations prévues des modèles de raisonnement profond ?
Les modèles de raisonnement profond sont conçus pour gérer des tâches complexes qui nécessitent un raisonnement logique, la résolution de problèmes et une analyse étape par étape. Par exemple, vous pouvez utiliser des modèles de raisonnement profond pour :
Évaluer les tendances du marché et recommander les meilleures opportunités d’investissement. Les modèles de raisonnement approfondi peuvent décomposer les données de marché en étapes plus petites et gérables ; analyser les tendances ; et recommander les meilleures opportunités d’investissement. Ils peuvent tenir compte de divers facteurs tels que les données historiques, les conditions actuelles du marché et les projections futures pour fournir des recommandations de placement bien informées.
Analysez l’augmentation de la demande et recommandez des stratégies pour gérer les stocks. Les modèles peuvent analyser les modèles d’offre et de demande, prédire les besoins futurs en matière de stocks et recommander des stratégies pour gérer efficacement les stocks. En tenant compte de facteurs tels que les tendances saisonnières, les fluctuations du marché et la dynamique de la chaîne d’approvisionnement, les modèles de raisonnement approfondi peuvent aider les entreprises à optimiser leur gestion des stocks.
Résolvez des équations différentielles et fournissez des explications étape par étape. Les modèles peuvent résoudre des problèmes mathématiques complexes, tels que des équations différentielles, et fournir des explications étape par étape de la solution. En décomposant le problème en étapes plus petites et en appliquant un raisonnement logique, les modèles de raisonnement profond peuvent offrir des solutions claires et détaillées aux défis mathématiques.
Comment les modèles de raisonnement approfondi ont-ils été évalués et quelles mesures sont utilisées pour mesurer la performance ?
Les modèles de raisonnement approfondi utilisés dans Copilot Studio sont évalués pour l’ancrage, l’IA responsable et la précision. L’ancrage consiste à s’assurer que le modèle ne renvoie que du contenu ancré dans un contexte spécifique du monde réel. L’IA responsable vérifie la protection contre les préjudices tels que les attaques de jailbreak, les attaques par injection d’invites inter-domaines et les contenus nuisibles.
Pour mesurer ces dimensions, les modèles sont testés par rapport à un ensemble diversifié de scénarios et notés en fonction de chacune de ces dimensions. Tous les modèles de raisonnement profond sont évalués avant d’être publiés.
Quelles sont les limites des modèles de raisonnement profond ? Comment les fabricants peuvent-ils réduire l’impact de ces limitations ?
Utilisation de modèles de raisonnement : un agent ne peut utiliser que des modèles de raisonnement profond si les fonctionnalités du modèle de raisonnement profond sont activées dans les paramètres de l’agent.
Temps de réponse : En raison du temps nécessaire à l’analyse, les réponses des modèles de raisonnement ont tendance à être plus lentes que celles des autres modèles de langage de raisonnement non profond.
Pour réduire l’impact de ces limitations, vous pouvez :
Assurez-vous que les fonctionnalités des modèles de raisonnement profond sont activées uniquement pour les agents qui en ont besoin.
Utilisez le mot clé raison dans les instructions de l’agent uniquement pour les étapes qui utilisent des modèles de raisonnement profond.
Utilisez des modèles de raisonnement approfondi pour les tâches qui permettent des temps de réponse plus longs. Si nécessaire, informez les utilisateurs que certaines réponses de l’agent peuvent prendre plus de temps.
Quels facteurs et paramètres opérationnels permettent une utilisation efficace et responsable des modèles de raisonnement approfondi ?
Les modèles de raisonnement profond incluent diverses protections pour garantir que les administrateurs, les créateurs et les utilisateurs bénéficient d’une expérience sûre et conforme :
N’autorisez les modèles de raisonnement approfondi que pour les agents qui nécessitent des étapes de raisonnement complexes. Cela garantit que les modèles sont appliqués là où ils peuvent fournir la valeur la plus élevée.
Incluez le mot-clé raison dans les instructions pour déclencher le modèle au moment de l’exécution pour des tâches spécifiques, et non pour toutes les tâches qui pourraient ne pas nécessiter un raisonnement complexe.
Testez minutieusement l’agent pour vous assurer de l’exactitude et de la fiabilité des résultats fournis par le modèle de raisonnement approfondi. Les tests permettent également d’identifier les problèmes potentiels et de s’assurer que le modèle fonctionne comme prévu.
Utilisez la carte d’activités pour vérifier où votre agent utilise des modèles de raisonnement approfondi dans une session. Développez le nœud de raisonnement approfondi dans la carte pour examiner les étapes suivies par le modèle et la sortie du modèle. Cela vous aide à déterminer si le modèle de raisonnement fournit les fonctionnalités prévues.
Comparez les résultats avec et sans utiliser un modèle de raisonnement approfondi en mettant à jour vos instructions pendant les tests.