Note
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier les répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de changer de répertoire.
Pour les systèmes de conduite autonome et d’assistance, vous devez effectuer des validations en boucle ouverte et fermée en simulant des scénarios spécifiques. OpenDRIVE et OpenSCENARIO sont des exemples de normes industrielles largement adoptées pour définir les scénarios de conduite. Aujourd’hui, les scientifiques des données identifient souvent les cas extrêmes, puis utilisent un langage de script courant tel que Python pour générer des scénarios dans un format de script de haut niveau compatible avec OpenSCENARIO. Les responsables de tests gèrent la suite de scénarios et les ingénieurs de tests gèrent l’exécution de tests, mais les ingénieurs et les responsables ne peuvent pas gérer les scripts.
Une interface Copilot qui utilise les grands modèles de langage (LLM) Azure OpenAI peut prendre en charge la génération de fichiers OpenSCENARIO transmis aux moteurs de simulation et rendre l’ensemble du processus de validation plus efficace.
Exemple
Les responsables de tests doivent peut-être développer des scénarios vagues et, souvent, itérer. Un Copilot peut accepter la première ébauche d’un scénario du responsable de tests, par exemple Deux voitures sur une autoroute qui se dépassent, et fournir une réponse pour affiner le scénario et prendre en charge le processus de génération de script.
L’exemple suivant montre un processus de bout en bout de génération et d’évaluation d’un scénario :
Créez des scénarios à l’aide de l’IA générative. De cette manière, vous pouvez affiner le modèle en fonction d’une base de données de scénarios existante.
Sur la base des scénarios créés, générez des scripts de test ou ouvrez des fichiers de scénarios conformes à OpenSCENARIO et ajoutez-les comme entrées dans le simulateur.
Exécutez la simulation.
Si le scénario de test échoue, ajoutez des scénarios de test et des variantes similaires, puis affinez-les davantage. Pour plus d’informations, consultez Méthode Pegasus
En utilisant ce type de processus, vous pouvez évaluer des algorithmes dans des cas spécialisés à longue queue. Le diagramme suivant montre l’architecture qui utilise les fonctionnalités de Microsoft AI pour prendre en charge le processus d’affinement :