Partager via


Afficher des rapports d’analyse dans l’Assistant Expérimentation de base de données

Remarque

Cet outil sera mis hors service le 15 décembre 2024. Nous cesserons de prendre en charge cet outil pour tous les problèmes qui pourront survenir et nous ne publierons plus de correctifs de bogues ni de mises à jour supplémentaires.

Après avoir utilisé l’Assistant Expérimentation de base de données (DEA) pour créer un rapport d’analyse, vous pouvez passer en revue le rapport pour obtenir des informations sur les performances en fonction du test A/B que vous avez effectué.

Ouvrir un rapport d’analyse existant

  1. Dans DEA, sélectionnez l’icône représentant une liste, spécifiez le nom du serveur et le type d’authentification, sélectionnez ou désélectionnez les cases à cocher Chiffrer la connexion et Faire confiance au certificat de serveur en fonction de votre scénario, puis sélectionnez Se connecter.

    Se connecter au serveur avec le rapport

  2. Sur le côté gauche de l’écran Rapports d’analyse, sélectionnez l’entrée du rapport que vous souhaitez afficher.

    Ouvrir un fichier de rapport existant

Afficher et comprendre le rapport d’analyse

Cette section vous guide tout au long du rapport d’analyse.

Sur la première page de votre rapport, les informations de version et de build des serveurs cibles sur lesquels l’expérimentation a été exécutée s’affichent. Le seuil vous permet d’ajuster la sensibilité ou la tolérance de votre analyse de test A/B. Par défaut, le seuil est défini sur 5 %. Toute amélioration des performances >= 5 % est classée comme « Amélioré ». La liste déroulante vous permet d’évaluer le rapport avec différents seuils de performances.

Vous pouvez exporter les données du rapport vers un fichier CSV en cliquant sur le bouton Exporter. Sur n’importe quelle page du rapport d’analyse, vous pouvez sélectionner Imprimer pour imprimer ce qui est visible à l’écran à ce moment-là.

Distribution des requêtes

  • Sélectionnez différentes sections des graphiques en secteurs pour afficher uniquement les requêtes qui appartiennent à cette catégorie.

    Catégories de rapports en tant que secteurs

    • Détérioré : requêtes qui ont été pires sur la Cible 2 que sur la Cible 1.
    • Erreurs : requêtes qui ont montré des erreurs au moins une fois sur au moins une des cibles.
    • Amélioré : requêtes qui ont été mieux exécutées sur la Cible 2 que sur la Cible 1.
    • Impossible d’évaluer : requêtes ayant une taille d’échantillon trop petite pour l’analyse statistique. Pour l’analyse des tests A/B, DEA nécessite que les mêmes requêtes aient au moins 15 exécutions sur chaque cible.
    • Identique : requêtes qui n’ont aucune différence statistique entre la Cible 1 et la Cible 2.

    Les requêtes d’erreur, le cas échéant, sont affichées dans des graphiques distincts ; un graphique à barres classifie les erreurs par type et un graphique en secteurs classifie les erreurs par ID d’erreur.

    Graphiques des requêtes d’erreur

    Il existe quatre types d’erreurs possibles :

    • Erreurs existantes : erreurs qui existent à la fois sur la Cible 1 et la Cible 2.
    • Nouvelles erreurs : erreurs nouvelles sur la Cible 2.
    • Erreurs résolues : erreurs qui existent sur la Cible 1, mais qui sont résolues sur la Cible 2.
    • Bloqueurs de mise à niveau : erreurs qui bloquent la mise à niveau vers le serveur cible.

    Cliquer sur une section à barres ou en secteurs dans les graphiques permet d’explorer la catégorie et d’afficher les métriques de performances, même pour la catégorie Impossible d’évaluer.

    En outre, le tableau de bord affiche les cinq premières requêtes améliorées et détériorées pour fournir une vue d’ensemble rapide des performances.

Exploration des requêtes individuelles

Vous pouvez sélectionner des liens de modèle de requête pour obtenir des informations plus détaillées sur des requêtes spécifiques.

Explorer une requête spécifique

  • Sélectionnez une requête spécifique pour ouvrir le résumé de comparaison associé.

    Résumé de la comparaison

    Vous trouverez des statistiques récapitulatives pour cette requête, telles que le nombre d’exécutions, la durée moyenne, l’UC moyenne, les lectures/écritures moyennes et le nombre d’erreurs. Si la requête est une requête d’erreur, l’onglet Informations sur l’erreur affiche plus de détails sur l’erreur. Sous l’onglet Informations sur le plan de requête, vous trouverez des informations sur les plans de requête utilisés pour la requête sur la Cible 1 et la Cible 2.

    Remarque

    Si vous analysez des fichiers d’événements étendus (.XEL), les informations du plan de requête ne sont pas collectées pour limiter la sollicitation de la mémoire sur l’ordinateur de l’utilisateur.

Voir aussi