Informations de référence sur la table système de l’historique des requêtes
Important
Cette table système est en préversion publique. Pour accéder à la table, le schéma doit être activé dans votre catalogue system
. Pour plus d’informations, consultez Activer les schémas de table système.
Cet article contient des informations sur la table système de l’historique des requêtes, y compris un plan du schéma de la table.
Important
Pour accéder à la table système de l’historique des requêtes, vous devez activer le schéma query
. Pour obtenir des instructions sur l’activation des schémas système, consultez Activer les schémas de la table système.
Chemin d’accès de la table : cette table système se trouve à l’emplacement system.query.history
.
Utilisation de la table de l’historique des requêtes
La table d’historique des requêtes inclut des enregistrements pour chaque instruction SQL exécutée à l’aide d’entrepôts SQL. La table inclut des enregistrements à l’échelle du compte de tous les espaces de travail de la même région à partir de laquelle vous accédez à la table.
Par défaut, seuls les administrateurs ont accès à la table système. Si vous souhaitez partager les données de la table avec un utilisateur ou un groupe, Databricks recommande de créer une vue dynamique pour chaque utilisateur ou groupe. Consultez Créer une vue dynamique.
Schéma de la table système de l’historique des requêtes
La table d’historique des requêtes utilise le schéma suivant :
Nom de la colonne | Type de données | Description | Exemple : |
---|---|---|---|
account_id |
string | ID du compte. | 11e22ba4-87b9-4cc2 -9770-d10b894b7118 |
workspace_id |
string | ID de l’espace de travail où la requête a été exécutée. | 1234567890123456 |
statement_id |
string | ID qui identifie de façon unique l’exécution de l’instruction. Vous pouvez utiliser cet ID pour rechercher l’exécution de l’instruction dans l’interface utilisateur de l’historique des requêtes. | 7a99b43c-b46c-432b -b0a7-814217701909 |
session_id |
string | ID de session Spark. | 01234567-cr06-a2mp -t0nd-a14ecfb5a9c2 |
execution_status |
string | État d’arrêt de l’instruction. Les valeurs possibles sont les suivantes : - FINISHED : l’exécution s’est terminée avec succès- FAILED : échec de l’exécution avec le motif de l’échec décrit dans le message d’erreur associé- CANCELED : l’exécution a été annulée |
FINISHED |
compute |
struct | Struct qui représente le type de ressource de calcul utilisé pour exécuter l’instruction et l’ID de la ressource, le cas échéant. La valeur type est WAREHOUSE ou SERVERLESS_COMPUTE . |
{ type: WAREHOUSE, cluster_id: NULL, warehouse_id: ec58ee3772e8d305 } |
executed_by_user_id |
string | ID de l’utilisateur qui a exécuté l’instruction. | 2967555311742259 |
executed_by |
string | Adresse e-mail ou nom d’utilisateur de l’utilisateur qui a exécuté l’instruction. | example@databricks.com |
statement_text |
string | Texte de l’instruction SQL. Si vous avez configuré des clés gérées par le client, statement_text est vide. |
SELECT 1 |
statement_type |
string | Type d’instruction. Par exemple : ALTER , COPY et INSERT . |
SELECT |
error_message |
string | Message décrivant la condition de l’erreur. Si vous avez configuré des clés gérées par le client, error_message est vide. |
[INSUFFICIENT_PERMISSIONS] Insufficient privileges: User does not have permission SELECT on table 'default.nyctaxi_trips'. |
client_application |
string | Application cliente qui a exécuté l’instruction. Par exemple : Databricks SQL, Tableau et Power BI. | Databricks SQL |
client_driver |
string | Connecteur utilisé pour se connecter à Azure Databricks pour exécuter l’instruction. Par exemple : Pilote SQL Databricks pour Go, Pilote ODBC Databricks, Pilote JDBC Databricks. | Databricks JDBC Driver |
total_duration_ms |
bigint | Durée totale d’exécution de l’instruction en millisecondes (durée d’extraction des résultats non comprise). | 1 |
waiting_for_compute_duration_ms |
bigint | Temps passé à attendre que les ressources de calcul soient approvisionnées en millisecondes. | 1 |
waiting_at_capacity_duration_ms |
bigint | Temps passé à attendre dans la file d’attente une capacité de calcul disponible en millisecondes. | 1 |
execution_duration_ms |
bigint | Temps passé à exécuter l’instruction en millisecondes. | 1 |
compilation_duration_ms |
bigint | Temps passé à charger les métadonnées et à optimiser la requête en millisecondes. | 1 |
total_task_duration_ms |
bigint | Somme de toutes les durées des tâches en millisecondes. Cette durée représente le temps combiné qu’il a fallu pour exécuter la requête sur tous les cœurs de tous les nœuds. Elle peut être beaucoup plus longue que la durée horloge si plusieurs tâches sont exécutées en parallèle. Elle peut être plus courte que la durée horloge si les tâches attendent des nœuds disponibles. | 1 |
result_fetch_duration_ms |
bigint | Temps passé, en millisecondes, à extraire les résultats de l’instruction une fois l’exécution terminée. | 1 |
start_time |
timestamp | Heure à laquelle Databricks a reçu la demande. Les informations sur le fuseau horaire sont enregistrées à la fin de la valeur, où +00:00 représente le fuseau horaire UTC. |
2022-12-05T00:00:00.000+0000 |
end_time |
timestamp | Heure de fin de l’exécution de l’instruction, durée d’extraction des résultats non comprise. Les informations sur le fuseau horaire sont enregistrées à la fin de la valeur, où +00:00 représente le fuseau horaire UTC. |
2022-12-05T00:00:00.000+00:00 |
update_time |
timestamp | Heure à laquelle l’instruction a reçu une mise à jour de progression pour la dernière fois. Les informations sur le fuseau horaire sont enregistrées à la fin de la valeur, où +00:00 représente le fuseau horaire UTC. |
2022-12-05T00:00:00.000+00:00 |
read_partitions |
bigint | Nombre de partitions lues après le nettoyage. | 1 |
pruned_files |
bigint | Nombre de fichiers nettoyés. | 1 |
read_files |
bigint | Nombre de fichiers lus après le nettoyage. | 1 |
read_rows |
bigint | Nombre total de lignes lues par l’instruction. | 1 |
produced_rows |
bigint | Nombre total de lignes retournées par l’instruction. | 1 |
read_bytes |
bigint | Taille totale des données lues par l’instruction en octets. | 1 |
read_io_cache_percent |
int | Pourcentage d’octets des données persistantes lues à partir du cache d’E/S. | 50 |
from_result_cache |
booléen | TRUE indique que le résultat de l’instruction a été extrait du cache. |
TRUE |
spilled_local_bytes |
bigint | Taille en octets des données provisoirement écrites sur le disque lors de l’exécution de l’instruction. | 1 |
written_bytes |
bigint | Taille en octets des données persistantes écrites dans le stockage d’objets cloud. | 1 |
shuffle_read_bytes |
bigint | Quantité totale en octets des données envoyées sur le réseau. | 1 |
query_source |
struct | Un struct qui contient des paires clé-valeur représentant une ou plusieurs entités Databricks impliquées dans l’exécution de cette instruction, comme des travaux, des notebooks ou des tableaux de bord. Ce champ enregistre uniquement des entités Databricks. | { job_info: { job_id: 64361233243479 job_run_id: 887406461287882 job_task_key: “job_task_1” job_task_run_id: 110378410199121 } |
executed_as |
string | Nom de l’utilisateur ou principal de service dont le privilège a été utilisé pour exécuter l’instruction. | example@databricks.com |
executed_as_user_id |
string | ID de l’utilisateur ou principal de service dont le privilège a été utilisé pour exécuter l’instruction. | 2967555311742259 |
Afficher le profil de requête pour un enregistrement
Pour accéder au profil d’une requête en fonction d’un enregistrement dans la table de l’historique des requêtes, procédez comme suit :
- Identifiez l’enregistrement concerné, puis copiez le
statement_id
de l’enregistrement. - Référencez le
workspace_id
de l’enregistrement pour vous assurer que vous êtes connecté au même espace de travail que l’enregistrement. - Cliquez sur Historique des requêtes dans la barre latérale de l’espace de travail.
- Dans le champ ID d’instruction, collez le
statement_id
sur l’enregistrement. - Cliquez sur le nom d’une requête. Une vue d’ensemble des mesures de requête s’affiche.
- Cliquez sur Afficher le profil de requête.