HDInsightSparkSQLExecutionEvents

Événements d’exécution SPARK SQL.

Attributs de table

Attribut Valeur
Types de ressource microsoft.hdinsight/clusters
Catégories Ressources Azure
Solutions LogManagement
Journal de base No
Transformation au moment de l’ingestion Yes
Exemples de requêtes -

Colonnes

Colonne Type Description
ApplicationId string ID d’application de l’application qui produit l’enregistrement.
_BilledSize real Taille de l’enregistrement en octets
ClusterDnsName string Nom DNS du cluster exécutant l’exécution de Spark SQL.
ClusterTenantId string ID de locataire du cluster exécutant l’exécution de Spark SQL.
EndTime DATETIME Heure (UTC) de la fin de l’exécution de Spark SQL.
ExecutionId string ID de l’exécution de Spark SQL.
Host string Nom de domaine complet de l’hôte.
IpAddress string Adresse IP du nœud exécutant l’exécution de Spark SQL.
_IsBillable string Spécifie si l’ingestion des données est facturable. Quand _IsBillable est l’ingestion false n’est pas facturée à votre compte Azure
PhysicalPlanDescription string Description du plan physique/logique de l’exécution de Spark SQL.
Région string Région du cluster exécutant l’exécution de Spark SQL.
_ResourceId string Un identificateur unique de la ressource à laquelle l’enregistrement est associé
Rôle string Type de nœud exécutant l’exécution de Spark SQL.
SourceSystem string Type d’agent par lequel l’événement a été collecté. Par exemple, OpsManager pour l’agent Windows, la connexion directe ou Operations Manager, Linux pour tous les agents Linux ou Azure pour Diagnostics Azure
SparkPlanInfo string Objet Json contenant des informations sur l’exécution de Spark SQL.
StartTime DATETIME Heure (UTC) du démarrage de l’exécution de Spark SQL.
_SubscriptionId string Un identificateur unique de l’abonnement auquel l’enregistrement est associé
TenantId string ID de l’espace de travail Log Analytics
TimeGenerated DATETIME Horodatage (UTC) de la génération du journal.
Type string Le nom de la table
UserSubscriptionId string ID d’abonnement du cluster exécutant l’exécution de Spark SQL.