Partager via


Charger les journaux sur Azure Monitor

Régulièrement, vous pouvez exporter les journaux, puis les charger dans Azure. L’exportation et le chargement des journaux créent et mettent à jour le contrôleur de données, l’instance managée SQL et les ressources de serveur PostgreSQL dans Azure.

Avant de commencer

Avant de charger les journaux, vous devez :

  1. Créer un espace de travail Log Analytics
  2. Attribuer un ID et une clé partagée aux variables d'environnement

Les exemples de cet article utilisent des crochets pointus < ... > pour identifier les valeurs que vous devez remplacer avant d’exécuter le script. Remplacez les crochets et les valeurs à l’intérieur des crochets.

Créer un espace de travail Log Analytics

Pour créer un espace de travail Log Analytics, exécutez ces commandes pour créer un espace de travail Log Analytics et définir les informations d’accès dans des variables d’environnement.

Remarque

Si vous avez déjà un espace de travail, ignorez cette étape.

az monitor log-analytics workspace create --resource-group <resource group name> --workspace-name <some name you choose>

Exemple de sortie :

{
  "customerId": "00000000-0000-0000-0000-000000000000",
  "eTag": null,
  "id": "/subscriptions/<Subscription ID>/resourcegroups/user-arc-demo/providers/microsoft.operationalinsights/workspaces/user-logworkspace",
  "location": "eastus",
  "name": "user-logworkspace",
  "portalUrl": null,
  "provisioningState": "Succeeded",
  "resourceGroup": "user-arc-demo",
  "retentionInDays": 30,
  "sku": {
    "lastSkuUpdate": "Thu, 30 Jul 2020 22:37:53 GMT",
    "maxCapacityReservationLevel": 3000,
    "name": "pergb2018"
  },
  "source": "Azure",
  "tags": null,
  "type": "Microsoft.OperationalInsights/workspaces"
}

Affecter un ID et une clé partagée à des variables d’environnement

Enregistrez l’espace de travail Log Analytics customerId en tant que variable d’environnement à utiliser ultérieurement :

SET WORKSPACE_ID=<customerId>

Cette commande renvoie les clés d’accès requises pour se connecter à votre espace de travail Log Analytics :

az monitor log-analytics workspace get-shared-keys --resource-group MyResourceGroup --workspace-name MyLogsWorkpace

Exemple de sortie :

{
  "primarySharedKey": "<primarySharedKey>==",
  "secondarySharedKey": "<secondarySharedKey>=="
}

Enregistrez la clé primaire dans une variable d’environnement à utiliser ultérieurement :

SET WORKSPACE_SHARED_KEY=<primarySharedKey>

Vérifier les variables d’environnement

Assurez-vous que toutes les variables d’environnement nécessaires sont définies si vous le souhaitez :

echo %WORKSPACE_ID%
echo %WORKSPACE_SHARED_KEY%

Une fois les variables d’environnement définies, vous pouvez charger les journaux dans l’espace de travail.

Configurer le chargement automatique des journaux dans l’espace de travail Azure Log Analytics en mode direct à l’aide de l’interface CLI az

En mode de connexion directe, le chargement des journaux peut uniquement être configuré en mode automatique. Ce chargement automatique de métriques peut être configuré pendant ou après le déploiement du contrôleur de données Azure Arc.

Activer le chargement automatique des journaux dans l’espace de travail Azure Log Analytics

Si le chargement automatique des journaux a été désactivé lors du déploiement du contrôleur de données Azure Arc, exécutez la commande ci-dessous pour activer le chargement automatique des journaux.

az arcdata dc update --name <name of datacontroller> --resource-group <resource group> --auto-upload-logs true
#Example
az arcdata dc update --name arcdc --resource-group <myresourcegroup> --auto-upload-logs true

Activer le chargement automatique des journaux dans l’espace de travail Azure Log Analytics

Si le chargement automatique des journaux a été activé lors du déploiement du contrôleur de données Azure Arc, exécutez la commande ci-dessous pour désactiver le chargement automatique des journaux.

az arcdata dc update --name <name of datacontroller> --resource-group <resource group> --auto-upload-logs false
#Example
az arcdata dc update --name arcdc --resource-group <myresourcegroup> --auto-upload-logs false

Configurer le chargement automatique des journaux dans l’espace de travail Azure Log Analytics en mode direct à l’aide de l’interface CLI kubectl

Activer le chargement automatique des journaux dans l’espace de travail Azure Log Analytics

Pour configurer le chargement automatique des journaux à l’aide de kubectl :

  • Vérifier que l’espace de travail Log Analytics est créé comme décrit dans la section précédente
  • Créer un secret Kubernetes pour l’espace de travail Log Analytics à l’aide de WorkspaceID et SharedAccessKey comme suit :
apiVersion: v1
data:
  primaryKey: <base64 encoding of Azure Log Analytics workspace primary key>
  workspaceId: <base64 encoding of Azure Log Analytics workspace Id>
kind: Secret
metadata:
  name: log-workspace-secret
  namespace: <your datacontroller namespace>
type: Opaque
  • Pour créer le secret, exécutez :

    kubectl apply -f <myLogAnalyticssecret.yaml> --namespace <mynamespace>
    
  • Pour ouvrir les paramètres en tant que fichier yaml dans l’éditeur par défaut, exécutez :

    kubectl edit datacontroller <DC name> --name <namespace>
    
  • Mettre à jour la propriété autoUploadLogs vers "true", puis enregistrer le fichier

Activer le chargement automatique des journaux dans l’espace de travail Azure Log Analytics

Pour désactiver le chargement automatique des journaux, exécutez :

kubectl edit datacontroller <DC name> --name <namespace>
  • Mettre à jour la propriété autoUploadLogs vers "false", puis enregistrer le fichier

Charger des journaux sur Azure Monitor en mode indirect

Pour télécharger des journaux pour SQL Managed Instance activé par Azure Arc et les serveurs PostgreSQL compatibles Azure Arc, exécutez les commandes CLI suivantes-

  1. Exporter tous les journaux dans le fichier spécifié :

    Remarque

    L’exportation des informations d’utilisation/facturation, des métriques et des journaux à l’aide de la commande az arcdata dc export nécessite de contourner la vérification SSL pour l’instant. Vous êtes invité à contourner la vérification SSL ou vous pouvez définir la variable d’environnement AZDATA_VERIFY_SSL=no pour éviter les invites. Il n’existe actuellement aucun moyen de configurer un certificat SSL pour l’API d’exportation du contrôleur de données.

    az arcdata dc export --type logs --path logs.json  --k8s-namespace arc
    
  2. Chargez les journaux sur un espace de travail Azure Monitor Log Analytics :

    az arcdata dc upload --path logs.json
    

Afficher vos journaux dans le portail Azure

Une fois vos journaux chargés, vous devez être en mesure de les interroger à l’aide de l’explorateur de requêtes de journal comme suit :

  1. Ouvrez le portail Azure, recherchez le nom de votre espace de travail dans la barre de recherche en haut, puis sélectionnez-le.
  2. Dans le panneau gauche, sélectionnez Journaux.
  3. Sélectionnez Prise en main (ou sélectionnez les liens de la page Prise en main pour en savoir plus sur Log Analytics si vous débutez avec cette fonctionnalité).
  4. Suivez le tutoriel pour en savoir plus sur Log Analytics si vous utilisez Log Analytics pour la première fois.
  5. Développez les journaux personnalisés au bas de la liste des tables et vous verrez un tableau appelé « sql_instance_logs_CL » ou « postgresInstances_postgresql_logs_CL ».
  6. Sélectionnez l’icône représentant un œil en regard du nom de la table.
  7. Sélectionnez le bouton « Afficher dans l’éditeur de requête ».
  8. Vous disposez maintenant d’une requête dans l’éditeur de requête, qui affiche les 10 événements les plus récents dans le journal.
  9. À partir de là, vous pouvez expérimenter l’interrogation des journaux à l’aide de l’éditeur de requête, définir des alertes, etc.

Automatisation des chargements (facultatif)

Si vous souhaitez charger les métriques et les journaux sur une base planifiée, vous pouvez créer un script et l’exécuter sur la base d’un minuteur toutes les quelques minutes. Voici un exemple d’automatisation des chargements à l’aide d’un script de shell Linux.

Dans votre éditeur de texte/code préféré, ajoutez le script suivant au fichier et enregistrez-le en tant que fichier exécutable de script, tel que (Linux/Mac) .sh, .cmd, .bat, ou .ps1 (Windows).

az arcdata dc export --type logs --path logs.json --force --k8s-namespace arc
az arcdata dc upload --path logs.json

Rendre le fichier de script exécutable

chmod +x myuploadscript.sh

Exécutez le script toutes les 20 minutes :

watch -n 1200 ./myuploadscript.sh

Vous pouvez également utiliser un planificateur de travaux comme cron ou le Planificateur de tâches Windows ou encore un orchestrateur comme Ansible, Puppet ou Chef.

Charger les métriques sur Azure Monitor

Télécharger des données d'utilisation, des métriques et des journaux sur Azure Monitor

Charger des données de facturation dans Azure et les afficher dans le portail Azure

Afficher la ressource Azure Arc Data Controller dans Portail Azure