Partager via


Ingérer des données de Splunk vers Azure Data Explorer

Important

Ce connecteur peut être utilisé dans Real-Time Intelligence dans Microsoft Fabric. Utilisez les instructions contenues dans cet article avec les exceptions suivantes :

Splunk Enterprise est une plateforme logicielle qui vous permet d’ingérer des données de nombreuses sources simultanément. L’indexeur Splunk traite les données et les stocke par défaut dans l’index principal ou dans un index personnalisé spécifié. La recherche dans Splunk utilise les données indexées pour créer des métriques, des tableaux de bord et des alertes. L’Explorateur de données Azure est un service d’exploration de données rapide et hautement évolutive pour les données des journaux et les données de télémétrie.

Dans cet article, vous allez apprendre à utiliser le module complémentaire Splunk Azure Data Explorer pour envoyer des données de Splunk vers une table dans votre cluster. Vous créez initialement une table et un mappage de données, vous demandez à Splunk d’envoyer des données dans la table, puis vous validez les résultats.

Les scénarios suivants conviennent le mieux à l’ingestion de données dans Azure Data Explorer :

  • Données volumineuses : Azure Data Explorer est conçu pour gérer efficacement de grandes quantités de données. Si votre organisation génère un volume important de données nécessitant une analyse en temps réel, Azure Data Explorer est un choix approprié.
  • Données de série chronologique : Azure Data Explorer excelle lors de la gestion des données de série chronologique, telles que les journaux, les données de télémétrie et les lectures de capteur. Il organise les données dans des partitions temporelles, ce qui facilite l’exécution d’analyses et d’agrégations basées sur le temps.
  • Analytique en temps réel : si votre organisation a besoin d’insights en temps réel à partir des données entrantes, les fonctionnalités en quasi-temps réel d’Azure Data Explorer peuvent être utiles.

Prérequis

Créer une table et un objet de mappage

Une fois que vous avez un cluster et une base de données, créez une table avec un schéma qui correspond à vos données Splunk. Vous créez également un objet de mappage utilisé pour transformer les données entrantes en schéma de table cible.

Dans l’exemple suivant, vous créez une table nommée WeatherAlert avec quatre colonnes : Timestamp, Temperature, Humidity et Weather. Vous créez également un mappage nommé WeatherAlert_Json_Mapping qui extrait les propriétés du json entrant comme indiqué par path et les génère dans le column spécifié.

Dans l’éditeur de requête de l’interface utilisateur web, exécutez les commandes suivantes pour créer la table et le mappage :

  1. Créer une table :

    .create table WeatherAlert (Timestamp: datetime, Temperature: string, Humidity: string, Weather: string)
    
  2. Vérifiez que la table WeatherAlert a été créée, et qu’elle est vide :

    WeatherAlert
    | count
    
  3. Créez un objet de mappage :

    .create table WeatherAlert ingestion json mapping "WeatherAlert_Json_Mapping"
        ```[{ "column" : "Timestamp", "datatype" : "datetime", "Properties":{"Path":"$.timestamp"}},
            { "column" : "Temperature", "datatype" : "string", "Properties":{"Path":"$.temperature"}},
            { "column" : "Humidity", "datatype" : "string", "Properties":{"Path":"$.humidity"}},
            { "column" : "Weather", "datatype" : "string", "Properties":{"Path":"$.weather_condition"}}
          ]```
    
  4. Utilisez le principal de service des Prérequis pour accorder l’autorisation d’utiliser la base de données.

    .add database YOUR_DATABASE_NAME admins  ('aadapp=YOUR_APP_ID;YOUR_TENANT_ID') 'Entra App'
    

Installer le module complémentaire Splunk Azure Data Explorer

Le module complémentaire Splunk communique avec Azure Data Explorer et envoie les données à la table spécifiée.

  1. Téléchargez le module complémentaire Azure Data Explorer.

  2. Connectez-vous à votre instance Splunk en tant qu’administrateur.

  3. Accédez à Applications>Gérer les applications.

  4. Sélectionnez Installer l’application à partir d’un fichier, puis sélectionnez le fichier de module complémentaire Azure Data Explorer que vous avez téléchargé.

  5. Suivez les instructions pour terminer l'installation.

  6. Sélectionnez Redémarrer maintenant.

  7. Vérifiez que le module complémentaire est installé en accédant à Tableau de bord>Actions d’alerte et en recherchant le module complémentaire Azure Data Explorer.

    Capture d’écran de la page Actions d’alerte montrant le module complémentaire Azure Data Explorer.

Créer un index dans Splunk

Créez un index dans Splunk en spécifiant les critères des données que vous souhaitez envoyer à Azure Data Explorer.

  1. Connectez-vous à votre instance Splunk en tant qu’administrateur.
  2. Accédez à Paramètres>Index.
  3. Spécifiez un nom pour l’index et configurez les critères des données que vous souhaitez envoyer à Azure Data Explorer.
  4. Configurez les propriétés restantes en fonction des besoins, puis enregistrez l’index.

Configurer le module complémentaire Splunk pour envoyer des données à Azure Data Explorer

  1. Connectez-vous à votre instance Splunk en tant qu’administrateur.

  2. Accédez au tableau de bord et recherchez à l’aide de l’index que vous avez créé précédemment. Par exemple, si vous avez créé un index nommé WeatherAlerts, recherchez index="WeatherAlerts".

  3. Sélectionnez Enregistrer sous>Alerte.

  4. Spécifiez le nom, l’intervalle et les conditions requises pour l’alerte.

    Capture d’écran de la boîte de dialogue de création d’alerte montrant les paramètres du module complémentaire Azure Data Explorer.

  5. Sous Actions de déclencheur, sélectionnez Ajouter des actions>Envoyer à Microsoft Azure Data Explorer.

    Capture d’écran de la boîte de dialogue de création d’alerte montrant l’action de déclencheur du module complémentaire Azure Data Explorer.

  6. Configurez les détails des connexions comme suit :

    Setting Description
    URL d’ingestion de cluster Spécifiez l’URL d’ingestion de votre cluster Azure Data Explorer. Par exemple : https://ingest-<mycluster>.<myregion>.kusto.windows.net.
    ID client Spécifiez l’ID client de l’application Microsoft Entra que vous avez créée précédemment.
    Clé secrète client Spécifiez la clé secrète client de l’application Microsoft Entra que vous avez créée précédemment.
    Tenant ID Spécifiez l’ID de locataire de l’application Microsoft Entra que vous avez créée précédemment.
    Sauvegarde de la base de données Spécifiez le nom de la base de données vers laquelle vous souhaitez envoyer les données.
    Enregistrement Spécifiez le nom de la table vers laquelle vous souhaitez envoyer les données.
    Mappage Spécifiez le nom de l’objet de mappage que vous avez créé précédemment.
    Supprimer les champs supplémentaires Sélectionnez cette option pour supprimer les champs vides des données envoyées à votre cluster.
    Mode durable Sélectionnez cette option pour activer le mode de durabilité pendant l’ingestion. Lorsque cette option a la valeur true, le débit d’ingestion est affecté.

    Capture d’écran de la boîte de dialogue de création d’alerte montrant les paramètres de connexion du module complémentaire Azure Data Explorer.

  7. Sélectionnez Enregistrer pour enregistrer l’alerte.

  8. Accédez à la page Alertes et vérifiez que votre alerte apparaît dans la liste des alertes.

    Capture d’écran de la page de création d’alertes montrant le module complémentaire Azure Data Explorer.

Vérifier que les données sont ingérées dans Azure Data Explorer

Une fois l’alerte déclenchée, les données sont envoyées vers votre table Azure Data Explorer. Vous pouvez vérifier que les données sont ingérées en exécutant une requête dans l’éditeur de requête de l’interface utilisateur web.

  1. Exécutez la requête suivante pour vérifier que les données sont ingérées dans la table :

    WeatherAlert
    | count
    
  2. Exécutez la requête suivante pour afficher les données :

    WeatherAlert
    | take 100
    

    Capture d’écran de l’éditeur de requête KQL montrant les résultats d’une requête pour obtenir 100 enregistrements de la table.