Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Importante
Questa funzionalità è disponibile in anteprima pubblica.
Qlik Replicate consente di estrarre dati da più origini dati (Oracle, Microsoft SQL Server, SAP, mainframe e altro ancora) in Delta Lake. L'acquisizione automatica dei dati delle modifiche (CDC) di Replicate aiuta a evitare lo sforzo di estrarre manualmente i dati, trasferirli tramite uno script API, suddividerli, prepararli e importarli. Qlik Compose automatizza la CDC in Delta Lake.
Nota
Per informazioni su Qlik Sense, una soluzione che consente di analizzare i dati in Delta Lake, vedere Connettersi a Qlik Sense.
Per una dimostrazione generale di Qlik Replicate Replicate, guardare il video di YouTube seguente (14 minuti).
Per una dimostrazione delle pipeline di dati con Qlik Replicate Replicate, vedere il video di YouTube seguente (6 minuti).
Ecco i passaggi per l'uso di Qlik Replicate con Azure Databricks.
Passaggio 1: Generare un token di accesso personale di Databricks
Qlik Replicate esegue l'autenticazione con Azure Databricks usando un token di accesso personale di Azure Databricks.
Nota
Come procedura consigliata per la sicurezza, quando si esegue l'autenticazione con strumenti automatizzati, sistemi, script e app, Databricks consiglia di usare token di accesso personali appartenenti alle entità servizio anziché agli utenti dell'area di lavoro. Per creare token per le entità servizio, vedere Gestire i token per un'entità servizio.
Passaggio 2: Configurare un cluster per supportare le esigenze di integrazione
Qlik Replicate scriverà i dati in un percorso di Azure Data Lake Storage e il cluster di integrazione di Azure Databricks leggerà i dati da tale posizione. Di conseguenza, il cluster di integrazione richiede l'accesso sicuro al percorso di Azure Data Lake Storage.
Proteggere in modo sicuro l'accesso a un percorso di Azure Data Lake Storage
Per proteggere l'accesso ai dati in Azure Data Lake Storage (ADLS), è possibile usare una chiave di accesso dell'account di archiviazione di Azure (scelta consigliata) o un principale del servizio Microsoft Entra ID.
Usare una chiave di accesso dell'account di archiviazione di Azure
È possibile configurare una chiave di accesso dell'account di archiviazione nel cluster di integrazione come parte della configurazione di Spark. Assicurarsi che l'account di archiviazione abbia accesso al contenitore e al file system di Azure Data Lake Storage utilizzati per lo staging dei dati e al contenitore e file system di Azure Data Lake Storage dove si vogliono scrivere le tabelle Delta Lake. Per configurare il cluster di integrazione per l'uso della chiave, seguire la procedura descritta in Connettersi ad Azure Data Lake Storage e Blob Storage.
Usare un principale del servizio Microsoft Entra ID
È possibile configurare un'entità servizio nel cluster di integrazione di Azure Databricks come parte della configurazione di Spark. Assicurarsi che l'entità del servizio abbia accesso al container ADLS usato per i dati di staging e al container ADLS in cui si vogliono scrivere le tabelle Delta. Per configurare il cluster di integrazione per l'uso dell'entità servizio, seguire la procedura descritta in Accedere ad ADLS con l'entità servizio.
Specificare la configurazione del cluster
Impostare Modalità cluster su Standard.
Impostare Versione di Databricks Runtime su una versione di Databricks Runtime.
Abilitare operazioni di scrittura ottimizzate e compattazione automatica aggiungendo le proprietà seguenti alla configurazione di Spark:
spark.databricks.delta.optimizeWrite.enabled true spark.databricks.delta.autoCompact.enabled true
Configurare il cluster in base alle esigenze di integrazione e scalabilità.
Per informazioni dettagliate sulla configurazione del cluster, vedere Informazioni di riferimento sulla configurazione del calcolo.
Vedere Ottenere i dettagli della connessione per una risorsa di calcolo di Azure Databricks per la procedura per ottenere l'URL JDBC e il percorso HTTP.
Passaggio 3: Ottenere i dettagli di connessione JDBC e ODBC per connettersi a un cluster
Per connettere un cluster Azure Databricks a Qlik Replicate, sono necessarie le proprietà di connessione JDBC/ODBC seguenti:
- JDBC URL
- Percorso HTTP
Passaggio 4: Configurare Qlik Replicate con Azure Databricks
Passare alla pagina di accesso di Qlik e seguire le istruzioni.