Esercitazione: Caricare dati di esempio in un cluster Big Data di SQL Server

Si applica a: SQL Server 2019 (15.x)

Importante

Il componente aggiuntivo per i cluster Big Data di Microsoft SQL Server 2019 verrà ritirato. Il supporto per i cluster Big Data di SQL Server 2019 terminerà il 28 febbraio 2025. Per altre informazioni, vedere Opzioni per i Big Data nella piattaforma Microsoft SQL Server.

Questa esercitazione illustra come usare uno script per caricare dati di esempio in un cluster Big Data di SQL Server 2019. Questi dati di esempio vengono usati anche da molte altre esercitazioni disponibili nella documentazione.

Suggerimento

È possibile trovare esempi aggiuntivi per cluster Big Data di SQL Server 2019 nel repository GitHub sql-server-samples. Si trovano nel percorso sql-server-samples/samples/features/sql-big-data-cluster/.

Prerequisiti

Caricare dati di esempio

Questa procedura usa uno script di bootstrap per scaricare un backup del database di SQL Server e caricare i dati nel cluster Big Data. Per semplicità d'uso, questa procedura è stata suddivisa nelle sezioni Windows e Linux. Se si vuole usare la combinazione nome utente/password di base come meccanismo di autenticazione, impostare le variabili di ambiente AZDATA_USERNAME e AZDATA_PASSWORD prima di eseguire lo script. In caso contrario, lo script userà l'autenticazione integrata per connettersi all'istanza master di SQL Server e al gateway Knox. È anche necessario specificare il nome DNS per gli endpoint per poter usare l'autenticazione integrata.

Windows

Questa procedura descrive come usare un client Windows per caricare i dati di esempio nel cluster Big Data.

  1. Aprire un nuovo prompt dei comandi di Windows.

    Importante

    Non usare Windows PowerShell per questa procedura. In PowerShell, lo script avrà esito negativo perché userà la versione PowerShell di curl.

  2. Usare curl per scaricare lo script di bootstrap per i dati di esempio.

    curl -o bootstrap-sample-db.cmd "https://raw.githubusercontent.com/Microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/bootstrap-sample-db.cmd"
    
  3. Scaricare lo script Transact-SQL bootstrap-sample-db.sql, che viene chiamato dallo script di bootstrap.

    curl -o bootstrap-sample-db.sql "https://raw.githubusercontent.com/Microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/bootstrap-sample-db.sql"
    
  4. Lo script di bootstrap richiede i seguenti parametri posizionali per il cluster Big Data:

    Parametro Descrizione
    <CLUSTER_NAMESPACE> Nome assegnato al cluster Big Data.
    <SQL_MASTER_ENDPOINT> Nome DNS o indirizzo IP dell'istanza master.
    <KNOX_ENDPOINT> Nome DNS o indirizzo IP del gateway HDFS/Spark.

    Suggerimento

    Usare kubectl per trovare gli indirizzi IP per l'istanza master di SQL Server e Knox. Eseguire kubectl get svc -n <your-big-data-cluster-name> e osservare gli indirizzi EXTERNAL-IP per l'istanza master (master-svc-external) e Knox (gateway-svc-external). Il nome predefinito di un cluster è mssql-cluster.

  5. Eseguire lo script di bootstrap.

    .\bootstrap-sample-db.cmd <CLUSTER_NAMESPACE> <SQL_MASTER_ENDPOINT> <KNOX_ENDPOINT>
    

Linux

Questa procedura descrive come usare un client Linux per caricare i dati di esempio nel cluster Big Data.

  1. Scaricare lo script di bootstrap e assegnare ad esso le autorizzazioni eseguibili.

    curl -o bootstrap-sample-db.sh "https://raw.githubusercontent.com/Microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/bootstrap-sample-db.sh"
    chmod +x bootstrap-sample-db.sh
    
  2. Scaricare lo script Transact-SQL bootstrap-sample-db.sql, che viene chiamato dallo script di bootstrap.

    curl -o bootstrap-sample-db.sql "https://raw.githubusercontent.com/Microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/bootstrap-sample-db.sql"
    
  3. Lo script di bootstrap richiede i seguenti parametri posizionali per il cluster Big Data:

    Parametro Descrizione
    <CLUSTER_NAMESPACE> Nome assegnato al cluster Big Data.
    <SQL_MASTER_ENDPOINT> Nome DNS o indirizzo IP dell'istanza master.
    <KNOX_ENDPOINT> Nome DNS o indirizzo IP del gateway HDFS/Spark.

    Suggerimento

    Usare kubectl per trovare gli indirizzi IP per l'istanza master di SQL Server e Knox. Eseguire kubectl get svc -n <your-big-data-cluster-name> e osservare gli indirizzi EXTERNAL-IP per l'istanza master (master-svc-external) e Knox (gateway-svc-external). Il nome predefinito di un cluster è mssql-cluster.

  4. Eseguire lo script di bootstrap.

    ./bootstrap-sample-db.sh <CLUSTER_NAMESPACE> <SQL_MASTER_ENDPOINT> <KNOX_ENDPOINT>
    

Passaggi successivi

Al termine dell'esecuzione dello script di bootstrap, nel cluster Big Data sono contenuti i database di esempio e i dati HDFS. Le esercitazioni seguenti usano i dati di esempio per illustrare le funzionalità dei cluster Big Data:

Virtualizzazione dei dati:

Inserimento dati:

Notebook: