Esercitazione: caricare dati di esempio in un cluster Big Data di SQL Server
Si applica a: SQL Server 2019 (15.x)
Importante
Il componente aggiuntivo per i cluster Big Data di Microsoft SQL Server 2019 verrà ritirato. Il supporto per i cluster Big Data di SQL Server 2019 terminerà il 28 febbraio 2025. Tutti gli utenti esistenti di SQL Server 2019 con Software Assurance saranno completamente supportati nella piattaforma e fino a quel momento il software continuerà a ricevere aggiornamenti cumulativi di SQL Server. Per altre informazioni, vedere il post di blog relativo all'annuncio e Opzioni per i Big Data nella piattaforma Microsoft SQL Server.
Questa esercitazione illustra come usare uno script per caricare dati di esempio in un cluster Big Data di SQL Server 2019. Questi dati di esempio vengono usati anche da molte altre esercitazioni disponibili nella documentazione.
Suggerimento
È possibile trovare esempi aggiuntivi per cluster Big Data di SQL Server 2019 nel repository GitHub sql-server-samples. Si trovano nel percorso sql-server-samples/samples/features/sql-big-data-cluster/.
Prerequisiti
- Un cluster Big Data distribuito
- Strumenti per Big Data
- azdata
- kubectl
- sqlcmd
- curl
Caricare dati di esempio
Questa procedura usa uno script di bootstrap per scaricare un backup del database di SQL Server e caricare i dati nel cluster Big Data. Per semplicità d'uso, questa procedura è stata suddivisa nelle sezioni Windows e Linux. Se si vuole usare la combinazione nome utente/password di base come meccanismo di autenticazione, impostare le variabili di ambiente AZDATA_USERNAME e AZDATA_PASSWORD prima di eseguire lo script. In caso contrario, lo script userà l'autenticazione integrata per connettersi all'istanza master di SQL Server e al gateway Knox. È anche necessario specificare il nome DNS per gli endpoint per poter usare l'autenticazione integrata.
Finestre
Questa procedura descrive come usare un client Windows per caricare i dati di esempio nel cluster Big Data.
Aprire un nuovo prompt dei comandi di Windows.
Importante
Non usare Windows PowerShell per questa procedura. In PowerShell, lo script avrà esito negativo perché userà la versione PowerShell di curl.
Usare curl per scaricare lo script di bootstrap per i dati di esempio.
curl -o bootstrap-sample-db.cmd "https://raw.githubusercontent.com/Microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/bootstrap-sample-db.cmd"
Scaricare lo script Transact-SQL bootstrap-sample-db.sql, che viene chiamato dallo script di bootstrap.
curl -o bootstrap-sample-db.sql "https://raw.githubusercontent.com/Microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/bootstrap-sample-db.sql"
Lo script di bootstrap richiede i seguenti parametri posizionali per il cluster Big Data:
Parametro Descrizione <CLUSTER_NAMESPACE> Nome assegnato al cluster Big Data. <SQL_MASTER_ENDPOINT> Nome DNS o indirizzo IP dell'istanza master. <KNOX_ENDPOINT> Nome DNS o indirizzo IP del gateway HDFS/Spark. Suggerimento
Usare kubectl per trovare gli indirizzi IP per l'istanza master di SQL Server e Knox. Eseguire
kubectl get svc -n <your-big-data-cluster-name>
e osservare gli indirizzi EXTERNAL-IP per l'istanza master (master-svc-external) e Knox (gateway-svc-external). Il nome predefinito di un cluster è mssql-cluster.Eseguire lo script di bootstrap.
.\bootstrap-sample-db.cmd <CLUSTER_NAMESPACE> <SQL_MASTER_ENDPOINT> <KNOX_ENDPOINT>
Linux
Questa procedura descrive come usare un client Linux per caricare i dati di esempio nel cluster Big Data.
Scaricare lo script di bootstrap e assegnare ad esso le autorizzazioni eseguibili.
curl -o bootstrap-sample-db.sh "https://raw.githubusercontent.com/Microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/bootstrap-sample-db.sh" chmod +x bootstrap-sample-db.sh
Scaricare lo script Transact-SQL bootstrap-sample-db.sql, che viene chiamato dallo script di bootstrap.
curl -o bootstrap-sample-db.sql "https://raw.githubusercontent.com/Microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/bootstrap-sample-db.sql"
Lo script di bootstrap richiede i seguenti parametri posizionali per il cluster Big Data:
Parametro Descrizione <CLUSTER_NAMESPACE> Nome assegnato al cluster Big Data. <SQL_MASTER_ENDPOINT> Nome DNS o indirizzo IP dell'istanza master. <KNOX_ENDPOINT> Nome DNS o indirizzo IP del gateway HDFS/Spark. Suggerimento
Usare kubectl per trovare gli indirizzi IP per l'istanza master di SQL Server e Knox. Eseguire
kubectl get svc -n <your-big-data-cluster-name>
e osservare gli indirizzi EXTERNAL-IP per l'istanza master (master-svc-external) e Knox (gateway-svc-external). Il nome predefinito di un cluster è mssql-cluster.Eseguire lo script di bootstrap.
./bootstrap-sample-db.sh <CLUSTER_NAMESPACE> <SQL_MASTER_ENDPOINT> <KNOX_ENDPOINT>
Passaggi successivi
Al termine dell'esecuzione dello script di bootstrap, nel cluster Big Data sono contenuti i database di esempio e i dati HDFS. Le esercitazioni seguenti usano i dati di esempio per illustrare le funzionalità dei cluster Big Data:
Virtualizzazione dei dati:
- Esercitazione: eseguire query su dati HDFS in un cluster Big Data di SQL Server
- Esercitazione: eseguire query su dati Oracle da un cluster Big Data di SQL Server
Inserimento dati:
- Esercitazione: inserire dati in un pool di dati di SQL Server con Transact-SQL
- Esercitazione: inserire dati in un pool di dati di SQL Server con processi Spark
Notebooks: