Nota
L'accesso a questa pagina richiede l'autorizzazione. Puoi provare ad accedere o a cambiare directory.
L'accesso a questa pagina richiede l'autorizzazione. Puoi provare a cambiare directory.
Si applica a:SQL Server 2019 (15.x)
Important
I cluster Big Data di Microsoft SQL Server 2019 sono stati ritirati. Il supporto per i cluster Big Data di SQL Server 2019 è terminato a partire dal 28 febbraio 2025. Per altre informazioni, vedere il post di blog sull'annuncio e le opzioni per Big Data nella piattaforma Microsoft SQL Server.
Questa esercitazione illustra come usare uno script per caricare dati di esempio in cluster Big Data di SQL Server 2019. Molte delle altre esercitazioni nella documentazione usano questi dati di esempio.
Tip
È possibile trovare altri esempi per i cluster Big Data di SQL Server 2019 nel repository GitHub sql-server-samples . Si trovano nel percorso sql-server-samples/samples/features/sql-big-data-cluster/ .
Prerequisites
- Un cluster Big Data distribuito
-
Strumenti per Big Data
- azdata
- kubectl
- sqlcmd
- curl
Caricare dati di esempio
La procedura seguente usa uno script bootstrap per scaricare un backup del database di SQL Server e caricare i dati nel cluster Big Data. Per semplificare l'uso, questi passaggi sono stati suddivisi in sezioni di Windows e Linux . Se si vuole usare nome utente/password di base come meccanismo di autenticazione, impostare AZDATA_USERNAME e AZDATA_PASSWORD variabili di ambiente prima di eseguire lo script. In caso contrario, lo script userà l'autenticazione integrata per connettersi all'istanza master di SQL Server e al gateway Knox. È inoltre necessario specificare il nome DNS per gli endpoint per usare l'autenticazione integrata.
Windows
I passaggi seguenti descrivono come usare un client Windows per caricare i dati di esempio nel cluster Big Data.
Aprire un nuovo prompt dei comandi di Windows.
Important
Non usare Windows PowerShell per questi passaggi. In PowerShell lo script avrà esito negativo perché userà la versione di PowerShell di curl.
Usare curl per scaricare lo script bootstrap per i dati di esempio.
curl -o bootstrap-sample-db.cmd "https://raw.githubusercontent.com/Microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/bootstrap-sample-db.cmd"Scaricare il script bootstrap-sample-db.sql Transact-SQL. Questo script viene chiamato dallo script di bootstrap.
curl -o bootstrap-sample-db.sql "https://raw.githubusercontent.com/Microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/bootstrap-sample-db.sql"Lo script bootstrap richiede i parametri posizionali seguenti per il cluster Big Data:
Parameter Description <CLUSTER_NAMESPACE> Nome assegnato al cluster Big Data. <SQL_MASTER_ENDPOINT> Nome DNS o indirizzo IP dell'istanza master. <KNOX_ENDPOINT> Nome DNS o indirizzo IP del gateway HDFS/Spark. Tip
Usare kubectl per trovare gli indirizzi IP per l'istanza master di SQL Server e Knox. Eseguire
kubectl get svc -n <your-big-data-cluster-name>e controllare gli indirizzi EXTERNAL-IP dell'istanza master (master-svc-external) e Knox (gateway-svc-external). Il nome predefinito di un cluster è mssql-cluster.Eseguire lo script bootstrap.
.\bootstrap-sample-db.cmd <CLUSTER_NAMESPACE> <SQL_MASTER_ENDPOINT> <KNOX_ENDPOINT>
Linux
La procedura seguente descrive come usare un client Linux per caricare i dati di esempio nel cluster Big Data.
Scarica lo script bootstrap e assegnagli le autorizzazioni eseguibili.
curl -o bootstrap-sample-db.sh "https://raw.githubusercontent.com/Microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/bootstrap-sample-db.sh" chmod +x bootstrap-sample-db.shScaricare il script bootstrap-sample-db.sql Transact-SQL. Questo script viene chiamato dallo script di bootstrap.
curl -o bootstrap-sample-db.sql "https://raw.githubusercontent.com/Microsoft/sql-server-samples/master/samples/features/sql-big-data-cluster/bootstrap-sample-db.sql"Lo script bootstrap richiede i parametri posizionali seguenti per il cluster Big Data:
Parameter Description <CLUSTER_NAMESPACE> Nome assegnato al cluster Big Data. <SQL_MASTER_ENDPOINT> Nome DNS o indirizzo IP dell'istanza master. <KNOX_ENDPOINT> Nome DNS o indirizzo IP del gateway HDFS/Spark. Tip
Usare kubectl per trovare gli indirizzi IP per l'istanza master di SQL Server e Knox. Eseguire
kubectl get svc -n <your-big-data-cluster-name>e controllare gli indirizzi EXTERNAL-IP dell'istanza master (master-svc-external) e Knox (gateway-svc-external). Il nome predefinito di un cluster è mssql-cluster.Eseguire lo script bootstrap.
./bootstrap-sample-db.sh <CLUSTER_NAMESPACE> <SQL_MASTER_ENDPOINT> <KNOX_ENDPOINT>
Next steps
Dopo l'esecuzione dello script bootstrap, il cluster Big Data include i database di esempio e i dati HDFS. Le esercitazioni seguenti usano i dati di esempio per illustrare le funzionalità del cluster Big Data:
Data Virtualization:
- Esercitazione: Eseguire query su HDFS in un cluster Big Data di SQL Server
- Esercitazione: Eseguire query su Oracle da un cluster Big Data di SQL Server
Data ingestion:
- Esercitazione: Inserire dati in un pool di dati di SQL Server con Transact-SQL
- Esercitazione: Inserire dati in un pool di dati di SQL Server con processi Spark
Notebooks: