Introduzione ad Azure Data Lake Analytics con l'interfaccia della riga di comando di Azure

Importante

Non è più possibile creare nuovi account azure Data Lake Analytics a meno che la sottoscrizione non sia stata abilitata. Se è necessario abilitare la sottoscrizione per contattare il supporto tecnico e fornire lo scenario aziendale.

Se si usa già Azure Data Lake Analytics, è necessario creare un piano di migrazione per Azure Synapse Analytics per l'organizzazione entro il 29 febbraio 2024.

Questo articolo descrive come usare l'interfaccia della riga di comando di Azure per creare un account di Azure Data Lake Analytics, inviare un processo U-SQL e recuperare i risultati. Il processo legge un file con valori delimitati da tabulazioni (TSV) e lo converte in un file con valori delimitati da virgole (CSV).

Prerequisiti

Prima di iniziare, è necessario disporre di quanto segue:

Accedere ad Azure

Per accedere alla sottoscrizione di Azure:

az login

Si richiede di passare a un URL e immettere un codice di autenticazione. Seguire le istruzioni per immettere le credenziali.

Dopo aver eseguito l'accesso, il comando di accesso elenca le sottoscrizioni.

Per usare una sottoscrizione specifica:

az account set --subscription <subscription id>

Creare un account di Analisi Data Lake

Per poter eseguire un processo è necessario un account Data Lake Analytics. Per creare un account Data Lake Analytics, specificare quanto segue:

  • Gruppo di risorse di Azure. L'account Data Lake Analytics deve essere creato all'interno di un gruppo di risorse di Azure. Azure Resource Manager consente di usare le risorse nell'applicazione come gruppo. È possibile distribuire, aggiornare o eliminare tutte le risorse per l'applicazione mediante un'unica operazione coordinata.

Per elencare i gruppi di risorse esistenti nella sottoscrizione:

az group list

Per creare un nuovo gruppo di risorse:

az group create --name "<Resource Group Name>" --location "<Azure Location>"
  • Data Lake Analytics nome dell'account. Ogni account Data Lake Analytics ha un nome.
  • Località. Usare uno dei data center di Azure che supporta Data Lake Analytics.
  • Account Data Lake Store predefinito: ogni account Data Lake Analytics ha un account Data Lake Store predefinito.

Per elencare l'account Data Lake Store esistente:

az dls account list

Per creare un nuovo account Data Lake Store:

az dls account create --account "<Data Lake Store Account Name>" --resource-group "<Resource Group Name>"

Per creare un account Data Lake Analytics, usare la sintassi seguente:

az dla account create --account "<Data Lake Analytics Account Name>" --resource-group "<Resource Group Name>" --location "<Azure location>" --default-data-lake-store "<Default Data Lake Store Account Name>"

Dopo aver creato un account, è possibile usare i comandi seguenti per elencare gli account e visualizzarne i dettagli:

az dla account list
az dla account show --account "<Data Lake Analytics Account Name>"

Caricare dati nell’Archivio Data Lake

In questa esercitazione verrà eseguita l'elaborazione di alcuni log di ricerca. Il log di ricerca può essere archiviato in Data Lake Store o in un archivio BLOB di Azure.

Il portale di Azure offre un’interfaccia utente per copiare alcuni file di dati di esempio nell'account Data Lake Store predefinito, tra cui anche un file di log di ricerca. Vedere Preparare i dati di origine per caricare i dati nell'account Archivio Data Lake predefinito.

Per caricare i file con l'interfaccia della riga di comando di Azure, usare i comandi seguenti:

az dls fs upload --account "<Data Lake Store Account Name>" --source-path "<Source File Path>" --destination-path "<Destination File Path>"
az dls fs list --account "<Data Lake Store Account Name>" --path "<Path>"

Data Lake Analytics può inoltre accedere all'archivio BLOB di Azure. Per caricare i dati nell'archiviazione BLOB di Azure, vedere Uso dell’interfaccia della riga di comando di Azure con Archiviazione di Azure.

Inviare processi di Data Lake Analytics

I processi di Data Lake Analtyics vengono scritti nel linguaggio U-SQL. Per altre informazioni su U-SQL, vedere Introduzione al linguaggio U-SQL e U-SQL Language Reference (Riferimenti al linguaggio U-SQL).

Per creare uno script per il processo di Data Lake Analytics

Creare un file di testo contenente il seguente script U-SQL e salvare il file di testo nella workstation in uso:

@a  =
    SELECT * FROM
        (VALUES
            ("Contoso", 1500.0),
            ("Woodgrove", 2700.0)
        ) AS
              D( customer, amount );
OUTPUT @a
    TO "/data.csv"
    USING Outputters.Csv();

Questo script U-SQL legge il file di dati di origine con Extractors.Tsv() e quindi crea un file CSV con Outputters.Csv().

Non modificare i due percorsi, a meno che il file di origine non sia stato copiato in una posizione diversa. Data Lake Analytics creerà la cartella di output, se non esiste già.

È più semplice usare percorsi relativi per i file archiviati negli account Di Data Lake Store predefiniti. ma è possibile usare anche percorsi assoluti. Ad esempio:

adl://<Data LakeStorageAccountName>.azuredatalakestore.net:443/Samples/Data/SearchLog.tsv

È necessario usare percorsi assoluti per accedere ai file presenti negli account di archiviazione collegati. La sintassi dei file presenti in un account di Archiviazione di Azure collegato è:

wasb://<BlobContainerName>@<StorageAccountName>.blob.core.windows.net/Samples/Data/SearchLog.tsv

Nota

Il contenitore BLOB di Azure con BLOB pubblici non è supportato. Il contenitore BLOB di Azure con contenitori pubblici non è supportato.

Per inviare processi

Per inviare un processo, usare la sintassi seguente:

az dla job submit --account "<Data Lake Analytics Account Name>" --job-name "<Job Name>" --script "<Script Path and Name>"

Ad esempio:

az dla job submit --account "myadlaaccount" --job-name "myadlajob" --script @"C:\DLA\myscript.txt"

Per elencare i processi e visualizzarne i dettagli

az dla job list --account "<Data Lake Analytics Account Name>"
az dla job show --account "<Data Lake Analytics Account Name>" --job-identity "<Job Id>"

Per annullare i processi

az dla job cancel --account "<Data Lake Analytics Account Name>" --job-identity "<Job Id>"

Recuperare i risultati di un processo

Al termine di un processo, è possibile usare i comandi seguenti per elencare i file di output e scaricare i file:

az dls fs list --account "<Data Lake Store Account Name>" --source-path "/Output" --destination-path "<Destination>"
az dls fs preview --account "<Data Lake Store Account Name>" --path "/Output/SearchLog-from-Data-Lake.csv"
az dls fs preview --account "<Data Lake Store Account Name>" --path "/Output/SearchLog-from-Data-Lake.csv" --length 128 --offset 0
az dls fs download --account "<Data Lake Store Account Name>" --source-path "/Output/SearchLog-from-Data-Lake.csv" --destination-path "<Destination Path and File Name>"

Ad esempio:

az dls fs download --account "myadlsaccount" --source-path "/Output/SearchLog-from-Data-Lake.csv" --destination-path "C:\DLA\myfile.csv"

Passaggi successivi