Dela via


Analysera data på ett lagringskonto

I den här självstudien får du lära dig hur du analyserar data som finns i ett lagringskonto.

Översikt

Hittills har vi gått igenom scenarier där data finns i databaser på arbetsytan. Nu ska vi visa dig hur du arbetar med filer i lagringskonton. I det här scenariot använder vi det primära lagringskontot för arbetsytan och containern som vi angav när vi skapade arbetsytan.

  • Namnet på lagringskontot: contosolake
  • Namnet på containern i lagringskontot: användare

Skapa CSV- och Parquet-filer i ditt lagringskonto

Kör följande kod i en notebook-fil i en ny kodcell. Den skapar en CSV-fil och en parquet-fil i lagringskontot.

Dricks

Den här tabellen skapades tidigare i snabbstarten och du hittar stegen här.

%%pyspark
df = spark.sql("SELECT * FROM nyctaxi.passengercountstats")
df = df.repartition(1) # This ensures we'll get a single file during write()
df.write.mode("overwrite").csv("/NYCTaxi/PassengerCountStats_csvformat")
df.write.mode("overwrite").parquet("/NYCTaxi/PassengerCountStats_parquetformat")

Analysera data på ett lagringskonto

Du kan analysera data på din arbetsytas standardkonto för Azure Data Lake Storage (ADLS) Gen2 eller länka ett ADLS Gen2- eller Blob Storage-konto till din arbetsyta via "Hantera" > "Länkade tjänster" "Nytt" > (nästa steg refererar till det primära ADLS Gen2-kontot).

  1. I Synapse Studio går du till datahubben och väljer sedan Länkad.

  2. Gå till Azure Data Lake Storage Gen2>myworkspace (Primary – contosolake).

  3. Välj användare (primär). Du bör se mappen NYCTaxi . Inuti bör du se två mappar som heter PassengerCountStats_csvformat och PassengerCountStats_parquetformat.

  4. Öppna mappen PassengerCountStats_parquetformat . Inuti finns en parquet-fil med ett namn som part-00000-2638e00c-0790-496b-a523-578da9a15019-c000.snappy.parquet.

  5. Högerklicka på .parquet och välj sedan Ny anteckningsbok och välj sedan Läs in till DataFrame. En ny notebook-fil skapas med en cell som den här:

    %%pyspark
    abspath = 'abfss://users@contosolake.dfs.core.windows.net/NYCTaxi/PassengerCountStats_parquetformat/part-00000-1f251a58-d8ac-4972-9215-8d528d490690-c000.snappy.parquet'
    df = spark.read.load(abspath, format='parquet')
    display(df.limit(10))
    
  6. Anslut till Spark-poolen med namnet Spark1. Kör cellen. Om du stöter på ett fel som rör brist på kärnor kan en annan session använda den här spark-poolen den här spark-poolen. Avbryt alla befintliga sessioner och försök igen.

  7. Välj tillbaka till mappen användare . Högerklicka på .parquet-filen igen och välj sedan Nytt SQL-skript>VÄLJ DE 100 översta raderna. Det skapar ett SQL-skript som det här:

    SELECT 
        TOP 100 *
    FROM OPENROWSET(
        BULK 'https://contosolake.dfs.core.windows.net/users/NYCTaxi/PassengerCountStats_parquetformat/part-00000-1f251a58-d8ac-4972-9215-8d528d490690-c000.snappy.parquet',
        FORMAT='PARQUET'
    ) AS [result]
    

    I skriptfönstret kontrollerar du att fältet Anslut till är inställt på den inbyggda serverlösa SQL-poolen.

  8. Kör skriptet.

Nästa steg