Del via


Få strømming av data til lakehouse og tilgang med SQL Analytics-endepunkt

Denne hurtigstarten forklarer hvordan du oppretter en Spark Job Definition som inneholder Python-kode med Spark Structured Streaming for å lande data i et lakehouse og deretter betjene den gjennom et SQL Analytics-endepunkt. Når du har fullført denne hurtigstarten, har du en sparkjobbdefinisjon som kjører kontinuerlig, og SQL Analytics-endepunktet kan vise innkommende data.

Opprette et Python-skript

  1. Bruk følgende Python-kode som bruker Spark-strukturert strømming til å hente data i et lakehouse-bord.

    import sys
    from pyspark.sql import SparkSession
    
    if __name__ == "__main__":
        spark = SparkSession.builder.appName("MyApp").getOrCreate()
    
        tableName = "streamingtable"
        deltaTablePath = "Tables/" + tableName
    
        df = spark.readStream.format("rate").option("rowsPerSecond", 1).load()
    
        query = df.writeStream.outputMode("append").format("delta").option("path", deltaTablePath).option("checkpointLocation", deltaTablePath + "/checkpoint").start()
        query.awaitTermination()
    
  2. Lagre skriptet som Python-fil (.py) på den lokale datamaskinen.

Opprett et innsjøhus

Bruk følgende fremgangsmåte for å opprette et lakehouse:

  1. Velg Synapse Dataingeniør ing i Microsoft Fabric.

  2. Gå til ønsket arbeidsområde, eller opprett et nytt om nødvendig.

  3. Hvis du vil opprette et lakehouse, velger du Lakehouse-ikonet under Ny-delen i hovedruten.

    Skjermbilde som viser ny dialogboks for lakehouse

  4. Skriv inn navnet på lakehouse, og velg Opprett.

Opprett en spark-jobbdefinisjon

Bruk følgende fremgangsmåte for å opprette en spark-jobbdefinisjon:

  1. Velg Opprett-ikonet fra menyen til venstre fra samme arbeidsområde der du opprettet et lakehouse.

  2. Velg Spark Job Definition under Dataingeniør ing.

    Skjermbilde som viser ny dialogboks for sparkjobbdefinisjon

  3. Skriv inn navnet på sparkjobbdefinisjonen, og velg Opprett.

  4. Velg Last opp , og velg Python-filen du opprettet i forrige trinn.

  5. Under Lakehouse Reference velger du lakehouse du opprettet.

Angi policy for nytt forsøk for spark-jobbdefinisjon

Bruk følgende fremgangsmåte for å angi policyen for ny forsøk for Spark-jobbdefinisjonen:

  1. Velg Innstilling-ikonet fra den øverste menyen.

    Skjermbilde som viser ikonet for innstillinger for sparkjobbdefinisjon

  2. Åpne fanen Optimalisering, og angi Utløser for prøving av policy på nytt.

    Skjermbilde som viser fanen spark jobbdefinisjon

  3. Definer maksimalt antall forsøk på nytt, eller kontroller Tillat ubegrensede forsøk.

  4. Angi tid mellom hvert forsøk på nytt, og velg Bruk.

Merk

Det er en levetidsgrense på 90 dager for konfigurasjonen av policyen for nye forsøk. Når policyen for nye forsøk er aktivert, startes jobben på nytt i henhold til policyen innen 90 dager. Etter denne perioden opphører policyen for nye forsøk automatisk å fungere, og jobben avsluttes. Brukere må deretter starte jobben på nytt manuelt, noe som igjen aktiverer policyen for nytt forsøk.

Utfør og overvåk spark-jobbdefinisjonen

  1. Velg Kjør-ikonet fra den øverste menyen.

    Skjermbilde som viser kjøreikonet sparkjobbdefinisjon

  2. Kontroller om Spark Job-definisjonen ble sendt inn og kjørt.

Vise data ved hjelp av et SQL Analytics-endepunkt

  1. Velg Lakehouse i arbeidsområdevisning.

  2. Velg Lakehouse fra høyre hjørne, og velg SQL Analytics-endepunkt.

  3. Velg tabellen som skriptet bruker til å lande data, i sql analytics-endepunktvisningen under Tabeller. Deretter kan du forhåndsvise dataene fra SQL Analytics-endepunktet.