Akış verilerini lakehouse'a alma ve SQL analytics uç noktası ile erişim
Bu hızlı başlangıçta, verileri bir lakehouse'a getirmek ve ardından bir SQL analiz uç noktası aracılığıyla sunmak için Spark Yapılandırılmış Akış ile Python kodu içeren bir Spark İş Tanımı oluşturma işlemi açıklanmaktadır. Bu hızlı başlangıcı tamamladıktan sonra sürekli çalışan bir Spark İş Tanımına sahip olursunuz ve SQL analiz uç noktası gelen verileri görüntüleyebilir.
Python betiği oluşturma
Bir lakehouse tablosuna veri almak için Spark yapılandırılmış akışı kullanan aşağıdaki Python kodunu kullanın.
import sys from pyspark.sql import SparkSession if __name__ == "__main__": spark = SparkSession.builder.appName("MyApp").getOrCreate() tableName = "streamingtable" deltaTablePath = "Tables/" + tableName df = spark.readStream.format("rate").option("rowsPerSecond", 1).load() query = df.writeStream.outputMode("append").format("delta").option("path", deltaTablePath).option("checkpointLocation", deltaTablePath + "/checkpoint").start() query.awaitTermination()
Betiğinizi yerel bilgisayarınıza Python dosyası (.py) olarak kaydedin.
Göl evi oluşturma
Göl evi oluşturmak için aşağıdaki adımları kullanın:
Microsoft Fabric'te Synapse Veri Madenciliği deneyimini seçin.
İstediğiniz çalışma alanına gidin veya gerekirse yeni bir çalışma alanı oluşturun.
Bir göl evi oluşturmak için ana bölmedeki Yeni bölümünün altındaki Lakehouse simgesini seçin.
Göl evinizin adını girin ve Oluştur'u seçin.
Spark İş Tanımı Oluşturma
Spark İş Tanımı oluşturmak için aşağıdaki adımları kullanın:
Göl evi oluşturduğunuz çalışma alanından soldaki menüden Oluştur simgesini seçin.
"Veri Madenciliği" bölümünde Spark İş Tanımı'yı seçin.
Spark İş Tanımınızın adını girin ve Oluştur'u seçin.
Karşıya Yükle'yi seçin ve önceki adımda oluşturduğunuz Python dosyasını seçin.
Lakehouse Başvurusu altında oluşturduğunuz lakehouse'u seçin.
Spark İş Tanımı için Yeniden Deneme ilkesini ayarlama
Spark iş tanımınız için yeniden deneme ilkesini ayarlamak için aşağıdaki adımları kullanın:
Üst menüden Ayar simgesini seçin.
İyileştirme sekmesini açın ve İlkeyi Yeniden Dene tetikleyicisini Açık olarak ayarlayın.
En fazla yeniden deneme denemesi tanımlayın veya Sınırsız denemeye izin ver'i işaretleyin.
Her yeniden deneme girişimi arasındaki süreyi belirtin ve Uygula'yı seçin.
Dekont
Yeniden deneme ilkesi kurulumu için 90 günlük bir yaşam süresi sınırı vardır. Yeniden deneme ilkesi etkinleştirildikten sonra, iş 90 gün içinde ilkeye göre yeniden başlatılır. Bu süre sonunda yeniden deneme ilkesi otomatik olarak çalışmaz ve iş sonlandırılır. Daha sonra kullanıcıların işi el ile yeniden başlatması gerekir ve bu da yeniden deneme ilkesini yeniden etkinleştirir.
Spark İş Tanımını yürütme ve izleme
Üstteki menüden Çalıştır simgesini seçin.
Spark İşi tanımının başarıyla gönderilip gönderilmediğini ve çalıştığını doğrulayın.
SQL analytics uç noktasını kullanarak verileri görüntüleme
Çalışma alanı görünümünde Lakehouse'unuzu seçin.
Sağ köşede Lakehouse'ı ve ardından SQL analiz uç noktasını seçin.
Tablolar'ın altındaki SQL analizi uç noktası görünümünde betiğinizin verileri almak için kullandığı tabloyu seçin. Ardından SQL analytics uç noktasından verilerinizin önizlemesini görüntüleyebilirsiniz.
İlgili içerik
Geri Bildirim
https://aka.ms/ContentUserFeedback.
Çok yakında: 2024 boyunca, içerik için geri bildirim mekanizması olarak GitHub Sorunları’nı kullanımdan kaldıracak ve yeni bir geri bildirim sistemiyle değiştireceğiz. Daha fazla bilgi için bkz.Gönderin ve geri bildirimi görüntüleyin