Delta Sharing açık paylaşımı kullanarak paylaşılan verileri okuma (alıcılar için)

Bu makalede Delta Sharing açık paylaşım protokolü kullanılarak sizinle paylaşılan verilerin nasıl okunduğu açıklanmaktadır. Açık paylaşımda, paylaşılan verilere güvenli okuma erişimi elde etmek için veri sağlayıcısı tarafından ekibinizin bir üyesiyle paylaşılan bir kimlik bilgisi dosyası kullanırsınız. Kimlik bilgisi geçerli olduğu ve sağlayıcının verileri paylaşmaya devam etmesi sürece Erişim devam eder. Sağlayıcılar kimlik bilgisi süre sonunu ve döndürmeyi yönetir. Verilere Güncelleştirmeler neredeyse gerçek zamanlı olarak kullanılabilir. Paylaşılan verileri okuyabilir ve kopyalayabilirsiniz, ancak kaynak verileri değiştiremezsiniz.

Not

Databricks-Databricks Delta Sharing kullanılarak veriler sizinle paylaşıldıysa, verilere erişmek için bir kimlik bilgisi dosyasına ihtiyacınız yoktur ve bu makale sizin için geçerli değildir. Yönergeler için bkz . Databricks-To-Databricks Delta Sharing (alıcılar için) kullanılarak paylaşılan verileri okuma.

Aşağıdaki bölümlerde, kimlik bilgileri dosyasını kullanarak paylaşılan verilere erişmek ve bunları okumak için Azure Databricks, Apache Spark, pandas ve Power BI'ın nasıl kullanılacağı açıklanmaktadır. Delta Sharing bağlayıcılarının tam listesi ve bunların nasıl kullanılacağı hakkında bilgi için Delta Sharing açık kaynak belgelerine bakın. Paylaşılan verilere erişirken sorunla karşılaşırsanız veri sağlayıcısına başvurun.

Not

İş ortağı tümleştirmeleri, aksi belirtilmedikçe üçüncü taraflar tarafından sağlanır ve ürünlerinin ve hizmetlerinin kullanımı için uygun sağlayıcıya sahip olmanız gerekir. Databricks, bu içeriği güncel tutmak için olabildiğince çaba gösterse de tümleştirmelere veya iş ortağı tümleştirme sayfalarındaki içeriğin doğruluğuna ilişkin hiçbir taahhütte bulunmaz. Tümleştirmelerle ilgili olarak bunların sağlayıcılarına başvurun.

Başlamadan önce

Ekibinizin bir üyesi, veri sağlayıcısı tarafından paylaşılan kimlik bilgileri dosyasını indirmelidir. Bkz. Açık paylaşım modelinde erişim alma.

Bu dosya veya dosya konumunu sizinle paylaşmak için güvenli bir kanal kullanmalıdır.

Azure Databricks: Açık paylaşım bağlayıcılarını kullanarak paylaşılan verileri okuma

Bu bölümde, Azure Databricks çalışma alanınızdaki bir not defterini kullanarak paylaşılan verilere erişmek için açık paylaşım bağlayıcısını nasıl kullanacağınız açıklanmaktadır. Siz veya ekibinizin başka bir üyesi kimlik bilgileri dosyasını DBFS'de depolar, ardından veri sağlayıcısının Azure Databricks hesabında kimlik doğrulaması yapmak ve veri sağlayıcısının sizinle paylaştığı verileri okumak için bu dosyayı kullanırsınız.

Not

Veri sağlayıcısı Databricks-Databricks paylaşımı kullanıyorsa ve sizinle bir kimlik bilgisi dosyası paylaşmadıysa, Unity Kataloğu'nu kullanarak verilere erişmeniz gerekir. Yönergeler için bkz . Databricks-To-Databricks Delta Sharing (alıcılar için) kullanılarak paylaşılan verileri okuma.

Bu örnekte, bağımsız olarak çalıştırabileceğiniz birden çok hücre içeren bir not defteri oluşturursunuz. Bunun yerine not defteri komutlarını aynı hücreye ekleyebilir ve sırayla çalıştırabilirsiniz.

1. Adım: Kimlik bilgisi dosyasını DBFS'de depolama (Python yönergeleri)

Bu adımda, azure databricks'te bir Python not defteri kullanarak kimlik bilgileri dosyasını depolar ve böylece ekibinizdeki kullanıcılar paylaşılan verilere erişebilir.

Siz veya ekibinizden biri kimlik bilgisi dosyasını DBFS'de depoladıysa sonraki adıma geçin.

  1. Bir metin düzenleyicisinde kimlik bilgisi dosyasını açın.

  2. Azure Databricks çalışma alanınızda Yeni Not Defteri'ne >tıklayın.

    • Bir ad girin.
    • Not defterinin varsayılan dilini Python olarak ayarlayın.
    • Not defterine eklemek için bir küme seçin.
    • Oluştur’a tıklayın.

    Not defteri, not defteri düzenleyicisinde açılır.

  3. Paylaşılan verilere erişmek için Python veya pandas kullanmak için delta paylaşımı Python bağlayıcısını yükleyin. Not defteri düzenleyicisine aşağıdaki komutu yapıştırın:

    %sh pip install delta-sharing
    
  4. Hücreyi çalıştırın.

    delta-sharing Python kitaplığı henüz yüklü değilse kümeye yüklenir.

  5. Yeni bir hücreye, kimlik bilgisi dosyasının içeriğini DBFS'deki bir klasöre yükleyen aşağıdaki komutu yapıştırın. Değişkenleri aşağıdaki gibi değiştirin:

    • <dbfs-path>: Kimlik bilgisi dosyasını kaydetmek istediğiniz klasörün yolu

    • <credential-file-contents>: kimlik bilgisi dosyasının içeriği. Bu, dosyanın yolu değil, dosyanın kopyalanan içeriğidir.

      Kimlik bilgisi dosyası üç alanı tanımlayan JSON içerir: shareCredentialsVersion, endpointve bearerToken.

      %scala
      dbutils.fs.put("<dbfs-path>/config.share","""
      <credential-file-contents>
      """)
      
  6. Hücreyi çalıştırın.

    Kimlik bilgisi dosyası karşıya yüklendikten sonra bu hücreyi silebilirsiniz. Tüm çalışma alanı kullanıcıları DBFS'den kimlik bilgileri dosyasını okuyabilir ve kimlik bilgisi dosyası çalışma alanınızdaki tüm kümelerde ve SQL ambarlarında DBFS'de kullanılabilir. Hücreyi silmek için en sağdaki hücre eylemleri menüsündeHücre eylemlerix'e tıklayın.

2. Adım: Paylaşılan tabloları listelemek ve okumak için not defteri kullanma

Bu adımda, paylaşımdaki veya paylaşılan tablo ve bölüm kümesindeki tabloları listeler ve bir tabloyu sorgularsınız.

  1. Python kullanarak paylaşımdaki tabloları listeleyin.

    Yeni bir hücreye aşağıdaki komutu yapıştırın. yerine 1. Adım: Kimlik bilgisi dosyasını DBFS'de depolama (Python yönergeleri) bölümünde oluşturulan yol ile değiştirin<dbfs-path>.

    Kod çalıştırıldığında Python, kümedeki DBFS'den kimlik bilgisi dosyasını okur. yolundaKI /dbfs/DBFS'de depolanan verilere erişin.

    import delta_sharing
    
    client = delta_sharing.SharingClient(f"/dbfs/<dbfs-path>/config.share")
    
    client.list_all_tables()
    
  2. Hücreyi çalıştırın.

    Sonuç, her tablo için meta verilerin yanı sıra bir tablo dizisidir. Aşağıdaki çıkışta iki tablo gösterilmektedir:

    Out[10]: [Table(name='example_table', share='example_share_0', schema='default'), Table(name='other_example_table', share='example_share_0', schema='default')]
    

    Çıkış boşsa veya beklediğiniz tabloları içermiyorsa veri sağlayıcısına başvurun.

  3. Paylaşılan tabloyu sorgulama.

    • Scala'nın kullanımı:

      Yeni bir hücreye aşağıdaki komutu yapıştırın. Kod çalıştırıldığında kimlik bilgisi dosyası DBFS'den JVM aracılığıyla okunur.

      Değişkenleri aşağıdaki gibi değiştirin:

      • <profile-path>: kimlik bilgisi dosyasının DBFS yolu. Örneğin, /<dbfs-path>/config.share.
      • <share-name>: tablonun değeri share= .
      • <schema-name>: tablonun değeri schema= .
      • <table-name>: tablonun değeri name= .
      %scala
          spark.read.format("deltaSharing")
          .load("<profile-path>#<share-name>.<schema-name>.<table-name>").limit(10);
      

      Hücreyi çalıştırın. Paylaşılan tabloyu her yüklediğinizde kaynaktan yeni veriler görürsünüz.

    • SQL kullanma:

      SQL kullanarak verileri sorgulamak için çalışma alanında paylaşılan tablodan yerel bir tablo oluşturur ve ardından yerel tabloyu sorgularsınız. Paylaşılan veriler yerel tabloda depolanmaz veya önbelleğe alınmaz. Yerel tabloyu her sorguladığınızda, paylaşılan verilerin geçerli durumunu görürsünüz.

      Yeni bir hücreye aşağıdaki komutu yapıştırın.

      Değişkenleri aşağıdaki gibi değiştirin:

      • <local-table-name>: yerel tablonun adı.
      • <profile-path>: kimlik bilgisi dosyasının konumu.
      • <share-name>: tablonun değeri share= .
      • <schema-name>: tablonun değeri schema= .
      • <table-name>: tablonun değeri name= .
      %sql
      DROP TABLE IF EXISTS table_name;
      
      CREATE TABLE <local-table-name> USING deltaSharing LOCATION "<profile-path>#<share-name>.<schema-name>.<table-name>";
      
      SELECT * FROM <local-table-name> LIMIT 10;
      

      Komutunu çalıştırdığınızda, paylaşılan veriler doğrudan sorgulanır. Test olarak tablo sorgulanır ve ilk 10 sonuç döndürülür.

    Çıkış boşsa veya beklediğiniz verileri içermiyorsa veri sağlayıcısına başvurun.

Apache Spark: Paylaşılan verileri okuma

Spark 3.x veya üzerini kullanarak paylaşılan verilere erişmek için bu adımları izleyin.

Bu yönergelerde, veri sağlayıcısı tarafından paylaşılan kimlik bilgileri dosyasına erişiminiz olduğu varsayılır. Bkz. Açık paylaşım modelinde erişim alma.

Delta Sharing Python ve Spark bağlayıcılarını yükleme

Sizinle paylaşılan tabloların listesi gibi paylaşılan verilerle ilgili meta verilere erişmek için aşağıdakileri yapın. Bu örnekte Python kullanılır.

  1. Delta paylaşımı Python bağlayıcısını yükleyin:

    pip install delta-sharing
    
  2. Apache Spark bağlayıcısını yükleyin.

Spark kullanarak paylaşılan tabloları listeleme

Paylaşımdaki tabloları listeleyin. Aşağıdaki örnekte değerini kimlik bilgisi dosyasının konumuyla değiştirin <profile-path> .

import delta_sharing

client = delta_sharing.SharingClient(f"<profile-path>/config.share")

client.list_all_tables()

Sonuç, her tablo için meta verilerin yanı sıra bir tablo dizisidir. Aşağıdaki çıkışta iki tablo gösterilmektedir:

Out[10]: [Table(name='example_table', share='example_share_0', schema='default'), Table(name='other_example_table', share='example_share_0', schema='default')]

Çıkış boşsa veya beklediğiniz tabloları içermiyorsa veri sağlayıcısına başvurun.

Spark kullanarak paylaşılan verilere erişme

Aşağıdaki değişkenleri değiştirerek aşağıdakileri çalıştırın:

  • <profile-path>: kimlik bilgisi dosyasının konumu.
  • <share-name>: tablonun değeri share= .
  • <schema-name>: tablonun değeri schema= .
  • <table-name>: tablonun değeri name= .
  • <version-as-of>:Isteğe bağlı. Verileri yüklemek için tablonun sürümü. Yalnızca veri sağlayıcısı tablonun geçmişini paylaşıyorsa çalışır. delta-sharing-spark 0.5.0 veya üzerini gerektirir.
  • <timestamp-as-of>:Isteğe bağlı. Verileri, belirtilen zaman damgasından önceki sürümde veya belirtilen zaman damgasında yükleyin. Yalnızca veri sağlayıcısı tablonun geçmişini paylaşıyorsa çalışır. delta-sharing-spark 0.6.0 veya üzerini gerektirir.

Python

delta_sharing.load_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>", version=<version-as-of>)

spark.read.format("deltaSharing")\
.option("versionAsOf", <version-as-of>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")\
.limit(10))

delta_sharing.load_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>", timestamp=<timestamp-as-of>)

spark.read.format("deltaSharing")\
.option("timestampAsOf", <timestamp-as-of>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")\
.limit(10))

Scala

Aşağıdaki değişkenleri değiştirerek aşağıdakileri çalıştırın:

  • <profile-path>: kimlik bilgisi dosyasının konumu.
  • <share-name>: tablonun değeri share= .
  • <schema-name>: tablonun değeri schema= .
  • <table-name>: tablonun değeri name= .
  • <version-as-of>:Isteğe bağlı. Verileri yüklemek için tablonun sürümü. Yalnızca veri sağlayıcısı tablonun geçmişini paylaşıyorsa çalışır. delta-sharing-spark 0.5.0 veya üzerini gerektirir.
  • <timestamp-as-of>:Isteğe bağlı. Verileri, belirtilen zaman damgasından önceki sürümde veya belirtilen zaman damgasında yükleyin. Yalnızca veri sağlayıcısı tablonun geçmişini paylaşıyorsa çalışır. delta-sharing-spark 0.6.0 veya üzerini gerektirir.
spark.read.format("deltaSharing")
.option("versionAsOf", <version-as-of>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
.limit(10)

spark.read.format("deltaSharing")
.option("timestampAsOf", <version-as-of>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
.limit(10)

Spark kullanarak paylaşılan değişiklik veri akışına erişme

Tablo geçmişi sizinle paylaşıldıysa ve kaynak tabloda değişiklik veri akışı (CDF) etkinleştirildiyse, aşağıdaki değişkenleri değiştirerek değişiklik veri akışına erişebilirsiniz. delta-sharing-spark 0.5.0 veya üzerini gerektirir.

Bir ve yalnızca bir başlangıç parametresi sağlanmalıdır.

  • <profile-path>: kimlik bilgisi dosyasının konumu.
  • <share-name>: tablonun değeri share= .
  • <schema-name>: tablonun değeri schema= .
  • <table-name>: tablonun değeri name= .
  • <starting-version>:Isteğe bağlı. Sorgunun başlangıç sürümü (dahil). Uzun olarak belirtin.
  • <ending-version>:Isteğe bağlı. Sorgunun bitiş sürümü (dahil). Bitiş sürümü sağlanmazsa, API en son tablo sürümünü kullanır.
  • <starting-timestamp>:Isteğe bağlı. Sorgunun başlangıç zaman damgası, bu, bu zaman damgasına eşit veya daha büyük bir sürüme dönüştürülür. biçiminde yyyy-mm-dd hh:mm:ss[.fffffffff]bir dize olarak belirtin.
  • <ending-timestamp>:Isteğe bağlı. Sorgunun bitiş zaman damgası olan bu, bu zaman damgasının daha önce veya buna eşit şekilde oluşturulmuş bir sürümüne dönüştürülür. Biçiminde bir dize olarak belirtin yyyy-mm-dd hh:mm:ss[.fffffffff]

Python

delta_sharing.load_table_changes_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>",
  starting_version=<starting-version>,
  ending_version=<ending-version>)

delta_sharing.load_table_changes_as_spark(f"<profile-path>#<share-name>.<schema-name>.<table-name>",
  starting_timestamp=<starting-timestamp>,
  ending_timestamp=<ending-timestamp>)

spark.read.format("deltaSharing").option("readChangeFeed", "true")\
.option("statingVersion", <starting-version>)\
.option("endingVersion", <ending-version>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")

spark.read.format("deltaSharing").option("readChangeFeed", "true")\
.option("startingTimestamp", <starting-timestamp>)\
.option("endingTimestamp", <ending-timestamp>)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")

Scala

spark.read.format("deltaSharing").option("readChangeFeed", "true")
.option("statingVersion", <starting-version>)
.option("endingVersion", <ending-version>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")

spark.read.format("deltaSharing").option("readChangeFeed", "true")
.option("startingTimestamp", <starting-timestamp>)
.option("endingTimestamp", <ending-timestamp>)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")

Çıkış boşsa veya beklediğiniz verileri içermiyorsa veri sağlayıcısına başvurun.

Spark Yapılandırılmış Akış kullanarak paylaşılan tabloya erişme

Tablo geçmişi sizinle paylaşılıyorsa, paylaşılan verileri okuma akışını yapabilirsiniz. delta-sharing-spark 0.6.0 veya üzerini gerektirir.

Desteklenen seçenekler:

  • ignoreDeletes: Verileri silen işlemleri yoksayın.
  • ignoreChanges: , MERGE INTO, DELETE (bölümler içinde) veya OVERWRITEgibi UPDATEbir veri değiştirme işlemi nedeniyle kaynak tabloda dosyalar yeniden yazıldıysa güncelleştirmeleri yeniden işleyin. Değişmemiş satırlar yine de yayılabilir. Bu nedenle aşağı akış tüketicilerinizin yinelenenleri işleyebilmesi gerekir. Silme işlemleri aşağı akışa yayılmaz. ignoreChanges, ignoreDeletes işlemini kapsar. Bu nedenle kullanırsanız ignoreChangesakışınız, kaynak tablodaki silmeler veya güncelleştirmeler tarafından kesintiye uğramaz.
  • startingVersion: Başlangıç olarak paylaşılan tablo sürümü. Bu sürümden (dahil) başlayarak tüm tablo değişiklikleri akış kaynağı tarafından okunur.
  • startingTimestamp: Başlangıç olarak zaman damgası. Zaman damgası (dahil) sırasında veya sonrasında işlenen tüm tablo değişiklikleri akış kaynağı tarafından okunur. Örnek: "2023-01-01 00:00:00.0".
  • maxFilesPerTrigger: Her mikro toplu işlemde dikkate alınması gereken yeni dosyaların sayısı.
  • maxBytesPerTrigger: Her mikro toplu işlemde işlenen veri miktarı. Bu seçenek bir "soft max" ayarlar; başka bir deyişle bir toplu işlem yaklaşık olarak bu miktarda veriyi işler ve en küçük giriş biriminin bu sınırdan büyük olduğu durumlarda akış sorgusunun ileriye doğru ilerlemesini sağlamak için sınırdan daha fazlasını işleyebilecektir.
  • readChangeFeed: Akış, paylaşılan tablonun değişiklik veri akışını okur.

Desteklenmeyen seçenekler:

  • Trigger.availableNow

Örnek Yapılandırılmış Akış sorguları

Scala
spark.readStream.format("deltaSharing")
.option("startingVersion", 0)
.option("ignoreChanges", true)
.option("maxFilesPerTrigger", 10)
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")
Python
spark.readStream.format("deltaSharing")\
.option("startingVersion", 0)\
.option("ignoreDeletes", true)\
.option("maxBytesPerTrigger", 10000)\
.load("<profile-path>#<share-name>.<schema-name>.<table-name>")

Ayrıca bkz. Azure Databricks'te akış.

Silme vektörlerinin veya sütun eşlemenin etkinleştirildiği tabloları okuma

Önemli

Bu özellik Genel Önizlemededir.

Silme vektörleri, sağlayıcınızın paylaşılan Delta tablolarında etkinleştirebileceği bir depolama iyileştirme özelliğidir. Bkz . Silme vektörleri nedir?.

Azure Databricks, Delta tabloları için sütun eşlemeyi de destekler. Bkz . Delta Lake sütun eşlemesi ile sütunları yeniden adlandırma ve bırakma.

Sağlayıcınız silme vektörleri veya sütun eşlemesi etkinleştirilmiş bir tablo paylaştıysa, 3.1 veya üzerini çalıştıran delta-sharing-spark işlemi kullanarak tabloyu okuyabilirsiniz. Databricks kümeleri kullanıyorsanız, Databricks Runtime 14.1 veya üzerini çalıştıran bir kümeyi kullanarak toplu okuma gerçekleştirebilirsiniz. CDF ve akış sorguları Databricks Runtime 14.2 veya üzerini gerektirir.

Toplu sorgular, paylaşılan tablonun tablo özelliklerine göre otomatik olarak çözümlenebileceği responseFormat için olduğu gibi gerçekleştirebilirsiniz.

Bir değişiklik veri akışını (CDF) okumak veya silme vektörleri veya sütun eşlemesi etkin olan paylaşılan tablolarda akış sorguları gerçekleştirmek için ek seçeneğini responseFormat=deltaayarlamanız gerekir.

Aşağıdaki örneklerde batch, CDF ve akış sorguları gösterilmektedir:

import org.apache.spark.sql.SparkSession

val spark = SparkSession
        .builder()
        .appName("...")
        .master("...")
        .config("spark.sql.extensions", "io.delta.sql.DeltaSparkSessionExtension")
        .config("spark.sql.catalog.spark_catalog", "org.apache.spark.sql.delta.catalog.DeltaCatalog")
        .getOrCreate()

val tablePath = "<profile-file-path>#<share-name>.<schema-name>.<table-name>"

// Batch query
spark.read.format("deltaSharing").load(tablePath)

// CDF query
spark.read.format("deltaSharing")
  .option("readChangeFeed", "true")
  .option("responseFormat", "delta")
  .option("startingVersion", 1)
  .load(tablePath)

// Streaming query
spark.readStream.format("deltaSharing").option("responseFormat", "delta").load(tablePath)

Pandas: Paylaşılan verileri okuma

Pandas 0.25.3 veya üzeri sürümlerin paylaşılan verilerine erişmek için bu adımları izleyin.

Bu yönergelerde, veri sağlayıcısı tarafından paylaşılan kimlik bilgileri dosyasına erişiminiz olduğu varsayılır. Bkz. Açık paylaşım modelinde erişim alma.

Delta Sharing Python bağlayıcısını yükleme

Sizinle paylaşılan tabloların listesi gibi paylaşılan verilerle ilgili meta verilere erişmek için, delta paylaşımı Python bağlayıcısını yüklemeniz gerekir.

pip install delta-sharing

Pandas kullanarak paylaşılan tabloları listeleme

Paylaşımdaki tabloları listelemek için aşağıdakileri çalıştırın ve yerine <profile-path>/config.share kimlik bilgisi dosyasının konumunu yazın.

import delta_sharing

client = delta_sharing.SharingClient(f"<profile-path>/config.share")

client.list_all_tables()

Çıkış boşsa veya beklediğiniz tabloları içermiyorsa veri sağlayıcısına başvurun.

Pandas kullanarak paylaşılan verilere erişme

Python kullanarak pandas'ta paylaşılan verilere erişmek için aşağıdaki gibi değişkenleri değiştirerek aşağıdakileri çalıştırın:

  • <profile-path>: kimlik bilgisi dosyasının konumu.
  • <share-name>: tablonun değeri share= .
  • <schema-name>: tablonun değeri schema= .
  • <table-name>: tablonun değeri name= .
import delta_sharing
delta_sharing.load_as_pandas(f"<profile-path>#<share-name>.<schema-name>.<table-name>")

Pandas kullanarak paylaşılan değişiklik veri akışına erişme

Python kullanarak pandas'ta paylaşılan bir tablonun değişiklik veri akışına erişmek için aşağıdakini çalıştırın ve değişkenleri aşağıdaki gibi değiştirin. Veri sağlayıcısının tablo için değişiklik veri akışını paylaşıp paylaşmadığına bağlı olarak değişiklik veri akışı kullanılamayabilir.

  • <starting-version>:Isteğe bağlı. Sorgunun başlangıç sürümü (dahil).
  • <ending-version>:Isteğe bağlı. Sorgunun bitiş sürümü (dahil).
  • <starting-timestamp>:Isteğe bağlı. Sorgunun başlangıç zaman damgası. Bu, bu zaman damgasına eşit veya daha büyük bir sürüme dönüştürülür.
  • <ending-timestamp>:Isteğe bağlı. Sorgunun bitiş zaman damgası. Bu, daha önce oluşturulmuş veya bu zaman damgasına eşit bir sürüme dönüştürülür.
import delta_sharing
delta_sharing.load_table_changes_as_pandas(
  f"<profile-path>#<share-name>.<schema-name>.<table-name>",
  starting_version=<starting-version>,
  ending_version=<starting-version>)

delta_sharing.load_table_changes_as_pandas(
  f"<profile-path>#<share-name>.<schema-name>.<table-name>",
  starting_timestamp=<starting-timestamp>,
  ending_timestamp=<ending-timestamp>)

Çıkış boşsa veya beklediğiniz verileri içermiyorsa veri sağlayıcısına başvurun.

Power BI: Paylaşılan verileri okuma

Power BI Delta Sharing bağlayıcısı, Delta Sharing açık protokolü aracılığıyla sizinle paylaşılan veri kümelerini bulmanızı, analiz etmenizi ve görselleştirmenizi sağlar.

Gereksinimler

Databricks'e Bağlan

Delta Sharing bağlayıcısını kullanarak Azure Databricks'e bağlanmak için aşağıdakileri yapın:

  1. Uç nokta URL'sini ve belirteci almak için paylaşılan kimlik bilgisi dosyasını bir metin düzenleyicisiyle açın.
  2. Power BI Desktop açın.
  3. Veri Al menüsünde Delta Sharing'i arayın.
  4. Bağlayıcıyı seçin ve Bağlan'a tıklayın.
  5. Kimlik bilgileri dosyasından Delta Sharing Server URL alanına kopyaladığınız uç nokta URL'sini girin.
  6. İsteğe bağlı olarak, Gelişmiş Seçenekler sekmesinde, indirebileceğiniz en fazla satır sayısı için bir Satır Sınırı ayarlayın. Bu, varsayılan olarak 1 milyon satıra ayarlanır.
  7. Tamam'a tıklayın.
  8. Kimlik Doğrulaması için, kimlik bilgileri dosyasından aldığınız belirteci Taşıyıcı Belirteci'ne kopyalayın.
  9. Bağlan'a tıklayın.

Power BI Delta Sharing bağlayıcısının sınırlamaları

Power BI Delta Sharing Bağlan veya aşağıdaki sınırlamalara sahiptir:

  • Bağlayıcının yükleyebilmesi için makinenizin belleğine sığması gerekir. Bundan emin olmak için bağlayıcı, içeri aktarılan satır sayısını Power BI Desktop'taki Gelişmiş Seçenekler sekmesi altında ayarladığınız Satır Sınırı ile sınırlar.

Yeni kimlik bilgisi isteme

Kimlik bilgisi etkinleştirme URL'niz veya indirilen kimlik bilgileriniz kaybolur, bozulur veya gizliliği ihlal edilirse veya sağlayıcınız size yeni bir kimlik bilgisi göndermeden kimlik bilgilerinizin süresi dolarsa, yeni bir kimlik bilgisi istemek için sağlayıcınıza başvurun.