Not
Bu sayfaya erişim yetkilendirme gerektiriyor. Oturum açmayı veya dizinleri değiştirmeyi deneyebilirsiniz.
Bu sayfaya erişim yetkilendirme gerektiriyor. Dizinleri değiştirmeyi deneyebilirsiniz.
Bu sayfa, Dış Delta istemcilerinden Unity Kataloğu yönetilen ve dış tablolarına erişmek için Unity REST API'sini kullanmaya genel bir bakış sağlar. Dış istemcilerden dış Delta tabloları oluşturmak için bkz. Dış istemcilerden dış Delta tabloları oluşturma.
Apache Spark ve DuckDB gibi desteklenen Iceberg istemcilerinden Azure Databricks'te Unity Kataloğu'na kayıtlı tabloları okumak için Iceberg REST kataloğu kullanın.
Desteklenen tümleştirmelerin tam listesi için bkz. Unity Kataloğu tümleştirmeleri.
Bahşiş
Unity Kataloğu'nda kayıtlı Azure Databricks verilerini Microsoft Fabric kullanarak okuma hakkında bilgi için bkz. Microsoft Fabric'i kullanarak kayıtlı verileri okuma.
Unity REST API'sini kullanarak okuma ve yazma
Unity REST API,dış istemcilere Unity Kataloğu'na kayıtlı tablolara okuma erişimi sağlar. Bazı istemciler tablo oluşturmayı ve mevcut tablolara yazmayı da destekler.
uç nokta /api/2.1/unity-catalogkullanarak erişimi yapılandırın.
Gereksinimler
Azure Databricks, Unity Kataloğu'nun bir parçası olarak tablolara Unity REST API erişimini destekler. Bu uç noktaları kullanmak için çalışma alanınızda Unity Kataloğu'nu etkinleştirmiş olmanız gerekir. Aşağıdaki tablo türleri Unity REST API okumaları için uygundur:
- Unity Kataloğu tarafından yönetilen tablolar.
- Unity Kataloğu dış tabloları.
Unity REST API'sini kullanarak Delta istemcilerinden Databricks nesnelerini okuma erişimini yapılandırmak için aşağıdaki yapılandırma adımlarını tamamlamanız gerekir:
- Meta veri deponuz için Dış veri erişimi etkinleştirin. Bkz. Meta veri deposunda dış veri erişimini etkinleştirme.
- Tümleştirmeyi yapılandıran sorumluya
EXTERNAL USE SCHEMAnesneleri içeren şemada ayrıcalık verin. Bkz. Birincil Unity Kataloğu ayrıcalıkları verme. - Databricks kişisel erişim anahtarı kullanarak kimlik doğrulama. Bkz. Azure Databricks kaynaklarına erişimi yetkilendirme.
Apache Spark ile Delta tablolarını okuma
Apache Spark ile Unity Kataloğu yönetilen ve dış Delta tablolarını okumak için aşağıdaki yapılandırma gereklidir:
"spark.sql.extensions": "io.delta.sql.DeltaSparkSessionExtension",
"spark.sql.catalog.spark_catalog": "io.unitycatalog.spark.UCSingleCatalog",
"spark.sql.catalog.<uc-catalog-name>": "io.unitycatalog.spark.UCSingleCatalog",
"spark.sql.catalog.<uc-catalog-name>.uri": "<workspace-url>/api/2.1/unity-catalog",
"spark.sql.catalog.<uc-catalog-name>.token": "<token>",
"spark.sql.defaultCatalog": "<uc-catalog-name>",
"spark.jars.packages": "io.delta:delta-spark_2.12:3.2.1,io.unitycatalog:unitycatalog-spark_2.12:0.2.0,org.apache.hadoop:hadoop-azure:3.3.6"
Aşağıdaki değişkenleri değiştirin:
-
<uc-catalog-name>: Unity Kataloğu'nda tablolarınızı içeren kataloğun adı. -
<workspace-url>: Azure Databricks çalışma alanının URL'si. -
<token>: Tümleştirmeyi yapılandıran sorumlu için PAT belirteci.
Uyarı
Yukarıda gösterilen paket sürümleri, bu sayfada yapılan son güncelleştirmeden itibaren geçerlidir. Daha yeni sürümler kullanılabilir. Paket sürümlerinin Databricks Runtime sürümünüz ve Spark sürümünüzle uyumlu olduğunu doğrulayın.
Bulut nesne depolaması için Apache Spark'ı yapılandırma hakkında ek ayrıntılar için Unity Kataloğu OSS belgelerine bakın.