Eğitim
Modül
Integrar pools SQL e Apache Spark no Azure Synapse Analytics - Training
Integrar pools SQL e Apache Spark no Azure Synapse Analytics
Bu tarayıcı artık desteklenmiyor.
En son özelliklerden, güvenlik güncelleştirmelerinden ve teknik destekten faydalanmak için Microsoft Edge’e yükseltin.
Bu makalede, Azure Databricks tarafından yönetilmeyen Amazon Redshift verilerinde federasyon sorguları çalıştırmak için Lakehouse Federasyonu'nun nasıl ayarlanacağı açıklanır. Lakehouse Federasyonu hakkında daha fazla bilgi edinmek için bkz . Lakehouse Federasyonu nedir?.
Lakehouse Federation kullanarak Amazon Redshift veritabanında çalıştır sorgularınıza bağlanmak için Azure Databricks Unity Kataloğu meta veri deponuzda aşağıdakileri oluşturmanız gerekir:
Çalışma alanı gereksinimleri:
İşlem gereksinimleri:
Gerekli izinler:
CREATE CONNECTION
ayrıcalığına sahip bir kullanıcı olmanız gerekir.CREATE CATALOG
iznine sahip olmanız ve bağlantının sahibi olmanız veya bağlantıda CREATE FOREIGN CATALOG
ayrıcalığına sahip olmanız gerekir.Aşağıdaki her görev tabanlı bölümde ek izin gereksinimleri belirtilir.
Bağlantı, bir dış veritabanı sistemine erişmek için bir yol ve kimlik bilgileri belirtir. Bağlantı oluşturmak için, Bir Azure Databricks not defterinde veya Databricks SQL sorgu düzenleyicisinde Katalog Gezgini'ni veya CREATE CONNECTION
SQL komutunu kullanabilirsiniz.
Not
Bağlantı oluşturmak için Databricks REST API'sini veya Databricks CLI'yi de kullanabilirsiniz. bkz. POST /api/2.1/unity-catalog/connections ve Unity Catalog komutları.
Gerekli izinler: Meta veri deposu yöneticisi veya ayrıcalığına CREATE CONNECTION
sahip kullanıcı.
Azure Databricks çalışma alanınızda Katalogüzerine tıklayın.
Alternatif olarak,
Redshiftiçin Bağlantı türü seçin.
(İsteğe bağlı) Açıklama ekleyin.
Sonrakiöğesine tıklayın.
Kimlik Doğrulaması sayfasında, Redshift örneğinin aşağıdaki bağlantı özelliklerini girin.
redshift-demo.us-west-2.redshift.amazonaws.com
5439
redshift_user
password123
(İsteğe bağlı) SSL ana bilgisayar adı doğrulamayı devre dışı bırakın.
Bağlantıoluştur'a tıklayın.
Katalog Temel Bilgileri sayfasında, yabancı katalog için bir ad girin. Dış katalog, bir dış veri sistemindeki veritabanını yansıtarak, Azure Databricks ve Unity Kataloğu kullanarak bu veritabanındaki verilere erişim sorgulamanızı ve yönetmenizi sağlar.
(İsteğe bağlı) Çalıştığını onaylamak için Bağlantıyı test et'e tıklayın.
tıklayın, katalog oluştur.
Access sayfasında, kullanıcıların oluşturduğunuz kataloğa erişebileceği çalışma alanlarını seçin. Tüm çalışma alanlarının erişimini seçebilirsiniz veya çalışma alanlarına ata'ya tıklayın, çalışma alanlarını seçin ve ardından ata'ya tıklayın .
Katalogdaki tüm nesnelere erişimi yönetebilecek olan sahipliğini olarak değiştirin. Metin kutusuna bir yetkilinin adını yazmaya başlayın ve ardından sonuçlar arasında listelenen yetkiliye tıklayın.
Katalogda Ayrıcalıkları tanıyın. ver'i tıklayın:
BROWSE
verilir.
read
ve modify
ayrıcalıkları vermek için açılan menüden Veri Düzenleyicisi seçin.Sonrakiöğesine tıklayın.
Meta Veri sayfasında, etiket anahtar-değer çifti belirtin. Daha fazla bilgi için bkz. Unity Kataloğu güvenli hale getirilebilir nesnelere etiket uygulama.
(İsteğe bağlı) Açıklama ekleyin.
Kaydet'
Aşağıdaki komutu bir not defterinde veya Databricks SQL sorgu düzenleyicisinde çalıştırın.
CREATE CONNECTION <connection-name> TYPE redshift
OPTIONS (
host '<hostname>',
port '<port>',
user '<user>',
password '<password>'
);
Kimlik bilgileri gibi hassas değerler için düz metin dizeleri yerine Azure Databricks gizli dizileri kullanmanızı öneririz. Örneğin:
CREATE CONNECTION <connection-name> TYPE redshift
OPTIONS (
host '<hostname>',
port '<port>',
user secret ('<secret-scope>','<secret-key-user>'),
password secret ('<secret-scope>','<secret-key-password>')
)
Gizli dizileri ayarlama hakkında bilgi için bkz . Gizli dizi yönetimi.
Not
Kullanıcı arabirimini veri kaynağına bağlantı oluşturmak için kullanırsanız, yabancı katalog oluşturma dahil edilir ve bu adımı atlayabilirsiniz.
Yabancı katalog, Azure Databricks ve Unity Kataloğu'nu kullanarak bu veritabanındaki verileri sorgulayıp yönetebilmeniz için bir dış veri sistemindeki veritabanını yansıtır. Yabancı katalog oluşturmak için, önceden tanımlanmış olan veri kaynağına bir bağlantı kullanırsınız.
Yabancı katalog oluşturmak için, Bir Azure Databricks not defterinde veya SQL sorgu düzenleyicisinde Katalog Gezgini'ni veya CREATE FOREIGN CATALOG
SQL komutunu kullanabilirsiniz.
Katalog oluşturmak için Databricks REST API'sini veya Databricks CLI'yi de kullanabilirsiniz. bkz. POST /api/2.1/unity-catalog/catalogs ve Unity Catalog komutları.
gerekli izinler:CREATE CATALOG
meta veri deposu üzerindeki izin ve bağlantının sahipliği veya CREATE FOREIGN CATALOG
bağlantı üzerindeki ayrıcalık.
Azure Databricks çalışma alanınızda, Katalog Gezgini'ni açmak için Katalog.
Alternatif olarak,
katalog oluşturma bölümünde yabancı katalog oluşturma yönergelerini izleyin.
Aşağıdaki SQL komutunu bir not defterinde veya SQL sorgu düzenleyicisinde çalıştırın. Köşeli ayraç içindeki öğeler isteğe bağlıdır. Yer tutucu değerlerini değiştirin:
<catalog-name>
: Azure Databricks'teki kataloğun adı.<connection-name>
: Veri kaynağını, yolu ve erişim kimlik bilgilerini belirten bağlantı nesnesi.<database-name>
: Azure Databricks'te katalog olarak yansıtmak istediğiniz veritabanının adı.CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');
Aşağıdaki gönderimler desteklenir:
Aşağıdaki gönderimler desteklenmez:
Redshift'ten Spark'a okuma yaptığınızda veri türleri aşağıdaki gibi eşlenir:
Redshift türü | Spark türü |
---|---|
sayısal | Ondalık Türü |
int2, int4 | IntegerType |
int8, oid, xid | LongType |
float4 | FloatType |
çift duyarlık, float8, para | DoubleType |
bpchar, char, karakter değişen, ad, süper, metin, tid, varchar | StringType |
bayt, geometri, varbayt | BinaryType |
bit, bool | BooleanType |
tarih | DateType |
tabstime, time, time, time zone ile saat, saat dilimi olmayan saat, saat dilimi ile zaman damgası, zaman damgası, zaman damgası, saat dilimi olmadan zaman damgası* | TimestampType/TimestampNTZType |
*Redshift'ten okuduğunuzda RedshiftTimestamp
, (varsayılan) ise TimestampType
Spark infer_timestamp_ntz_type = false
ile eşlenir. RedshiftTimestamp
, ise TimestampNTZType
ile infer_timestamp_ntz_type = true
eşlenir.
Eğitim
Modül
Integrar pools SQL e Apache Spark no Azure Synapse Analytics - Training
Integrar pools SQL e Apache Spark no Azure Synapse Analytics
Belgeler
Executar consultas federadas em outro espaço de trabalho do Databricks - Azure Databricks
Saiba como configurar o Azure Databricks Lakehouse Federation para executar consultas federadas em dados que estão em outro espaço de trabalho do Databricks.
O que é Lakehouse Federation? - Azure Databricks
Saiba mais sobre o Azure Databricks Lakehouse Federation e como usá-lo para executar consultas federadas em várias fontes de dados externas.
Executar consultas federadas no MySQL - Azure Databricks
Saiba como configurar o Azure Databricks Lakehouse Federation para executar consultas federadas em dados MySQL que não são gerenciados pelo Azure Databricks.