Aracılığıyla paylaş


Ocak 2018

Sürümler hazırlanır. Databricks hesabınız ilk yayın tarihinden bir hafta sonraya kadar güncelleştirilmeyebilir.

Azure Blob depolama kapsayıcıları ve Data Lake Depoları için bağlama noktaları

16-23 Ocak 2018: Sürüm 2.63

Azure Blob depolama kapsayıcılarını ve Data Lake Store'ları Databricks Dosya Sistemi (DBFS) aracılığıyla bağlamaya yönelik yönergeler sağladık. Bu, aynı çalışma alanındaki tüm kullanıcılara Blob depolama kapsayıcısına veya Data Lake Store'a (veya kapsayıcının veya deponun içindeki klasöre) bağlama noktası üzerinden erişme olanağı sağlar. DBFS, bağlı bir Blob depolama kapsayıcısına veya Data Lake Store'a erişmek için kullanılan kimlik bilgilerini yönetir ve arka planda Azure Blob depolama veya Data Lake Store ile kimlik doğrulamasını otomatik olarak işler.

Blob depolama kapsayıcılarını ve Data Lake Store'ları bağlamak için Databricks Runtime 4.0 ve üzeri gerekir. Bir kapsayıcı veya depo bağlandıktan sonra bağlama noktasına erişmek için Çalışma Zamanı 3.4 veya üzerini kullanabilirsiniz.

Daha fazla bilgi için bkz. Azure Data Lake Storage 2. Nesil ve Blob Depolama'ya bağlanma ve Azure Databricks'ten Azure Data Lake Storage 1. Nesil erişme.

Küme etiketleri

4-11 Ocak 2018: Sürüm 2.62

Artık bir kümeyle ilişkili tüm Azure kaynaklarına (VM'ler, diskler, NIC'ler vb.) yayılacak küme etiketlerini belirtebilirsiniz. Kullanıcı tarafından sağlanan etiketlere ek olarak, kaynaklar otomatik olarak küme adı, küme kimliği ve küme oluşturucu kullanıcı adıyla etiketlenir.

Daha fazla bilgi için bkz . Etiketler .

SQL ve Python için Tablo Erişim Denetimi (Özel Önizleme)

4-11 Ocak 2018: Sürüm 2.62

Not

Bu özellik özel önizleme aşamasındadır. Erişim istemek için lütfen hesap yöneticinize başvurun. Bu özellik ayrıca Databricks Runtime 3.5+ gerektirir.

Geçen yıl SQL kullanıcıları için veri nesnesi erişim denetimini kullanıma sunulmuştuk. Bugün hem SQL hem de Python kullanıcıları için Tablo Erişim Denetimi'nin (ACL) özel önizlemesini duyurmaktan heyecan duyuyoruz. Tablo Erişim Denetimi ile tablolar, veritabanları, görünümler veya işlevler gibi güvenli hale getirilebilir nesnelere erişimi kısıtlayabilirsiniz. Ayrıca, rastgele sorgular içeren türetilmiş görünümlerde izinleri ayarlayarak ayrıntılı erişim denetimi (örneğin, belirli koşullarla eşleşen satırlara ve sütunlara) sağlayabilirsiniz.

Daha fazla bilgi için bkz. Hive meta veri deposu ayrıcalıkları ve güvenli hale getirilebilir nesneler (eski).

API aracılığıyla not defteri işi çalıştırma sonuçlarını dışarı aktarma

4-11 Ocak 2018: Sürüm 2.62

İşlerin sonuçlarını paylaşma ve üzerinde işbirliği yapma becerinizi geliştirmek için artık hem kod hem de pano görünümünde not defteri işinin çalıştırma sonuçlarının statik HTML gösterimini almanıza olanak tanıyan yeni bir İşler API'miz var jobs/runs/export .

Daha fazla bilgi için bkz . Dışarı aktarmayı çalıştırma.

Apache Airflow 1.9.0, Databricks tümleştirmesi içeriyor

2 Ocak 2018, Saat 2018

Geçen yıl, müşterilerin Databricks'in Airflow DAG'de çalışmasını tetikleyen görevleri yerel olarak oluşturmasına olanak tanıyan, ETL zamanlamasını yönetmeye yönelik popüler bir çözüm olan Airflow'da bir önizleme özelliği yayımladık. Bu tümleştirmelerin Airflow'un 1.9.0 sürümünde genel kullanıma sunulduğunu duyurmaktan mutluluk duyuyoruz.

Daha fazla bilgi için bkz . Apache Airflow ile Azure Databricks işlerini düzenleme.