Apa itu lakehouse di Microsoft Fabric?
Microsoft Fabric Lakehouse adalah platform arsitektur data untuk menyimpan, mengelola, dan menganalisis data terstruktur dan tidak terstruktur dalam satu lokasi. Ini adalah solusi yang fleksibel dan dapat diskalakan yang memungkinkan organisasi untuk menangani data dalam volume besar menggunakan berbagai alat dan kerangka kerja untuk memproses dan menganalisis data tersebut. Ini terintegrasi dengan alat manajemen data dan analitik lainnya untuk memberikan solusi komprehensif untuk rekayasa data dan analitik.
Penting
Microsoft Fabric sedang dalam pratinjau.
Titik akhir Lakehouse SQL
Lakehouse membuat lapisan penyajian dengan membuat titik akhir SQL secara otomatis dan himpunan data default selama pembuatan. Fungsionalitas tembus ini memungkinkan pengguna untuk bekerja langsung di atas tabel delta di danau untuk memberikan pengalaman tanpa gesekan dan berkinerja dari penyerapan data hingga pelaporan.
Perbedaan penting antara gudang default adalah bahwa ini adalah pengalaman baca-saja dan tidak mendukung area permukaan T-SQL penuh dari gudang data transaksional. Penting untuk dicatat bahwa hanya tabel dalam format Delta yang tersedia di Titik Akhir SQL. Parquet, CSV, dan format lainnya tidak dapat dikueri menggunakan Titik Akhir SQL. Jika Anda tidak melihat tabel Anda, konversikan ke format Delta.
Pelajari selengkapnya tentang Titik Akhir SQL di sini
Penemuan dan pendaftaran tabel otomatis
Penemuan dan pendaftaran tabel otomatis adalah fitur Lakehouse yang menyediakan pengalaman file ke tabel yang dikelola sepenuhnya untuk insinyur data dan ilmuwan data. Anda dapat meletakkan file ke area terkelola Lakehouse dan file secara otomatis divalidasi untuk format terstruktur yang didukung, yang saat ini hanya tabel Delta, dan terdaftar ke metastore dengan metadata yang diperlukan seperti nama kolom, format, pemadatan, dan banyak lagi. Anda kemudian dapat mereferensikan file sebagai tabel dan menggunakan sintaks SparkSQL untuk berinteraksi dengan data.
Berinteraksi dengan item Lakehouse
Seorang teknisi data dapat berinteraksi dengan lakehouse dan data di dalam lakehouse dengan beberapa cara:
Penjelajah Lakehouse: Penjelajah adalah halaman interaksi utama Lakehouse. Anda dapat memuat data di Lakehouse Anda, menjelajahi data di Lakehouse menggunakan penjelajah objek, mengatur label & MIP berbagai hal lainnya. Pelajari selengkapnya tentang pengalaman penjelajah: Menavigasi penjelajah Lakehouse.
Notebooks: Teknisi data dapat menggunakan notebook untuk menulis kode untuk membaca, mengubah, dan menulis langsung ke Lakehouse sebagai tabel dan/atau folder. Anda bisa mempelajari selengkapnya tentang cara memanfaatkan buku catatan untuk Lakehouse: Menjelajahi data di Lakehouse Anda dengan buku catatan dan Cara menggunakan buku catatan untuk memuat data ke Lakehouse Anda.
Alur: Teknisi data dapat menggunakan alat integrasi data seperti alat penyalinan alur untuk menarik data dari sumber lain dan masuk ke Lakehouse. Temukan informasi selengkapnya tentang cara menggunakan aktivitas salin: Cara menyalin data menggunakan aktivitas salin.
Definisi kerja Apache Spark: Teknisi data dapat mengembangkan aplikasi yang kuat dan mengatur eksekusi pekerjaan Spark yang dikompilasi di Java, Scala, dan Python. Pelajari selengkapnya tentang pekerjaan Spark: Apa itu definisi kerja Apache Spark?.
Aliran Data Gen 2: Teknisi data dapat memanfaatkan Aliran Data Gen 2 untuk menyerap dan menyiapkan data mereka. Temukan informasi selengkapnya tentang memuat data menggunakan aliran data: Buat aliran data pertama Anda untuk mendapatkan dan mengubah data.
Pelajari selengkapnya tentang berbagai cara untuk memuat data ke lakehouse Anda: Dapatkan pengalaman data untuk Lakehouse.
Langkah berikutnya
Dalam gambaran umum ini, Anda mendapatkan pemahaman dasar tentang lakehouse. Lanjutkan ke artikel berikutnya untuk mempelajari cara membuat dan memulai lakehouse Anda sendiri:
- Untuk mulai menggunakan lakehouse, lihat Membuat lakehouse.