Jalur Integrasi Microsoft Fabric untuk ISV
Microsoft Fabric menawarkan tiga jalur berbeda untuk Vendor Perangkat Lunak Independen (ISV) untuk diintegrasikan dengan mulus dengan Fabric. Untuk ISV yang dimulai pada perjalanan ini, kami ingin menelusuri berbagai sumber daya yang tersedia di bawah masing-masing jalur ini.
Interop dengan Fabric OneLake
Fokus utama dengan model Interop adalah mengaktifkan ISV untuk mengintegrasikan solusi mereka dengan OneLake Foundation. Untuk Interop dengan Microsoft Fabric, kami menyediakan integrasi menggunakan banyak konektor di Data Factory dan di Real-Time Intelligence, REST API untuk OneLake, pintasan di OneLake, berbagi data di seluruh penyewa Fabric, dan pencerminan database.
Bagian berikut menjelaskan beberapa cara Anda dapat memulai model ini.
API OneLake
- OneLake mendukung API dan SDK Gen2 Azure Data Lake Storage (ADLS) yang ada untuk interaksi langsung, memungkinkan pengembang membaca, menulis, dan mengelola data mereka di OneLake. Pelajari selengkapnya tentang API REST ADLS Gen2 dan cara menyambungkan ke OneLake.
- Karena tidak semua fungsionalitas dalam ADLS Gen2 memetakan langsung ke OneLake, OneLake juga memberlakukan struktur folder yang ditetapkan untuk mendukung ruang kerja dan item Fabric. Untuk daftar lengkap perilaku berbeda antara OneLake dan ADLS Gen2 saat memanggil API ini, lihat Paritas ONELake API.
- Jika Anda menggunakan Databricks dan ingin terhubung ke Microsoft Fabric, Databricks berfungsi dengan API ADLS Gen2. Integrasikan OneLake dengan Azure Databricks.
- Untuk memanfaatkan sepenuhnya apa yang dapat dilakukan format penyimpanan Delta Lake untuk Anda, tinjau dan pahami format, pengoptimalan tabel, dan V-Order. Pengoptimalan tabel Delta Lake dan V-Order.
- Setelah data berada di OneLake, jelajahi secara lokal menggunakan OneLake File Explorer. Penjelajah file OneLake dengan mulus mengintegrasikan OneLake dengan Windows File Explorer. Aplikasi ini secara otomatis menyinkronkan semua item OneLake yang dapat Anda akses di Windows File Explorer. Anda juga dapat menggunakan alat lain yang kompatibel dengan ADLS Gen2 seperti Azure Storage Explorer.
API Inteligensi Real Time
Real-Time Intelligence menyederhanakan analisis dan visualisasi data, menawarkan solusi terpusat untuk wawasan dan tindakan langsung tentang data yang bergerak dalam organisasi. Ini secara efisien mengelola data dalam volume besar melalui kemampuan kueri, transformasi, dan penyimpanan yang kuat.
- Eventhouse dirancang khusus untuk data streaming, kompatibel dengan hub Real-Time, dan ideal untuk peristiwa berbasis waktu. Data secara otomatis diindeks dan dipartisi berdasarkan waktu penyerapan, memberi Anda kemampuan kueri analitik yang sangat cepat dan kompleks pada data granularitas tinggi yang dapat diakses di OneLake untuk digunakan di seluruh rangkaian pengalaman Fabric. Eventhouse mendukung API eventhouse dan SDK yang ada untuk interaksi langsung, memungkinkan pengembang membaca, menulis, dan mengelola data mereka di Eventhouses. Pelajari selengkapnya tentang REST API.
- Aliran peristiwa memungkinkan Anda membawa peristiwa real-time dari berbagai sumber dan merutekannya ke berbagai tujuan, seperti OneLake, database KQL di eventhouse, dan Data Activator. Pelajari selengkapnya tentang aliran peristiwa dan API aliran peristiwa.
- Jika Anda menggunakan Databricks atau Jupyter Notebooks, Anda dapat menggunakan Pustaka Klien Kusto Python untuk bekerja dengan database KQL di Fabric. Pelajari lebih lanjut tentang Kusto Python SDK.
- Anda dapat menggunakan konektor Microsoft Logic Apps, Azure Data Factory, atau Microsoft Power Automate yang ada untuk berinteraksi dengan Eventhouses atau KQL Database Anda.
- Pintasan database dalam Real-Time Intelligence adalah referensi yang disematkan dalam eventhouse ke database sumber. Database sumber dapat berupa Database KQL dalam Kecerdasan Real Time atau database Azure Data Explorer. Pintasan dapat digunakan untuk berbagi data di tempat dalam penyewa yang sama atau di seluruh penyewa. Pelajari selengkapnya tentang mengelola pintasan database menggunakan API.
Data Factory di Fabric
- Alur Data membanggakan sekumpulan konektor yang luas, memungkinkan ISV untuk dengan mudah terhubung ke segudang penyimpanan data. Baik Anda berinteraksi dengan database tradisional atau solusi berbasis cloud modern, konektor kami memastikan proses integrasi yang lancar. Gambaran umum konektor.
- Dengan konektor Dataflow Gen2 yang didukung, ISV dapat memanfaatkan kekuatan Fabric Data Factory untuk mengelola alur kerja data yang kompleks. Fitur ini sangat bermanfaat bagi ISV yang ingin menyederhanakan tugas pemrosesan dan transformasi data. Konektor Dataflow Gen2 di Microsoft Fabric.
- Untuk daftar lengkap kemampuan yang didukung oleh Data Factory di Fabric, lihat Data Factory ini di Fabric Blog.
Pintasan multicloud
Pintasan di Microsoft OneLake memungkinkan Anda menyatukan data di seluruh domain, cloud, dan akun dengan membuat satu data lake virtual untuk seluruh perusahaan Anda. Semua pengalaman Fabric dan mesin analitik dapat langsung menunjuk ke sumber data Anda yang ada seperti OneLake di penyewa yang berbeda, Azure Data Lake Storage (ADLS) Gen2, akun penyimpanan Amazon S3, Google Cloud Storage (GCS), sumber data yang kompatibel S3, dan Dataverse melalui namespace layanan terpadu. OneLake menyajikan ISV dengan solusi akses data transformatif, menjembatani integrasi dengan lancar di berbagai domain dan platform cloud.
- Pelajari selengkapnya tentang pintasan OneLake
- Pelajari selengkapnya tentang OneLake satu salinan logis
- Pelajari selengkapnya tentang pintasan database KQL
Berbagi data
Data Sharing memungkinkan pengguna Fabric untuk berbagi data di berbagai penyewa Fabric tanpa menduplikasinya. Fitur ini meningkatkan kolaborasi dengan memungkinkan data dibagikan "di tempat" dari lokasi penyimpanan OneLake. Data dibagikan sebagai baca-saja, dapat diakses melalui berbagai mesin komputasi Fabric, termasuk model SQL, Spark, KQL, dan semantik. Untuk menggunakan fitur ini, admin Fabric harus mengaktifkannya di penyewa berbagi dan penerima. Proses ini mencakup pemilihan data dalam hub data OneLake atau ruang kerja, mengonfigurasi pengaturan berbagi, dan mengirim undangan ke penerima yang dimaksudkan.
Pencerminan Database
Pencerminan menyediakan cara modern untuk mengakses dan menyerap data secara terus menerus dan lancar dari database eksternal atau gudang data ke dalam pengalaman pergudangan data di Microsoft Fabric. Pencerminan semuanya hampir real-time memberi pengguna akses langsung ke perubahan sumber. Pelajari selengkapnya tentang pencerminan dan database yang didukung.
Kembangkan pada Fabric
Dengan ISV model Develop on Fabric dapat membangun produk dan layanan mereka di atas Fabric atau menyematkan fungsionalitas Fabric dengan mulus dalam aplikasi yang ada. Ini adalah transisi dari integrasi dasar ke menerapkan kemampuan yang ditawarkan Fabric secara aktif. Area permukaan integrasi utama adalah melalui REST API untuk berbagai pengalaman Fabric. Tabel berikut menunjukkan subset REST API yang dikelompokkan menurut pengalaman Fabric. Untuk daftar lengkapnya, lihat dokumentasi Fabric REST API.
Pengalaman Fabric | API |
---|---|
Gudang Data | - Gudang - Gudang Cermin |
Rekayasa Data | - Lakehouse - Spark - Definisi Pekerjaan Spark - Tabel - Pekerjaan |
Data Factory | - DataPipeline |
Kecerdasan Real Time | - Eventhouse - KQL Database - Set Kueri KQL - Aliran peristiwa |
Ilmu data | - Notebook - Eksperimen ML - ML Model |
OneLake | - Jalan pintas - API ADLS Gen2 |
Power BI | - Lapor - Dasbor - Model Semantik |
Membangun beban kerja Fabric
Membangun model beban kerja Fabric dirancang untuk memberdayakan ISV untuk menciptakan pengalaman kustom pada platform Fabric. Ini menyediakan ISV dengan alat dan kemampuan yang diperlukan untuk menyelaraskan penawaran mereka dengan ekosistem Fabric, mengoptimalkan kombinasi proposisi nilai unik mereka dengan kemampuan Fabric yang luas.
Kit Pengembangan Beban Kerja Microsoft Fabric menawarkan toolkit komprehensif bagi pengembang untuk mengintegrasikan aplikasi ke dalam hub Microsoft Fabric. Integrasi ini memungkinkan penambahan kemampuan baru langsung dalam ruang kerja Fabric, meningkatkan perjalanan analitik bagi pengguna. Ini memberi pengembang dan ISV dengan jalan baru untuk menjangkau pelanggan, memberikan pengalaman yang akrab dan baru, dan memanfaatkan aplikasi data yang ada. Admin Fabric mendapatkan kemampuan untuk mengelola akses ke hub beban kerja, memungkinkannya untuk seluruh penyewa atau menetapkannya dengan cakupan tertentu untuk mengontrol akses dalam organisasi.