หมายเหตุ
การเข้าถึงหน้านี้ต้องได้รับการอนุญาต คุณสามารถลอง ลงชื่อเข้าใช้หรือเปลี่ยนไดเรกทอรีได้
การเข้าถึงหน้านี้ต้องได้รับการอนุญาต คุณสามารถลองเปลี่ยนไดเรกทอรีได้
Microsoft Fabric มีชุดเครื่องมือที่ครอบคลุมเพื่อจัดการปริมาณงานข้อมูลและการวิเคราะห์อย่างมีประสิทธิภาพ ด้วยตัวเลือกมากมาย รวมถึงแบทช์ ไปป์ไลน์ และความสามารถในการสตรีมแบบเรียลไทม์ การเลือกเครื่องมือที่เหมาะสมกับความต้องการเฉพาะของคุณอาจเป็นเรื่องยาก คู่มือการตัดสินใจนี้มีแผนงานเพื่อช่วยคุณเลือกกลยุทธ์ที่เหมาะสม
เมื่อต้องการเลือกบริการการรวมข้อมูลที่เหมาะสมใน Microsoft Fabric ให้พิจารณาคําถามเหล่านี้:
เป้าหมายหลักของคุณคืออะไร คุณต้องการนําเข้าข้อมูล แปลง ทําซ้ํา ประสานการเคลื่อนย้ายข้อมูล หรือสตรีมและดําเนินการกับข้อมูลแบบเรียลไทม์หรือไม่
ระดับทักษะทางเทคนิคของคุณคืออะไร? คุณชอบโซลูชันแบบไม่ใช้โค้ดหรือแบบ low-code หรือคุณสบายใจในการทํางานกับโค้ดหรือไม่?
คุณกําลังทํางานกับปริมาณงานข้อมูลประเภทใด เป็นการสตรีมแบบแบทช์ จํานวนมาก แบบเพิ่มหน่วย การสตรีมต่อเนื่อง หรือแบบเกือบเรียลไทม์
คุณต้องการการแปลงข้อมูลประเภทใด คุณกําลังทําการแปลงแสงหรือการเปลี่ยนแปลงที่ซับซ้อนหรือไม่?
สําหรับรายการตัวเชื่อมต่อที่รองรับในงานคัดลอก กิจกรรมการคัดลอก และ Dataflow Gen 2 โปรดดูภาพรวมตัวเชื่อมต่อ สําหรับรายการแหล่งที่มาของ Eventstream ที่รองรับ โปรดดูรายการแหล่งที่มา
กลยุทธ์การเคลื่อนย้ายข้อมูล
| เรอร์ | คัดลอกงาน | กิจกรรมการคัดลอก (ไปป์ไลน์) | สตรีมเหตุการณ์ | |
|---|---|---|---|---|
| ใช้กรณี | การจําลองแบบข้อมูล | การนําเข้าข้อมูลและการจําลองแบบ | การนําเข้าข้อมูล | การนําเข้าและการประมวลผลข้อมูลสตรีมมิ่ง |
| สถานการณ์เรือธง | ซิงค์แบบเรียลไทม์ด้วยการตั้งค่าแบบครบวงจร แบบ จำลอง | การคัดลอก / การจําลองแบบที่เพิ่มขึ้น (เครื่องหมายน้ํา + CDC ดั้งเดิม), การโยกย้ายข้อมูลที่จัดเก็บข้อมูลดิบ / ที่เก็บข้อมูล, การนําเข้าเหรียญ, การคัดลอกหลายตารางแบบสําเร็จรูป | Data Lake / Storage Data Migration, Medallion Ingestion, Incremental copy ผ่านนิพจน์ไปป์ไลน์และตารางควบคุม (เครื่องหมายน้ําเท่านั้น) | การประมวลผลที่เพิ่มขึ้น แอปพลิเคชัน AI ที่ขับเคลื่อนด้วยเหตุการณ์ และแบบเรียลไทม์ |
| แหล่งข้อมูลของ | 6+ ตัวเชื่อมต่อ | 50+ ตัวเชื่อมต่อ | 50+ ตัวเชื่อมต่อ | 25+ แหล่งที่มา |
| จุดหมาย | ฐานข้อมูลที่มิเรอร์ (จัดเก็บเป็นตารางเดลต้าแบบอ่านอย่างเดียวใน Fabric OneLake) | 40+ ตัวเชื่อมต่อ | 40+ ตัวเชื่อมต่อ | 4+ จุดหมายปลายทาง |
| ประเภทของข้อมูลขาเข้า | ใกล้เรียลไทม์ | แบทช์ / การคัดลอกส่วนเพิ่ม (ตามเครื่องหมายน้ําและการบันทึกข้อมูลการเปลี่ยนแปลง) / เกือบเรียลไทม์ | แบทช์ / จํานวนมาก / สําเนาแบบเพิ่มหน่วยตามลายน้ํา | ข้อมูลสตรีมมิ่งแบบเรียลไทม์ เปลี่ยนการจับข้อมูล / ฟีด |
| บุคลิกภาพ | นักวิเคราะห์ธุรกิจ ผู้ดูแลระบบฐานข้อมูล | นักวิเคราะห์ธุรกิจ, ผู้รวมข้อมูล, วิศวกรข้อมูล | ผู้รวมข้อมูล, นักวิเคราะห์ธุรกิจ, วิศวกรข้อมูล | วิศวกรข้อมูลและผู้รวมระบบ, นักวิเคราะห์ข้อมูล |
| ชุดทักษะ | ไม่มีใคร | อีทีแอล, SQL | อีทีแอล, SQL | อีทีแอล, SQL, KQL |
| ระดับการเข้ารหัส | ไม่มีรหัส | ไม่มีรหัส / รหัสต่ํา | ไม่มีรหัส / รหัสต่ํา | ไม่มีรหัส / รหัสต่ํา |
| การสนับสนุนการเปลี่ยนแปลง | ไม่มีใคร | ต่ํา | ต่ํา | สื่อ (การวิเคราะห์สตรีม) |
สําหรับรายละเอียดเพิ่มเติม โปรดดูกลยุทธ์การเคลื่อนย้ายข้อมูล
กลยุทธ์การประสานงาน
| ท่อ | งาน Apache Airflow | |
|---|---|---|
| ใช้กรณี | การประสานโค้ดต่ํา | การประสานงานแบบใช้โค้ดแรก |
| สถานการณ์เรือธง | การจัดกลุ่มเชิงตรรกะของกิจกรรมหลายอย่างเข้าด้วยกันเพื่อทํางาน | การเขียน Python Code-Centric |
| แหล่งข้อมูลของ | แหล่งที่มาที่เข้ากันได้กับ Fabric ทั้งหมด (ขึ้นอยู่กับกิจกรรมไปป์ไลน์ที่เลือก) | 100+ ตัวเชื่อมต่อ |
| จุดหมาย | แหล่งที่มาที่เข้ากันได้กับ Fabric ทั้งหมด (ขึ้นอยู่กับกิจกรรมไปป์ไลน์ที่เลือก) | 100+ ตัวเชื่อมต่อ |
| ประเภทของข้อมูลขาเข้า | ทุกประเภท | ทุกประเภท |
| บุคลิกภาพ | ผู้รวมข้อมูล, นักวิเคราะห์ธุรกิจ, วิศวกรข้อมูล | ผู้ใช้ Apache Airflow |
| ชุดทักษะ | ETL, SQL, สปาร์ค (Scala, Py, SQL, R) | หลาม |
| ระดับการเข้ารหัส | ไม่มีรหัส / รหัสต่ํา | รหัสแรก |
| การสนับสนุนการเปลี่ยนแปลง | ไม่มีใคร | ไม่มีใคร |
กลยุทธ์การเปลี่ยนแปลง
| โน้ต บุ๊ค | กระแสข้อมูล Gen 2 | สตรีมเหตุการณ์ | |
|---|---|---|---|
| ใช้กรณี | การเตรียม / แปลงข้อมูลแบบใช้โค้ดแรก | การเตรียม / แปลงข้อมูลแบบไม่มีโค้ด | การแปลงแบบไม่ใช้โค้ด / การวิเคราะห์สตรีมที่ใช้ SQL |
| สถานการณ์เรือธง | การเปลี่ยนแปลงที่ซับซ้อน | การเปลี่ยนแปลงและการทําโปรไฟล์ | การประมวลผลและการวิเคราะห์สตรีม |
| แหล่งข้อมูลของ | 100+ ไลบรารี Spark | 170+ ตัวเชื่อมต่อในตัว + SDK แบบกําหนดเอง | 25+ แหล่งที่มา |
| จุดหมาย | 100+ ไลบรารี Spark | 7+ ตัวเชื่อมต่อ | 4+ จุดหมายปลายทาง |
| ประเภทของข้อมูลขาเข้า | ทุกประเภท | ทุกประเภท | รวมทุกประเภท JSON, AVRO, CSV, XML, TXT เป็นต้น |
| บุคลิกภาพ | นักวิทยาศาสตร์ข้อมูลนักพัฒนา | วิศวกรข้อมูล, ผู้รวมข้อมูล, นักวิเคราะห์ธุรกิจ | วิศวกรข้อมูลและนักวิเคราะห์ |
| ชุดทักษะ | สปาร์ค (Scala, Py, SQL, R) | อีทีแอล, เอ็ม, SQL | SQL, เคคิวแอล |
| ระดับการเข้ารหัส | รหัสแรก | ไม่มีรหัส / รหัสต่ํา | ไม่มีรหัส / รหัสต่ํา |
| การสนับสนุนการเปลี่ยนแปลง | สูง | สูง (400+ กิจกรรม) | Medium |
สถานการณ์
ตรวจสอบสถานการณ์เหล่านี้เพื่อช่วยคุณเลือกกลยุทธ์การรวมข้อมูลที่จะใช้ใน Microsoft Fabric
สถานการณ์สมมติที่ 1
Hanna เป็นผู้ดูแลฐานข้อมูลของบริษัทที่ให้บริการทางการเงิน เธอจัดการฐานข้อมูล SQL Server ที่สําคัญหลายฐานข้อมูลที่ขับเคลื่อนแอปพลิเคชันการซื้อขายขององค์กร ธุรกิจต้องการการเข้าถึงข้อมูลธุรกรรมนี้แบบเรียลไทม์สําหรับการรายงานกฎระเบียบและการวิเคราะห์ความเสี่ยง อย่างไรก็ตาม Hanna จําเป็นต้องหลีกเลี่ยงการส่งผลกระทบต่อประสิทธิภาพของระบบการผลิต
ความท้าทายของ Hanna คือการให้ข้อมูลวันที่ up-toแก่ทีมวิเคราะห์โดยไม่สร้างภาระเพิ่มเติมในฐานข้อมูลการดําเนินงาน เธอไม่ต้องการสร้างไปป์ไลน์ ETL ที่ซับซ้อนหรือจัดการกระบวนการย้ายข้อมูล ปริมาณข้อมูลมีจํานวนมาก และธุรกิจต้องการข้อมูลสําหรับการวิเคราะห์ภายในไม่กี่นาทีหลังจากธุรกรรมที่เกิดขึ้นในระบบต้นทาง
Hanna ตรวจสอบตัวเลือกและเลือก Mirroring เป็นทางออกที่ดี ด้วย Mirroring เธอสามารถตั้งค่าการจําลองแบบข้อมูลแบบเกือบเรียลไทม์จากฐานข้อมูล SQL Server ไปยัง Microsoft Fabric ด้วยการกําหนดค่าเพียงเล็กน้อย ข้อมูลที่มิเรอร์จะพร้อมใช้งานใน OneLake เป็นตารางเดลต้า ทําให้สามารถวิเคราะห์ดาวน์สตรีมได้โดยไม่ส่งผลกระทบต่อประสิทธิภาพของระบบต้นทาง การมิเรอร์ให้การตั้งค่าแบบเบ็ดเสร็จที่เธอต้องการ โดยจัดการความซับซ้อนของการจําลองข้อมูลโดยอัตโนมัติในขณะที่รับประกันความต่อเนื่องทางธุรกิจ
สถานการณ์สมมติที่ 2
ชาร์ลีเป็นนักวิเคราะห์ข้อมูลที่บริษัทค้าปลีกแห่งหนึ่ง เขามีหน้าที่รับผิดชอบในการรวบรวมข้อมูลการขายจากฐานข้อมูลระดับภูมิภาคหลายแห่งลงในคลังข้อมูลส่วนกลาง บริษัทดําเนินงานในเขตเวลาที่แตกต่างกัน และฐานข้อมูลของแต่ละภูมิภาคใช้การเก็บข้อมูลการเปลี่ยนแปลง (CDC) เพื่อติดตามสินค้าคงคลังและธุรกรรมการขาย Charlie ต้องการโซลูชันที่สามารถจัดการกับข้อมูลในอดีตที่โหลดเต็มในตอนแรก แล้วเปลี่ยนไปใช้การอัปเดตที่เพิ่มขึ้นตาม CDC
ชาร์ลีต้องการวิธีการที่ขับเคลื่อนด้วยตัวช่วยสร้างแบบไม่ใช้โค้ด ซึ่งช่วยให้เขาเลือกหลายตารางจากอินสแตนซ์ SQL Server ระดับภูมิภาคต่างๆ ทําการโยกย้ายจํานวนมากครั้งแรก จากนั้นจึงรักษาข้อมูลวันที่ up-toโดยอัตโนมัติผ่านการโหลดที่เพิ่มขึ้นตาม CDC โซลูชันจําเป็นต้องจัดการทั้งการแทรกและการอัปเดต และควรรวมการเปลี่ยนแปลงเข้ากับปลายทางโดยไม่ต้องมีการแทรกแซงด้วยตนเอง
ชาร์ลีประเมินตัวเลือกและเลือก คัดลอกงาน เป็นแนวทางที่ต้องการ Copy Job ให้ความสามารถในการเลือกหลายตารางที่เขาต้องการรองรับทั้งการคัดลอกแบบเพิ่มหน่วยของ CDC แบบลายน้ําและแบบเนทีฟและมีอินเทอร์เฟซตัวช่วยสร้างที่ใช้งานง่าย ฟังก์ชันการทํางานแบบสําเร็จรูปช่วยให้เขากําหนดค่ากระบวนการจําลองข้อมูลทั้งหมดโดยไม่ต้องเขียนโค้ด และการตรวจจับตารางที่เปิดใช้งาน CDC โดยอัตโนมัติทําให้กระบวนการตั้งค่าง่ายขึ้น
สถานการณ์สมมติที่ 3
Rukmina เป็นวิศวกรข้อมูลที่บริษัทผู้ผลิตแห่งหนึ่ง เธอจําเป็นต้องย้ายข้อมูลการผลิตในอดีตจํานวนมากจากฐานข้อมูล Oracle ในองค์กรไปยัง Fabric Warehouse ใหม่ การย้ายข้อมูลเกี่ยวข้องกับการคัดลอกตารางหลายร้อยตารางที่มีบันทึกหลายล้านรายการ และเธอจําเป็นต้องใช้สถาปัตยกรรมเหรียญที่มีชั้นทองแดง เงิน และทอง Rukmina มีประสบการณ์กับ SQL แต่ชอบโซลูชันแบบ low-code เมื่อเป็นไปได้
โครงการกําหนดให้เธอคัดลอกข้อมูลดิบไปยังเลเยอร์บรอนซ์ จากนั้นใช้การแปลงที่มีน้ําหนักเบา เช่น การแปลงประเภทข้อมูลและการแมปคอลัมน์เมื่อข้อมูลเคลื่อนผ่านเลเยอร์เหรียญ Rukmina จําเป็นต้องตรวจสอบให้แน่ใจว่าโซลูชันสามารถจัดการกับปริมาณข้อมูลจํานวนมากได้อย่างมีประสิทธิภาพและสามารถกําหนดเวลาให้ทํางานทีละน้อยสําหรับการดําเนินงานต่อเนื่อง ผู้มีส่วนได้ส่วนเสียต้องการโซลูชันที่สามารถปรับขนาดข้อมูลจากกิกะไบต์เป็นเพตะไบต์เมื่อธุรกิจเติบโต
Rukmina ตรวจสอบตัวเลือกที่พร้อมใช้งานและเลือก คัดลอกกิจกรรมในไปป์ไลน์ วิธีนี้ทําให้เธอมีอินเทอร์เฟซแบบลากและวางที่เธอชอบในขณะที่ให้ความสามารถในการปรับขนาดที่จําเป็นสําหรับปริมาณข้อมูลขนาดใหญ่ Copy Activity รองรับตัวเชื่อมต่อ 50+ ตัวเชื่อมต่อที่เธอต้องการสําหรับระบบต้นทางต่างๆ และเฟรมเวิร์กไปป์ไลน์ช่วยให้เธอสามารถประสานการเคลื่อนย้ายระหว่างเลเยอร์เหรียญได้ ด้วยกิจกรรมการคัดลอก เธอสามารถใช้รูปแบบการรีเฟรชข้อมูลทั้งในอดีตและแบบเพิ่มหน่วยในขณะที่ยังคงประสิทธิภาพที่จําเป็นสําหรับการดําเนินการระดับเพตะไบต์
สถานการณ์สมมติที่ 4
Julian เป็นนักวิเคราะห์ธุรกิจที่มีทักษะ SQL ที่แข็งแกร่ง เขาจําเป็นต้องประสานเวิร์กโฟลว์การประมวลผลข้อมูลที่ซับซ้อนซึ่งเกี่ยวข้องกับหลายขั้นตอน: การดึงข้อมูลจากระบบต่างๆ ดําเนินการตรวจสอบคุณภาพข้อมูล ทําการแปลง การโหลดข้อมูลไปยังปลายทางหลายแห่ง และส่งการแจ้งเตือนไปยังผู้มีส่วนได้ส่วนเสีย เวิร์กโฟลว์ต้องทํางานตามกําหนดการและจัดการการขึ้นต่อกันระหว่างกิจกรรมต่างๆ
องค์กรของ Julian ใช้บริการ Azure และระบบภายในองค์กรผสมกัน และเวิร์กโฟลว์ต้องใช้ทั้งการเคลื่อนย้ายข้อมูลและตรรกะการประสาน เขาจําเป็นต้องประสานงานกิจกรรมต่างๆ เช่น การเรียกใช้กระบวนงานที่เก็บไว้ การเรียกเว็บ API การย้ายไฟล์ และการดําเนินการไปป์ไลน์อื่นๆ แม้ว่า Julian จะคุ้นเคยกับ SQL และการเขียนสคริปต์พื้นฐาน แต่เขาก็ชอบวิธีการแบบใช้โค้ดน้อยสําหรับการสร้างและบํารุงรักษาเวิร์กโฟลว์ที่ซับซ้อนเหล่านี้
Julian ประเมินตัวเลือกและเลือก Pipelines ให้เหมาะสมที่สุดสําหรับความต้องการของเขา ไปป์ไลน์มีพื้นที่ทํางานภาพและกิจกรรมแบบลากและวางที่เขาต้องการเพื่อสร้างเวิร์กโฟลว์การประสานที่ซับซ้อน โซลูชันนี้สนับสนุนการจัดกลุ่มเชิงตรรกะของกิจกรรม การจัดการการขึ้นต่อกัน และความสามารถในการจัดกําหนดการ ด้วยตัวเชื่อมต่อ 50+ รายการและประเภทกิจกรรมต่างๆ (คัดลอก การค้นหา กระบวนงานที่เก็บไว้ เว็บ ฯลฯ) Pipelines ทําให้เขามีความยืดหยุ่นในการประสานงานที่หลากหลายในขณะที่ยังคงรักษาแนวทางแบบ low-code ที่เขาต้องการ
สถานการณ์สมมติที่ 5
Darshan เป็นนักวิทยาศาสตร์ข้อมูลที่มีประสบการณ์ Python มากมาย เขาจําเป็นต้องสร้างและบํารุงรักษาเวิร์กโฟลว์การประมวลผลข้อมูลที่ซับซ้อนซึ่งรวมโมเดลแมชชีนเลิร์นนิง อัลกอริทึมแบบกําหนดเอง และ API ภายนอกต่างๆ ทีมวิทยาศาสตร์ข้อมูลขององค์กรของเขาชอบแนวทางที่เน้นโค้ดเป็นอันดับแรก และต้องการใช้ประโยชน์จากความเชี่ยวชาญด้าน Python ที่มีอยู่ รวมถึงไลบรารีแบบกําหนดเองและรูปแบบการประสานขั้นสูง
Darshan ต้องการโซลูชันที่รองรับกราฟ acyclic (DAGs) ที่ใช้ Python สามารถจัดการกับการพึ่งพาที่ซับซ้อนระหว่างงาน และผสานรวมกับกระบวนการ DevOps ที่มีอยู่ของทีม เวิร์กโฟลว์เกี่ยวข้องกับการนําเข้าข้อมูลจากหลายแหล่ง วิศวกรรมคุณลักษณะ การฝึกอบรมโมเดล การให้คะแนนแบทช์ และตรรกะทางธุรกิจแบบกําหนดเองที่ต้องการความยืดหยุ่นของการเขียนโปรแกรม Python เต็มรูปแบบ ทีมงานให้ความสําคัญกับระบบนิเวศของ Apache Airflow และต้องการรักษาความเข้ากันได้กับเวิร์กโฟลว์ที่มีอยู่
Darshan ตรวจสอบตัวเลือกและเลือก Apache Airflow Jobs เป็นทางออกที่ดี วิธีการใช้โค้ดเป็นอันดับแรกนี้ช่วยให้ทีมของเขาใช้ความเชี่ยวชาญด้าน Python ในขณะที่สร้างเวิร์กโฟลว์การประมวลผลข้อมูลที่ซับซ้อน Apache Airflow Jobs ให้การประสานแบบ DAG ที่พวกเขาคุ้นเคย รองรับตัวเชื่อมต่อ 100+ ตัวเชื่อมต่อผ่านระบบนิเวศ Airflow และช่วยให้พวกเขาใช้ตรรกะทางธุรกิจแบบกําหนดเองโดยใช้ Python แนวทางการบริการที่มีการจัดการช่วยขจัดข้อกังวลด้านโครงสร้างพื้นฐานในขณะที่ยังคงความยืดหยุ่นและพลังของ Apache Airflow
สถานการณ์สมมติที่ 6
René เป็นนักวิทยาศาสตร์ข้อมูลที่มหาวิทยาลัยวิจัยแห่งหนึ่ง เธอจําเป็นต้องทํางานวิเคราะห์ข้อมูลที่ซับซ้อนและแปลงชุดข้อมูลขนาดใหญ่ที่จัดเก็บไว้ในหลายรูปแบบและแหล่งที่มา งานของเธอเกี่ยวข้องกับการวิเคราะห์ทางสถิติ การพัฒนาโมเดลแมชชีนเลิร์นนิง และอัลกอริธึมการประมวลผลข้อมูลแบบกําหนดเองที่ต้องการพลังเต็มรูปแบบของการประมวลผลแบบกระจาย
René ทํางานกับข้อมูลที่มีโครงสร้างและไม่มีโครงสร้าง รวมถึงไฟล์ CSV, เอกสาร JSON, ไฟล์ Parquet และสตรีมแบบเรียลไทม์ การวิเคราะห์ของเธอต้องการการแปลงที่ซับซ้อน เช่น การรวมชุดข้อมูลขนาดใหญ่หลายชุด การรวม การคํานวณทางสถิติ และอัลกอริทึมแบบกําหนดเองที่ใช้ใน Python และ Scala เธอต้องการความยืดหยุ่นในการทํางานแบบโต้ตอบในระหว่างขั้นตอนการสํารวจ จากนั้นจึงดําเนินการโค้ดของเธอสําหรับปริมาณงานการผลิต
René ประเมินตัวเลือกของเธอและเลือก Notebooks เป็นเครื่องมือหลักของเธอ โน้ตบุ๊กให้สภาพแวดล้อมที่เน้นโค้ดเป็นอันดับแรกที่เธอต้องการพร้อมการเข้าถึงความสามารถด้านการประมวลผลแบบกระจายของ Spark อย่างเต็มรูปแบบ เธอสามารถทํางานกับไลบรารี Spark หลายร้อยไลบรารี ใช้การแปลงที่ซับซ้อนโดยใช้หลายภาษา (Python, Scala, SQL, R) และใช้สภาพแวดล้อมการพัฒนาแบบโต้ตอบสําหรับการสํารวจข้อมูล อินเทอร์เฟซโน้ตบุ๊กช่วยให้เธอรวมโค้ด การแสดงภาพ และเอกสารประกอบเข้าด้วยกัน พร้อมทั้งให้การประมวลผลประสิทธิภาพสูงที่จําเป็นสําหรับความต้องการในการประมวลผลข้อมูลขนาดใหญ่ของเธอ
สถานการณ์สมมติที่ 7
อาโกะเป็นนักวิเคราะห์ธุรกิจในองค์กรด้านการดูแลสุขภาพ เธอจําเป็นต้องรวมข้อมูลจากหลายแหล่ง รวมถึงฐานข้อมูล บริการเว็บ และระบบไฟล์เพื่อสร้างชุดข้อมูลที่สะอาดและพร้อมสําหรับธุรกิจ Ako มีประสบการณ์มากมายกับ Power Query จากงานของเธอใน Excel และ Power BI และเธอชอบอินเทอร์เฟซแบบภาพที่ไม่มีโค้ดสําหรับงานเตรียมข้อมูล
ความรับผิดชอบของ Ako รวมถึงการทําความสะอาดข้อมูลด้านการดูแลสุขภาพ การใช้กฎทางธุรกิจ การตรวจสอบคุณภาพของข้อมูล และสร้างชุดข้อมูลที่ได้มาตรฐานซึ่งป้อนเข้าสู่ระบบการรายงานด้านกฎระเบียบ แหล่งข้อมูล ได้แก่ ระบบการจัดการผู้ป่วย ระบบข้อมูลห้องปฏิบัติการ และบริการ API ภายนอก เธอจําเป็นต้องทําการแปลงที่ซับซ้อน เช่น การทําโปรไฟล์ข้อมูล การลบข้อมูลที่ซ้ํากัน การกําหนดมาตรฐานของรหัสทางการแพทย์ และการสร้างฟิลด์ที่คํานวณตามตรรกะทางธุรกิจ
Ako ตรวจสอบตัวเลือกที่มีและเลือก Dataflow Gen 2 เป็นโซลูชันที่ต้องการ Dataflow Gen 2 มอบประสบการณ์ Power Query ที่คุ้นเคยที่เธอรู้จักจากเครื่องมืออื่นๆ ของ Microsoft ในขณะที่นําเสนอประสิทธิภาพและความสามารถที่เพิ่มขึ้น ด้วยตัวเชื่อมต่อในตัว 170+ รายการ เธอสามารถเชื่อมต่อกับแหล่งข้อมูลที่หลากหลายทั้งหมดของเธอ แนวทางที่ไม่มีโค้ดช่วยให้เธอมุ่งเน้นไปที่ตรรกะทางธุรกิจมากกว่ารายละเอียดการใช้งานทางเทคนิค
สถานการณ์สมมติที่ 8
Ash เป็นผู้จัดการผลิตภัณฑ์ของบริษัทโทรคมนาคมแห่งหนึ่ง ทีมของเธอจําเป็นต้องตรวจสอบตัวชี้วัดการสนับสนุนลูกค้า เช่น ปริมาณการโทร เวลารอ และประสิทธิภาพของเจ้าหน้าที่ แบบเรียลไทม์เพื่อให้แน่ใจว่าเป็นไปตามข้อตกลงระดับการให้บริการ (SLA) ข้อมูลมาจากระบบปฏิบัติการหลายระบบ รวมถึง CRM, บันทึกคอลเซ็นเตอร์ และฐานข้อมูลการมอบหมายตัวแทน
Ash ต้องการสร้างแดชบอร์ดแบบเรียลไทม์และทริกเกอร์เวิร์กโฟลว์อัตโนมัติเมื่อมีการละเมิดเกณฑ์ (ตัวอย่างเช่น เมื่อเวลารอเกินขีดจํากัด SLA) เธอยังต้องการหลีกเลี่ยงการสร้างไปป์ไลน์ ETL ที่ซับซ้อนหรือการจัดการโครงสร้างพื้นฐาน
Ash ประเมินตัวเลือกและเลือก Fabric Eventstreams ด้วย Eventstreams เธอสามารถนําเข้าข้อมูลจากหลายแหล่งโดยใช้ตัวเชื่อมต่อการสตรีม ใช้การแปลงที่มีน้ําหนักเบา และกําหนดเส้นทางเหตุการณ์ไปยังปลายทาง เช่น Eventhouse และ Data Activator เธอตั้งค่าการแจ้งเตือนและแดชบอร์ดที่อัปเดตในไม่กี่วินาที ซึ่งช่วยให้ทีมของเธอสามารถตอบสนองต่อปัญหาการดําเนินงานได้อย่างรวดเร็ว
Fabric Eventstreams และ Real-Time Intelligence มอบประสบการณ์ที่มีเวลาแฝงต่ําและใช้โค้ดน้อยที่ Ash ต้องการในการสร้างแอปพลิเคชันที่ขับเคลื่อนด้วยเหตุการณ์โดยไม่รบกวนระบบที่มีอยู่
Get started
เมื่อคุณเข้าใจแล้วว่าควรใช้บริการใดแล้ว คุณสามารถเริ่มสร้างโซลูชันการรวมข้อมูลของคุณใน Microsoft Fabric ได้