แชร์ผ่าน


คู่มือการตัดสินใจของ Microsoft Fabric: เลือกกลยุทธ์การรวมข้อมูล

Microsoft Fabric มีชุดเครื่องมือที่ครอบคลุมเพื่อจัดการปริมาณงานข้อมูลและการวิเคราะห์อย่างมีประสิทธิภาพ ด้วยตัวเลือกมากมาย รวมถึงแบทช์ ไปป์ไลน์ และความสามารถในการสตรีมแบบเรียลไทม์ การเลือกเครื่องมือที่เหมาะสมกับความต้องการเฉพาะของคุณอาจเป็นเรื่องยาก คู่มือการตัดสินใจนี้มีแผนงานเพื่อช่วยคุณเลือกกลยุทธ์ที่เหมาะสม

ภาพหน้าจอของไดอะแกรมเวิร์กโฟลว์การรวมข้อมูลที่แสดงคอลัมน์สําหรับการเคลื่อนย้ายข้อมูล การประสานงาน และการแปลงข้อมูล

เมื่อต้องการเลือกบริการการรวมข้อมูลที่เหมาะสมใน Microsoft Fabric ให้พิจารณาคําถามเหล่านี้:

  • เป้าหมายหลักของคุณคืออะไร คุณต้องการนําเข้าข้อมูล แปลง ทําซ้ํา ประสานการเคลื่อนย้ายข้อมูล หรือสตรีมและดําเนินการกับข้อมูลแบบเรียลไทม์หรือไม่

  • ระดับทักษะทางเทคนิคของคุณคืออะไร? คุณชอบโซลูชันแบบไม่ใช้โค้ดหรือแบบ low-code หรือคุณสบายใจในการทํางานกับโค้ดหรือไม่?

  • คุณกําลังทํางานกับปริมาณงานข้อมูลประเภทใด เป็นการสตรีมแบบแบทช์ จํานวนมาก แบบเพิ่มหน่วย การสตรีมต่อเนื่อง หรือแบบเกือบเรียลไทม์

  • คุณต้องการการแปลงข้อมูลประเภทใด คุณกําลังทําการแปลงแสงหรือการเปลี่ยนแปลงที่ซับซ้อนหรือไม่?

สําหรับรายการตัวเชื่อมต่อที่รองรับในงานคัดลอก กิจกรรมการคัดลอก และ Dataflow Gen 2 โปรดดูภาพรวมตัวเชื่อมต่อ สําหรับรายการแหล่งที่มาของ Eventstream ที่รองรับ โปรดดูรายการแหล่งที่มา

กลยุทธ์การเคลื่อนย้ายข้อมูล

เรอร์ คัดลอกงาน กิจกรรมการคัดลอก (ไปป์ไลน์) สตรีมเหตุการณ์
ใช้กรณี การจําลองแบบข้อมูล การนําเข้าข้อมูลและการจําลองแบบ การนําเข้าข้อมูล การนําเข้าและการประมวลผลข้อมูลสตรีมมิ่ง
สถานการณ์เรือธง ซิงค์แบบเรียลไทม์ด้วยการตั้งค่าแบบครบวงจร แบบ จำลอง การคัดลอก / การจําลองแบบที่เพิ่มขึ้น (เครื่องหมายน้ํา + CDC ดั้งเดิม), การโยกย้ายข้อมูลที่จัดเก็บข้อมูลดิบ / ที่เก็บข้อมูล, การนําเข้าเหรียญ, การคัดลอกหลายตารางแบบสําเร็จรูป Data Lake / Storage Data Migration, Medallion Ingestion, Incremental copy ผ่านนิพจน์ไปป์ไลน์และตารางควบคุม (เครื่องหมายน้ําเท่านั้น) การประมวลผลที่เพิ่มขึ้น แอปพลิเคชัน AI ที่ขับเคลื่อนด้วยเหตุการณ์ และแบบเรียลไทม์
แหล่งข้อมูลของ 6+ ตัวเชื่อมต่อ 50+ ตัวเชื่อมต่อ 50+ ตัวเชื่อมต่อ 25+ แหล่งที่มา
จุดหมาย ฐานข้อมูลที่มิเรอร์ (จัดเก็บเป็นตารางเดลต้าแบบอ่านอย่างเดียวใน Fabric OneLake) 40+ ตัวเชื่อมต่อ 40+ ตัวเชื่อมต่อ 4+ จุดหมายปลายทาง
ประเภทของข้อมูลขาเข้า ใกล้เรียลไทม์ แบทช์ / การคัดลอกส่วนเพิ่ม (ตามเครื่องหมายน้ําและการบันทึกข้อมูลการเปลี่ยนแปลง) / เกือบเรียลไทม์ แบทช์ / จํานวนมาก / สําเนาแบบเพิ่มหน่วยตามลายน้ํา ข้อมูลสตรีมมิ่งแบบเรียลไทม์ เปลี่ยนการจับข้อมูล / ฟีด
บุคลิกภาพ นักวิเคราะห์ธุรกิจ ผู้ดูแลระบบฐานข้อมูล นักวิเคราะห์ธุรกิจ, ผู้รวมข้อมูล, วิศวกรข้อมูล ผู้รวมข้อมูล, นักวิเคราะห์ธุรกิจ, วิศวกรข้อมูล วิศวกรข้อมูลและผู้รวมระบบ, นักวิเคราะห์ข้อมูล
ชุดทักษะ ไม่มีใคร อีทีแอล, SQL อีทีแอล, SQL อีทีแอล, SQL, KQL
ระดับการเข้ารหัส ไม่มีรหัส ไม่มีรหัส / รหัสต่ํา ไม่มีรหัส / รหัสต่ํา ไม่มีรหัส / รหัสต่ํา
การสนับสนุนการเปลี่ยนแปลง ไม่มีใคร ต่ํา ต่ํา สื่อ (การวิเคราะห์สตรีม)

สําหรับรายละเอียดเพิ่มเติม โปรดดูกลยุทธ์การเคลื่อนย้ายข้อมูล

กลยุทธ์การประสานงาน

ท่อ งาน Apache Airflow
ใช้กรณี การประสานโค้ดต่ํา การประสานงานแบบใช้โค้ดแรก
สถานการณ์เรือธง การจัดกลุ่มเชิงตรรกะของกิจกรรมหลายอย่างเข้าด้วยกันเพื่อทํางาน การเขียน Python Code-Centric
แหล่งข้อมูลของ แหล่งที่มาที่เข้ากันได้กับ Fabric ทั้งหมด (ขึ้นอยู่กับกิจกรรมไปป์ไลน์ที่เลือก) 100+ ตัวเชื่อมต่อ
จุดหมาย แหล่งที่มาที่เข้ากันได้กับ Fabric ทั้งหมด (ขึ้นอยู่กับกิจกรรมไปป์ไลน์ที่เลือก) 100+ ตัวเชื่อมต่อ
ประเภทของข้อมูลขาเข้า ทุกประเภท ทุกประเภท
บุคลิกภาพ ผู้รวมข้อมูล, นักวิเคราะห์ธุรกิจ, วิศวกรข้อมูล ผู้ใช้ Apache Airflow
ชุดทักษะ ETL, SQL, สปาร์ค (Scala, Py, SQL, R) หลาม
ระดับการเข้ารหัส ไม่มีรหัส / รหัสต่ํา รหัสแรก
การสนับสนุนการเปลี่ยนแปลง ไม่มีใคร ไม่มีใคร

กลยุทธ์การเปลี่ยนแปลง

โน้ต บุ๊ค กระแสข้อมูล Gen 2 สตรีมเหตุการณ์
ใช้กรณี การเตรียม / แปลงข้อมูลแบบใช้โค้ดแรก การเตรียม / แปลงข้อมูลแบบไม่มีโค้ด การแปลงแบบไม่ใช้โค้ด / การวิเคราะห์สตรีมที่ใช้ SQL
สถานการณ์เรือธง การเปลี่ยนแปลงที่ซับซ้อน การเปลี่ยนแปลงและการทําโปรไฟล์ การประมวลผลและการวิเคราะห์สตรีม
แหล่งข้อมูลของ 100+ ไลบรารี Spark 170+ ตัวเชื่อมต่อในตัว + SDK แบบกําหนดเอง 25+ แหล่งที่มา
จุดหมาย 100+ ไลบรารี Spark 7+ ตัวเชื่อมต่อ 4+ จุดหมายปลายทาง
ประเภทของข้อมูลขาเข้า ทุกประเภท ทุกประเภท รวมทุกประเภท JSON, AVRO, CSV, XML, TXT เป็นต้น
บุคลิกภาพ นักวิทยาศาสตร์ข้อมูลนักพัฒนา วิศวกรข้อมูล, ผู้รวมข้อมูล, นักวิเคราะห์ธุรกิจ วิศวกรข้อมูลและนักวิเคราะห์
ชุดทักษะ สปาร์ค (Scala, Py, SQL, R) อีทีแอล, เอ็ม, SQL SQL, เคคิวแอล
ระดับการเข้ารหัส รหัสแรก ไม่มีรหัส / รหัสต่ํา ไม่มีรหัส / รหัสต่ํา
การสนับสนุนการเปลี่ยนแปลง สูง สูง (400+ กิจกรรม) Medium

สถานการณ์

ตรวจสอบสถานการณ์เหล่านี้เพื่อช่วยคุณเลือกกลยุทธ์การรวมข้อมูลที่จะใช้ใน Microsoft Fabric

สถานการณ์สมมติที่ 1

Hanna เป็นผู้ดูแลฐานข้อมูลของบริษัทที่ให้บริการทางการเงิน เธอจัดการฐานข้อมูล SQL Server ที่สําคัญหลายฐานข้อมูลที่ขับเคลื่อนแอปพลิเคชันการซื้อขายขององค์กร ธุรกิจต้องการการเข้าถึงข้อมูลธุรกรรมนี้แบบเรียลไทม์สําหรับการรายงานกฎระเบียบและการวิเคราะห์ความเสี่ยง อย่างไรก็ตาม Hanna จําเป็นต้องหลีกเลี่ยงการส่งผลกระทบต่อประสิทธิภาพของระบบการผลิต

ความท้าทายของ Hanna คือการให้ข้อมูลวันที่ up-toแก่ทีมวิเคราะห์โดยไม่สร้างภาระเพิ่มเติมในฐานข้อมูลการดําเนินงาน เธอไม่ต้องการสร้างไปป์ไลน์ ETL ที่ซับซ้อนหรือจัดการกระบวนการย้ายข้อมูล ปริมาณข้อมูลมีจํานวนมาก และธุรกิจต้องการข้อมูลสําหรับการวิเคราะห์ภายในไม่กี่นาทีหลังจากธุรกรรมที่เกิดขึ้นในระบบต้นทาง

Hanna ตรวจสอบตัวเลือกและเลือก Mirroring เป็นทางออกที่ดี ด้วย Mirroring เธอสามารถตั้งค่าการจําลองแบบข้อมูลแบบเกือบเรียลไทม์จากฐานข้อมูล SQL Server ไปยัง Microsoft Fabric ด้วยการกําหนดค่าเพียงเล็กน้อย ข้อมูลที่มิเรอร์จะพร้อมใช้งานใน OneLake เป็นตารางเดลต้า ทําให้สามารถวิเคราะห์ดาวน์สตรีมได้โดยไม่ส่งผลกระทบต่อประสิทธิภาพของระบบต้นทาง การมิเรอร์ให้การตั้งค่าแบบเบ็ดเสร็จที่เธอต้องการ โดยจัดการความซับซ้อนของการจําลองข้อมูลโดยอัตโนมัติในขณะที่รับประกันความต่อเนื่องทางธุรกิจ

สถานการณ์สมมติที่ 2

ชาร์ลีเป็นนักวิเคราะห์ข้อมูลที่บริษัทค้าปลีกแห่งหนึ่ง เขามีหน้าที่รับผิดชอบในการรวบรวมข้อมูลการขายจากฐานข้อมูลระดับภูมิภาคหลายแห่งลงในคลังข้อมูลส่วนกลาง บริษัทดําเนินงานในเขตเวลาที่แตกต่างกัน และฐานข้อมูลของแต่ละภูมิภาคใช้การเก็บข้อมูลการเปลี่ยนแปลง (CDC) เพื่อติดตามสินค้าคงคลังและธุรกรรมการขาย Charlie ต้องการโซลูชันที่สามารถจัดการกับข้อมูลในอดีตที่โหลดเต็มในตอนแรก แล้วเปลี่ยนไปใช้การอัปเดตที่เพิ่มขึ้นตาม CDC

ชาร์ลีต้องการวิธีการที่ขับเคลื่อนด้วยตัวช่วยสร้างแบบไม่ใช้โค้ด ซึ่งช่วยให้เขาเลือกหลายตารางจากอินสแตนซ์ SQL Server ระดับภูมิภาคต่างๆ ทําการโยกย้ายจํานวนมากครั้งแรก จากนั้นจึงรักษาข้อมูลวันที่ up-toโดยอัตโนมัติผ่านการโหลดที่เพิ่มขึ้นตาม CDC โซลูชันจําเป็นต้องจัดการทั้งการแทรกและการอัปเดต และควรรวมการเปลี่ยนแปลงเข้ากับปลายทางโดยไม่ต้องมีการแทรกแซงด้วยตนเอง

ชาร์ลีประเมินตัวเลือกและเลือก คัดลอกงาน เป็นแนวทางที่ต้องการ Copy Job ให้ความสามารถในการเลือกหลายตารางที่เขาต้องการรองรับทั้งการคัดลอกแบบเพิ่มหน่วยของ CDC แบบลายน้ําและแบบเนทีฟและมีอินเทอร์เฟซตัวช่วยสร้างที่ใช้งานง่าย ฟังก์ชันการทํางานแบบสําเร็จรูปช่วยให้เขากําหนดค่ากระบวนการจําลองข้อมูลทั้งหมดโดยไม่ต้องเขียนโค้ด และการตรวจจับตารางที่เปิดใช้งาน CDC โดยอัตโนมัติทําให้กระบวนการตั้งค่าง่ายขึ้น

สถานการณ์สมมติที่ 3

Rukmina เป็นวิศวกรข้อมูลที่บริษัทผู้ผลิตแห่งหนึ่ง เธอจําเป็นต้องย้ายข้อมูลการผลิตในอดีตจํานวนมากจากฐานข้อมูล Oracle ในองค์กรไปยัง Fabric Warehouse ใหม่ การย้ายข้อมูลเกี่ยวข้องกับการคัดลอกตารางหลายร้อยตารางที่มีบันทึกหลายล้านรายการ และเธอจําเป็นต้องใช้สถาปัตยกรรมเหรียญที่มีชั้นทองแดง เงิน และทอง Rukmina มีประสบการณ์กับ SQL แต่ชอบโซลูชันแบบ low-code เมื่อเป็นไปได้

โครงการกําหนดให้เธอคัดลอกข้อมูลดิบไปยังเลเยอร์บรอนซ์ จากนั้นใช้การแปลงที่มีน้ําหนักเบา เช่น การแปลงประเภทข้อมูลและการแมปคอลัมน์เมื่อข้อมูลเคลื่อนผ่านเลเยอร์เหรียญ Rukmina จําเป็นต้องตรวจสอบให้แน่ใจว่าโซลูชันสามารถจัดการกับปริมาณข้อมูลจํานวนมากได้อย่างมีประสิทธิภาพและสามารถกําหนดเวลาให้ทํางานทีละน้อยสําหรับการดําเนินงานต่อเนื่อง ผู้มีส่วนได้ส่วนเสียต้องการโซลูชันที่สามารถปรับขนาดข้อมูลจากกิกะไบต์เป็นเพตะไบต์เมื่อธุรกิจเติบโต

Rukmina ตรวจสอบตัวเลือกที่พร้อมใช้งานและเลือก คัดลอกกิจกรรมในไปป์ไลน์ วิธีนี้ทําให้เธอมีอินเทอร์เฟซแบบลากและวางที่เธอชอบในขณะที่ให้ความสามารถในการปรับขนาดที่จําเป็นสําหรับปริมาณข้อมูลขนาดใหญ่ Copy Activity รองรับตัวเชื่อมต่อ 50+ ตัวเชื่อมต่อที่เธอต้องการสําหรับระบบต้นทางต่างๆ และเฟรมเวิร์กไปป์ไลน์ช่วยให้เธอสามารถประสานการเคลื่อนย้ายระหว่างเลเยอร์เหรียญได้ ด้วยกิจกรรมการคัดลอก เธอสามารถใช้รูปแบบการรีเฟรชข้อมูลทั้งในอดีตและแบบเพิ่มหน่วยในขณะที่ยังคงประสิทธิภาพที่จําเป็นสําหรับการดําเนินการระดับเพตะไบต์

สถานการณ์สมมติที่ 4

Julian เป็นนักวิเคราะห์ธุรกิจที่มีทักษะ SQL ที่แข็งแกร่ง เขาจําเป็นต้องประสานเวิร์กโฟลว์การประมวลผลข้อมูลที่ซับซ้อนซึ่งเกี่ยวข้องกับหลายขั้นตอน: การดึงข้อมูลจากระบบต่างๆ ดําเนินการตรวจสอบคุณภาพข้อมูล ทําการแปลง การโหลดข้อมูลไปยังปลายทางหลายแห่ง และส่งการแจ้งเตือนไปยังผู้มีส่วนได้ส่วนเสีย เวิร์กโฟลว์ต้องทํางานตามกําหนดการและจัดการการขึ้นต่อกันระหว่างกิจกรรมต่างๆ

องค์กรของ Julian ใช้บริการ Azure และระบบภายในองค์กรผสมกัน และเวิร์กโฟลว์ต้องใช้ทั้งการเคลื่อนย้ายข้อมูลและตรรกะการประสาน เขาจําเป็นต้องประสานงานกิจกรรมต่างๆ เช่น การเรียกใช้กระบวนงานที่เก็บไว้ การเรียกเว็บ API การย้ายไฟล์ และการดําเนินการไปป์ไลน์อื่นๆ แม้ว่า Julian จะคุ้นเคยกับ SQL และการเขียนสคริปต์พื้นฐาน แต่เขาก็ชอบวิธีการแบบใช้โค้ดน้อยสําหรับการสร้างและบํารุงรักษาเวิร์กโฟลว์ที่ซับซ้อนเหล่านี้

Julian ประเมินตัวเลือกและเลือก Pipelines ให้เหมาะสมที่สุดสําหรับความต้องการของเขา ไปป์ไลน์มีพื้นที่ทํางานภาพและกิจกรรมแบบลากและวางที่เขาต้องการเพื่อสร้างเวิร์กโฟลว์การประสานที่ซับซ้อน โซลูชันนี้สนับสนุนการจัดกลุ่มเชิงตรรกะของกิจกรรม การจัดการการขึ้นต่อกัน และความสามารถในการจัดกําหนดการ ด้วยตัวเชื่อมต่อ 50+ รายการและประเภทกิจกรรมต่างๆ (คัดลอก การค้นหา กระบวนงานที่เก็บไว้ เว็บ ฯลฯ) Pipelines ทําให้เขามีความยืดหยุ่นในการประสานงานที่หลากหลายในขณะที่ยังคงรักษาแนวทางแบบ low-code ที่เขาต้องการ

สถานการณ์สมมติที่ 5

Darshan เป็นนักวิทยาศาสตร์ข้อมูลที่มีประสบการณ์ Python มากมาย เขาจําเป็นต้องสร้างและบํารุงรักษาเวิร์กโฟลว์การประมวลผลข้อมูลที่ซับซ้อนซึ่งรวมโมเดลแมชชีนเลิร์นนิง อัลกอริทึมแบบกําหนดเอง และ API ภายนอกต่างๆ ทีมวิทยาศาสตร์ข้อมูลขององค์กรของเขาชอบแนวทางที่เน้นโค้ดเป็นอันดับแรก และต้องการใช้ประโยชน์จากความเชี่ยวชาญด้าน Python ที่มีอยู่ รวมถึงไลบรารีแบบกําหนดเองและรูปแบบการประสานขั้นสูง

Darshan ต้องการโซลูชันที่รองรับกราฟ acyclic (DAGs) ที่ใช้ Python สามารถจัดการกับการพึ่งพาที่ซับซ้อนระหว่างงาน และผสานรวมกับกระบวนการ DevOps ที่มีอยู่ของทีม เวิร์กโฟลว์เกี่ยวข้องกับการนําเข้าข้อมูลจากหลายแหล่ง วิศวกรรมคุณลักษณะ การฝึกอบรมโมเดล การให้คะแนนแบทช์ และตรรกะทางธุรกิจแบบกําหนดเองที่ต้องการความยืดหยุ่นของการเขียนโปรแกรม Python เต็มรูปแบบ ทีมงานให้ความสําคัญกับระบบนิเวศของ Apache Airflow และต้องการรักษาความเข้ากันได้กับเวิร์กโฟลว์ที่มีอยู่

Darshan ตรวจสอบตัวเลือกและเลือก Apache Airflow Jobs เป็นทางออกที่ดี วิธีการใช้โค้ดเป็นอันดับแรกนี้ช่วยให้ทีมของเขาใช้ความเชี่ยวชาญด้าน Python ในขณะที่สร้างเวิร์กโฟลว์การประมวลผลข้อมูลที่ซับซ้อน Apache Airflow Jobs ให้การประสานแบบ DAG ที่พวกเขาคุ้นเคย รองรับตัวเชื่อมต่อ 100+ ตัวเชื่อมต่อผ่านระบบนิเวศ Airflow และช่วยให้พวกเขาใช้ตรรกะทางธุรกิจแบบกําหนดเองโดยใช้ Python แนวทางการบริการที่มีการจัดการช่วยขจัดข้อกังวลด้านโครงสร้างพื้นฐานในขณะที่ยังคงความยืดหยุ่นและพลังของ Apache Airflow

สถานการณ์สมมติที่ 6

René เป็นนักวิทยาศาสตร์ข้อมูลที่มหาวิทยาลัยวิจัยแห่งหนึ่ง เธอจําเป็นต้องทํางานวิเคราะห์ข้อมูลที่ซับซ้อนและแปลงชุดข้อมูลขนาดใหญ่ที่จัดเก็บไว้ในหลายรูปแบบและแหล่งที่มา งานของเธอเกี่ยวข้องกับการวิเคราะห์ทางสถิติ การพัฒนาโมเดลแมชชีนเลิร์นนิง และอัลกอริธึมการประมวลผลข้อมูลแบบกําหนดเองที่ต้องการพลังเต็มรูปแบบของการประมวลผลแบบกระจาย

René ทํางานกับข้อมูลที่มีโครงสร้างและไม่มีโครงสร้าง รวมถึงไฟล์ CSV, เอกสาร JSON, ไฟล์ Parquet และสตรีมแบบเรียลไทม์ การวิเคราะห์ของเธอต้องการการแปลงที่ซับซ้อน เช่น การรวมชุดข้อมูลขนาดใหญ่หลายชุด การรวม การคํานวณทางสถิติ และอัลกอริทึมแบบกําหนดเองที่ใช้ใน Python และ Scala เธอต้องการความยืดหยุ่นในการทํางานแบบโต้ตอบในระหว่างขั้นตอนการสํารวจ จากนั้นจึงดําเนินการโค้ดของเธอสําหรับปริมาณงานการผลิต

René ประเมินตัวเลือกของเธอและเลือก Notebooks เป็นเครื่องมือหลักของเธอ โน้ตบุ๊กให้สภาพแวดล้อมที่เน้นโค้ดเป็นอันดับแรกที่เธอต้องการพร้อมการเข้าถึงความสามารถด้านการประมวลผลแบบกระจายของ Spark อย่างเต็มรูปแบบ เธอสามารถทํางานกับไลบรารี Spark หลายร้อยไลบรารี ใช้การแปลงที่ซับซ้อนโดยใช้หลายภาษา (Python, Scala, SQL, R) และใช้สภาพแวดล้อมการพัฒนาแบบโต้ตอบสําหรับการสํารวจข้อมูล อินเทอร์เฟซโน้ตบุ๊กช่วยให้เธอรวมโค้ด การแสดงภาพ และเอกสารประกอบเข้าด้วยกัน พร้อมทั้งให้การประมวลผลประสิทธิภาพสูงที่จําเป็นสําหรับความต้องการในการประมวลผลข้อมูลขนาดใหญ่ของเธอ

สถานการณ์สมมติที่ 7

อาโกะเป็นนักวิเคราะห์ธุรกิจในองค์กรด้านการดูแลสุขภาพ เธอจําเป็นต้องรวมข้อมูลจากหลายแหล่ง รวมถึงฐานข้อมูล บริการเว็บ และระบบไฟล์เพื่อสร้างชุดข้อมูลที่สะอาดและพร้อมสําหรับธุรกิจ Ako มีประสบการณ์มากมายกับ Power Query จากงานของเธอใน Excel และ Power BI และเธอชอบอินเทอร์เฟซแบบภาพที่ไม่มีโค้ดสําหรับงานเตรียมข้อมูล

ความรับผิดชอบของ Ako รวมถึงการทําความสะอาดข้อมูลด้านการดูแลสุขภาพ การใช้กฎทางธุรกิจ การตรวจสอบคุณภาพของข้อมูล และสร้างชุดข้อมูลที่ได้มาตรฐานซึ่งป้อนเข้าสู่ระบบการรายงานด้านกฎระเบียบ แหล่งข้อมูล ได้แก่ ระบบการจัดการผู้ป่วย ระบบข้อมูลห้องปฏิบัติการ และบริการ API ภายนอก เธอจําเป็นต้องทําการแปลงที่ซับซ้อน เช่น การทําโปรไฟล์ข้อมูล การลบข้อมูลที่ซ้ํากัน การกําหนดมาตรฐานของรหัสทางการแพทย์ และการสร้างฟิลด์ที่คํานวณตามตรรกะทางธุรกิจ

Ako ตรวจสอบตัวเลือกที่มีและเลือก Dataflow Gen 2 เป็นโซลูชันที่ต้องการ Dataflow Gen 2 มอบประสบการณ์ Power Query ที่คุ้นเคยที่เธอรู้จักจากเครื่องมืออื่นๆ ของ Microsoft ในขณะที่นําเสนอประสิทธิภาพและความสามารถที่เพิ่มขึ้น ด้วยตัวเชื่อมต่อในตัว 170+ รายการ เธอสามารถเชื่อมต่อกับแหล่งข้อมูลที่หลากหลายทั้งหมดของเธอ แนวทางที่ไม่มีโค้ดช่วยให้เธอมุ่งเน้นไปที่ตรรกะทางธุรกิจมากกว่ารายละเอียดการใช้งานทางเทคนิค

สถานการณ์สมมติที่ 8

Ash เป็นผู้จัดการผลิตภัณฑ์ของบริษัทโทรคมนาคมแห่งหนึ่ง ทีมของเธอจําเป็นต้องตรวจสอบตัวชี้วัดการสนับสนุนลูกค้า เช่น ปริมาณการโทร เวลารอ และประสิทธิภาพของเจ้าหน้าที่ แบบเรียลไทม์เพื่อให้แน่ใจว่าเป็นไปตามข้อตกลงระดับการให้บริการ (SLA) ข้อมูลมาจากระบบปฏิบัติการหลายระบบ รวมถึง CRM, บันทึกคอลเซ็นเตอร์ และฐานข้อมูลการมอบหมายตัวแทน

Ash ต้องการสร้างแดชบอร์ดแบบเรียลไทม์และทริกเกอร์เวิร์กโฟลว์อัตโนมัติเมื่อมีการละเมิดเกณฑ์ (ตัวอย่างเช่น เมื่อเวลารอเกินขีดจํากัด SLA) เธอยังต้องการหลีกเลี่ยงการสร้างไปป์ไลน์ ETL ที่ซับซ้อนหรือการจัดการโครงสร้างพื้นฐาน

Ash ประเมินตัวเลือกและเลือก Fabric Eventstreams ด้วย Eventstreams เธอสามารถนําเข้าข้อมูลจากหลายแหล่งโดยใช้ตัวเชื่อมต่อการสตรีม ใช้การแปลงที่มีน้ําหนักเบา และกําหนดเส้นทางเหตุการณ์ไปยังปลายทาง เช่น Eventhouse และ Data Activator เธอตั้งค่าการแจ้งเตือนและแดชบอร์ดที่อัปเดตในไม่กี่วินาที ซึ่งช่วยให้ทีมของเธอสามารถตอบสนองต่อปัญหาการดําเนินงานได้อย่างรวดเร็ว

Fabric Eventstreams และ Real-Time Intelligence มอบประสบการณ์ที่มีเวลาแฝงต่ําและใช้โค้ดน้อยที่ Ash ต้องการในการสร้างแอปพลิเคชันที่ขับเคลื่อนด้วยเหตุการณ์โดยไม่รบกวนระบบที่มีอยู่

Get started

เมื่อคุณเข้าใจแล้วว่าควรใช้บริการใดแล้ว คุณสามารถเริ่มสร้างโซลูชันการรวมข้อมูลของคุณใน Microsoft Fabric ได้