แชร์ผ่าน


เพิ่มและจัดการแหล่งข้อมูลเหตุการณ์ในเหตุการณ์

เมื่อคุณได้สร้างเหตุการณ์สตรีมแล้ว คุณสามารถเชื่อมต่อกับแหล่งข้อมูลและปลายทางต่าง ๆ ได้

หมายเหตุ

ถ้าคุณต้องการใช้ความสามารถขั้นสูงที่อยู่ในการแสดงตัวอย่าง ให้เลือก ความสามารถ ขั้นสูง ที่ด้านบน มิฉะนั้น เลือก ความสามารถมาตรฐาน สําหรับข้อมูลเกี่ยวกับความสามารถขั้นสูงที่อยู่ในการแสดงตัวอย่าง ดูบทนําสู่สตรีมเหตุการณ์ Fabric

เมื่อคุณสร้างเหตุการณ์คุณสามารถเชื่อมต่อกับแหล่งข้อมูลและปลายทางต่าง ๆ ได้

อีเวนต์สตรีมไม่เพียงช่วยให้คุณสามารถสตรีมข้อมูลจากแหล่งข้อมูลของ Microsoft แต่ยังสนับสนุนการนําเข้าจากแพลตฟอร์มของบุคคลที่สามเช่น Google Cloud และ Amazon Kinesis ด้วยตัวเชื่อมต่อข้อความใหม่ ความสามารถที่ขยายนี้ให้การรวมสตรีมข้อมูลภายนอกที่ราบรื่นลงใน Fabric ให้ความยืดหยุ่นมากขึ้น และช่วยให้คุณสามารถรับข้อมูลเชิงลึกแบบเรียลไทม์จากหลายแหล่งข้อมูลได้

ในบทความนี้ คุณจะได้เรียนรู้เกี่ยวกับแหล่งข้อมูลเหตุการณ์ที่คุณสามารถเพิ่มลงในเหตุการณ์สตรีมด้วยความสามารถขั้นสูงที่อยู่ในการแสดงตัวอย่าง

สำคัญ

ความสามารถที่เพิ่มขึ้นของสตรีมเหตุการณ์ Fabric อยู่ในตัวอย่างในขณะนี้

ข้อกำหนดเบื้องต้น

  • เข้าถึงพื้นที่ทํางาน Fabric Premium สําหรับพื้นที่ทํางานของคุณด้วยสิทธิ์ผู้สนับสนุนหรือสูงกว่า
  • ข้อกําหนดเบื้องต้นเฉพาะสําหรับแต่ละแหล่งข้อมูลที่ระบุไว้ในบทความเฉพาะแหล่งข้อมูลต่อไปนี้

แหล่งที่มาที่สนับสนุน

สตรีมเหตุการณ์ Fabric ที่มีความสามารถที่เพิ่มขึ้นสนับสนุนแหล่งข้อมูลต่อไปนี้ แต่ละบทความแสดงรายละเอียดและคําแนะนําสําหรับการเพิ่มแหล่งข้อมูลที่เฉพาะเจาะจง

ต้นทาง คำอธิบาย
Azure Event Hubs ถ้าคุณมีฮับเหตุการณ์ Azure คุณสามารถนําเข้าข้อมูลฮับเหตุการณ์ลงใน Microsoft Fabric โดยใช้ Eventstream ได้
Azure IoT Hub ถ้าคุณมีฮับ Azure IoT คุณสามารถนําเข้าข้อมูล IoT ลงใน Microsoft Fabric โดยใช้ Eventstream ได้
ฐานข้อมูล Azure SQL เปลี่ยนแปลงการเก็บข้อมูล (CDC) ตัวเชื่อมต่อแหล่ง CDC Azure SQL Database ช่วยให้คุณสามารถจับภาพสแนปช็อตของข้อมูลปัจจุบันในฐานข้อมูล Azure SQL ได้ ตัวเชื่อมต่อจะตรวจสอบและบันทึกการเปลี่ยนแปลงระดับแถวในอนาคตใดก็ตามในข้อมูลนี้
ฐานข้อมูล PostgreSQL CDC ตัวเชื่อมต่อแหล่งข้อมูล PostgreSQL Change Data Capture (CDC) ช่วยให้คุณสามารถจับภาพสแนปช็อตของข้อมูลปัจจุบันในฐานข้อมูล PostgreSQL ได้ ตัวเชื่อมต่อจะตรวจสอบและบันทึกการเปลี่ยนแปลงระดับแถวในอนาคตใดก็ตามในข้อมูลนี้
ฐานข้อมูล MySQL CDC ตัวเชื่อมต่อแหล่งข้อมูล Azure MySQL Change Data Capture (CDC) ช่วยให้คุณสามารถจับภาพสแนปช็อตของข้อมูลปัจจุบันในฐานข้อมูล Azure สําหรับฐานข้อมูล MySQL ได้ คุณสามารถระบุตารางเพื่อตรวจสอบ และบันทึกเหตุการณ์สตรีมจะบันทึกการเปลี่ยนแปลงระดับแถวในอนาคตไปยังตารางได้
Azure Cosmos DB CDC ตัวเชื่อมต่อแหล่งข้อมูล Azure Cosmos DB Change Data Capture (CDC) สําหรับสตรีมเหตุการณ์ Microsoft Fabric ช่วยให้คุณสามารถจับภาพสแนปช็อตของข้อมูลปัจจุบันในฐานข้อมูล Azure Cosmos DB ตัวเชื่อมต่อจะตรวจสอบและบันทึกการเปลี่ยนแปลงระดับแถวในอนาคตใดก็ตามในข้อมูลนี้
เซิร์ฟเวอร์ SQL บน VM DB (CDC) ตัวเชื่อมต่อแหล่งข้อมูล SQL Server บน VM DB (CDC) สําหรับสตรีมเหตุการณ์ Fabric ช่วยให้คุณสามารถจับภาพสแนปช็อตของข้อมูลปัจจุบันในฐานข้อมูล SQL Server บน VM ตัวเชื่อมต่อจะตรวจสอบและบันทึกการเปลี่ยนแปลงระดับแถวในอนาคตใดก็ตามในข้อมูล
CDC อินสแตนซ์ที่จัดการแล้วของ Azure SQL ตัวเชื่อมต่อแหล่ง CDC อินสแตนซ์ที่จัดการแล้วของ Azure SQL สําหรับสตรีมเหตุการณ์ Microsoft Fabric ช่วยให้คุณสามารถจับภาพสแนปช็อตของข้อมูลปัจจุบันในฐานข้อมูล SQL Managed Instance ตัวเชื่อมต่อจะตรวจสอบและบันทึกการเปลี่ยนแปลงระดับแถวในอนาคตใดก็ตามในข้อมูลนี้
ผับ/ย่อย Google Cloud Google Pub/Sub เป็นบริการส่งข้อความที่ช่วยให้คุณสามารถเผยแพร่และสมัครสมาชิกสตรีมของเหตุการณ์ได้ คุณสามารถเพิ่ม Google Pub/Sub เป็นแหล่งข้อมูลให้กับเหตุการณ์ของคุณเพื่อจับภาพ แปลง และกําหนดเส้นทางเหตุการณ์แบบเรียลไทม์ไปยังปลายทางต่าง ๆ ใน Fabric ได้
Amazon Kinesis Data Streams Amazon Kinesis Data Streams เป็นการนําเข้าข้อมูลที่ปรับขนาดได้และทนทานสูงและการบริการการประมวลผลที่ปรับให้เหมาะสมสําหรับการสตรีมข้อมูล โดยการรวม Amazon Kinesis Data Streams เป็นแหล่งข้อมูลภายในเหตุการณ์ของคุณ คุณสามารถประมวลผลสตรีมข้อมูลแบบเรียลไทม์ได้อย่างราบรื่นก่อนที่จะกําหนดเส้นทางไปยังหลายปลายทางภายใน Fabric
Confluent Cloud Kafka Confluent Cloud Kafka เป็นแพลตฟอร์มการสตรีมที่นําเสนอฟังก์ชันการสตรีมข้อมูลและการประมวลผลที่มีประสิทธิภาพโดยใช้ Apache Kafka โดยการรวม Confluent Cloud Kafka เป็นแหล่งข้อมูลภายในเหตุการณ์ของคุณ คุณสามารถประมวลผลสตรีมข้อมูลแบบเรียลไทม์ได้อย่างราบรื่นก่อนที่จะกําหนดเส้นทางไปยังหลายปลายทางภายใน Fabric
Apache Kafka Apache Kafka เป็นโอเพนซอร์สแพลตฟอร์มแบบกระจายสําหรับการสร้างระบบข้อมูลแบบเรียลไทม์ที่ปรับขนาดได้ โดยการรวม Apache Kafka เป็นแหล่งข้อมูลภายในเหตุการณ์ของคุณ คุณสามารถนําเหตุการณ์แบบเรียลไทม์จาก Apache Kafka ของคุณได้อย่างราบรื่นและประมวลผลก่อนกําหนดเส้นทางไปยังหลายปลายทางภายใน Fabric
Amazon MSK Kafka Amazon MSK Kafka เป็นบริการของ Kafka ที่มีการจัดการเต็มรูปแบบ ทําให้ง่ายต่อการตั้งค่า การปรับขนาด และการจัดการ โดยการรวม Amazon MSK Kafka เป็นแหล่งภายในเหตุการณ์ของคุณ คุณสามารถนําเหตุการณ์แบบเรียลไทม์จาก MSK Kafka ของคุณและประมวลผลก่อนกําหนดเส้นทางไปยังปลายทางหลายแห่งภายใน Fabric ได้อย่างราบรื่น 
เหตุการณ์ที่เก็บข้อมูล Azure Blob เหตุการณ์ Azure Blob Storage จะถูกทริกเกอร์เมื่อไคลเอ็นต์สร้าง แทนที่ หรือลบ blob ตัวเชื่อมต่อช่วยให้คุณสามารถเชื่อมโยงเหตุการณ์ที่เก็บข้อมูล Blob ไปยัง Fabric เหตุการณ์ในฮับแบบเรียลไทม์ คุณสามารถแปลงเหตุการณ์เหล่านี้เป็นสตรีมข้อมูลแบบต่อเนื่องและแปลงได้ก่อนที่จะกําหนดเส้นทางไปยังปลายทางต่างๆ ใน Fabric
เหตุการณ์รายการพื้นที่ทํางานของ Fabric เหตุการณ์รายการพื้นที่ทํางานของ Fabric เป็นเหตุการณ์ Fabric ที่แยกจากกันซึ่งเกิดขึ้นเมื่อมีการเปลี่ยนแปลงในพื้นที่ทํางาน Fabric ของคุณ การเปลี่ยนแปลงเหล่านี้รวมถึงการสร้าง การอัปเดต หรือลบรายการ Fabric ด้วยสตรีมเหตุการณ์ Fabric คุณสามารถจับภาพเหตุการณ์พื้นที่ทํางาน Fabric เหล่านี้ แปลงข้อมูล และกําหนดเส้นทางไปยังปลายทางต่าง ๆ ใน Fabric เพื่อการวิเคราะห์เพิ่มเติม
ข้อมูลตัวอย่าง คุณสามารถเลือกเหตุการณ์จักรยาน รถแท็กซี่สีเหลือง หรือตลาดสินค้าคงคลังเป็นแหล่งข้อมูลตัวอย่างเพื่อทดสอบการนําเข้าข้อมูลในขณะตั้งค่าเหตุการณ์
จุดสิ้นสุดแบบกําหนดเอง (เช่น แอปแบบกําหนดเองในความสามารถมาตรฐาน) คุณลักษณะจุดสิ้นสุดแบบกําหนดเองช่วยให้แอปพลิเคชันหรือไคลเอ็นต์ Kafka ของคุณสามารถเชื่อมต่อกับ Eventstream โดยใช้สายอักขระการเชื่อมต่อ ช่วยให้การนําเข้าข้อมูลการสตรีมเป็นเหตุการณ์ได้อย่างราบรื่น

หมายเหตุ

จํานวนสูงสุดของแหล่งข้อมูลและปลายทางสําหรับหนึ่งเหตุการณ์สตรีมคือ 11

ข้อกำหนดเบื้องต้น

ก่อนที่คุณจะเริ่มต้น คุณต้องดําเนินการข้อกําหนดเบื้องต้นต่อไปนี้ให้เสร็จสมบูรณ์:

  • รับการเข้าถึงพื้นที่ทํางานแบบพรีเมียมด้วยสิทธิ์ผู้สนับสนุนหรือข้างต้นซึ่งเป็นที่ตั้งของเหตุการณ์สตรีมของคุณ
  • หากต้องการเพิ่ม Azure Event Hubs หรือ Azure IoT Hub เป็นแหล่งข้อมูลเหตุการณ์ คุณจําเป็นต้องมีสิทธิ์ที่เหมาะสมในการเข้าถึงคีย์นโยบาย พวกเขาจะต้องสามารถเข้าถึงได้โดยสาธารณะและไม่ได้อยู่หลังไฟร์วอลล์หรือมีความปลอดภัยในเครือข่ายเสมือน

แหล่งที่มาที่สนับสนุน

แหล่งข้อมูลต่อไปนี้ได้รับการสนับสนุนโดย Fabric event streams ใช้ลิงก์ในตารางเพื่อนําทางไปยังบทความที่มีรายละเอียดเพิ่มเติมเกี่ยวกับการเพิ่มแหล่งข้อมูลเฉพาะ

ต้นทาง คำอธิบาย
Azure Event Hubs ถ้าคุณมีฮับเหตุการณ์ Azure คุณสามารถนําเข้าข้อมูลฮับเหตุการณ์ลงใน Microsoft Fabric โดยใช้ Eventstream ได้
Azure IoT Hub ถ้าคุณมีฮับ Azure IoT คุณสามารถนําเข้าข้อมูล IoT ลงใน Microsoft Fabric โดยใช้ Eventstream ได้
ข้อมูลตัวอย่าง คุณสามารถเลือกเหตุการณ์จักรยาน รถแท็กซี่สีเหลือง หรือตลาดสินค้าคงคลังเป็นแหล่งข้อมูลตัวอย่างเพื่อทดสอบการนําเข้าข้อมูลในขณะตั้งค่าเหตุการณ์
แอปแบบกําหนดเอง คุณลักษณะแอปแบบกําหนดเองช่วยให้แอปพลิเคชันหรือไคลเอ็นต์ Kafka ของคุณสามารถเชื่อมต่อกับ Eventstream โดยใช้สายอักขระการเชื่อมต่อ ช่วยให้การนําเข้าข้อมูลการสตรีมเป็นเหตุการณ์ได้อย่างราบรื่น

หมายเหตุ

จํานวนสูงสุดของแหล่งข้อมูลและปลายทางสําหรับหนึ่งเหตุการณ์สตรีมคือ 11

จัดการแหล่งข้อมูล

  • แก้ไข/ลบ: คุณสามารถเลือกแหล่งข้อมูลเหตุการณ์เพื่อแก้ไขหรือลบออกผ่านทางหน้าต่างนําทางหรือพื้นที่ทํางาน เมื่อคุณเลือก แก้ไข บานหน้าต่างแก้ไขจะเปิดขึ้นทางด้านขวาของตัวแก้ไขหลัก

    สกรีนช็อตที่แสดงการปรับเปลี่ยนและการลบแหล่งข้อมูล

  • สร้างคีย์สําหรับแอปแบบกําหนดเองใหม่: ถ้าคุณต้องการสร้างคีย์การเชื่อมต่อใหม่สําหรับแอปพลิเคชันของคุณ ให้เลือกหนึ่งในแหล่งข้อมูลแอปแบบกําหนดเองของคุณบนพื้นที่ทํางาน และเลือก สร้าง ใหม่เพื่อรับคีย์การเชื่อมต่อใหม่

    สกรีนช็อตที่แสดงวิธีการสร้างคีย์ใหม่