Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Ten przewodnik ułatwia deweloperom platformy Kafka tworzenie i migrowanie aplikacji do usługi Azure Event Hubs. Niezależnie od tego, czy łączysz istniejącą aplikację Kafka, czy budujesz nowe rozwiązanie do przesyłania strumieniowego, znajdziesz Quickstarts, samouczki i wzorce integracji zorganizowane według etapu Twojej ścieżki rozwoju.
Wymagania wstępne
Przed rozpoczęciem tworzenia upewnij się, że masz:
- Przestrzeń nazw usługi Azure Event Hubs z włączoną obsługą Kafka (poziom Standardowy lub wyższy)
- Zainstalowano preferowaną bibliotekę klienta platformy Kafka
- Parametry połączenia lub poświadczenia Microsoft Entra do uwierzytelniania
Aby zapoznać się z omówieniem sposobu działania usługi Event Hubs z platformą Kafka, zobacz Event Hubs for Apache Kafka (Usługa Event Hubs dla platformy Apache Kafka).
Rozpocznij w 5 minut
Najszybszym sposobem nawiązywania połączenia z usługą Event Hubs jest zmodyfikowanie istniejącej konfiguracji klienta platformy Kafka. Brak wymaganych zmian kodu — wystarczy zaktualizować ustawienia połączenia.
Szybki start: przesyłanie strumieniowe danych z Event Hubs przy użyciu protokołu Kafka przeprowadzi Cię przez łączenie producentów i konsumentów, wystarczy zmienić konfigurację.
Przewodniki szybkiego startu dostosowane do języka
Wybierz swój język, aby uzyskać działający przykład producenta i konsumenta:
| Język | Przykład | Biblioteka kliencka |
|---|---|---|
| Java | Szybki start | Klient Apache Kafka |
| C# / .NET | Szybki start | Klient Confluent .NET |
| Python | Szybki start | Klient platformy Confluent w języku Python |
| Node.js | Szybki start | node-rdkafka |
| Przejdź | Szybki start | Klient Go dla Confluent |
| Go (Sarama) | Szybki start | Klient Sarama |
Narzędzia wiersza polecenia
Do testowania i debugowania użyj następujących narzędzi interfejsu wiersza polecenia:
| Tool | Przykład | Przypadek użycia |
|---|---|---|
| Interfejs wiersza polecenia platformy Kafka | Szybki start | Dołączone do dystrybucji Apache Kafka |
| kcat | Szybki start | Lekki, szybki CLI oparty na librdkafka |
Tworzenie potoków streamingowych
Po połączeniu aplikacji możesz tworzyć bardziej zaawansowane strumieniowe potoki przetwarzania. W tej sekcji omówiono integracje z popularnymi platformami przetwarzania strumieniowego i narzędziami do integracji danych.
Struktury przetwarzania strumieniowego
Łączenie aplikacji przetwarzania strumieniowego z usługą Event Hubs:
| Framework | Samouczek | opis |
|---|---|---|
| Apache Spark | Tutorial | Przesyłanie strumieniowe w czasie rzeczywistym za pomocą strukturalnego przesyłania strumieniowego Spark. |
| Apache Flink | Tutorial | Przetwarzanie strumienia stanowego z semantyką exactly-once |
| Akka Streams | Tutorial | Reaktywne przetwarzanie strumieni dla języków Scala i Java |
| Azure Stream Analytics | Tutorial | Przetwarzanie strumienia bez kodu przy użyciu zapytań przypominających język SQL |
| Spring Cloud Stream | Tutorial | Integracja Spring Boot przy użyciu wiązania Kafka |
Integracja danych z platformą Kafka Connect
Platforma Kafka Connect umożliwia przesyłanie strumieniowe danych między usługą Event Hubs i systemami zewnętrznymi przy użyciu wstępnie utworzonych łączników:
| Resource | opis |
|---|---|
| Integracja z platformą Kafka Connect | Wdrażanie i konfigurowanie programu Kafka Connect za pomocą usługi Event Hubs |
| Samouczek platformy Kafka Connect (GitHub) | Przykład pełnego użycia z FileStreamSource i FileStreamSink |
Agregacja dzienników i możliwość obserwacji
Scentralizuj dzienniki z infrastruktury w Event Hubs.
| Tool | Samouczek | opis |
|---|---|---|
| Usługa Logstash | Tutorial | Potok logów Elastic Stack |
| Plikbeat | Tutorial | Lekki przesyłacz logów |
| Fluentd | Tutorial | Ujednolicona warstwa rejestrowania |
| Apache NiFi | Tutorial | Wizualne zarządzanie przepływem danych |
Migrowanie istniejących obciążeń platformy Kafka
W przypadku migracji z istniejącego klastra platformy Kafka usługa Event Hubs obsługuje scenariusze replikacji i hybrydowe.
Replikowanie danych za pomocą narzędzia MirrorMaker
Użyj narzędzia Kafka MirrorMaker, aby replikować dane z istniejącego klastra Platformy Kafka do usługi Event Hubs:
| Resource | opis |
|---|---|
| Odwzorowanie brokera platformy Kafka do usługi Event Hubs | Przewodnik krok po kroku dotyczący konfiguracji programu MirrorMaker |
| Poradnik MirrorMaker (GitHub) | Przykładowe konfiguracje i skrypty |
Planowanie migracji
Aby uzyskać kompletny przewodnik migracji, w tym mapowanie konfiguracji i różnice funkcji, zobacz Przewodnik po migracji platformy Apache Kafka dla usługi Event Hubs.
Scenariusze zaawansowane
Zarządzanie schematami
Zarządzanie schematami dla aplikacji platformy Kafka:
| Resource | opis |
|---|---|
| Rejestr schematów platformy Azure | Natywny rejestr schematów wbudowany w usługę Event Hubs |
| Integracja rejestru schematów platformy Confluent | Używanie rejestru schematów Confluent z usługą Event Hubs |
Uwierzytelnianie przy użyciu protokołu OAuth/identyfikatora entra firmy Microsoft
W przypadku obciążeń produkcyjnych użyj identyfikatora Entra firmy Microsoft zamiast parametrów połączenia:
| Resource | opis |
|---|---|
| Samouczek OAuth (GitHub) | Przykłady języka Java i Go na potrzeby uwierzytelniania OAuth |
Współdziałanie protokołu
Usługa Event Hubs obsługuje wiele protokołów. Dowiedz się, jak wymieniać zdarzenia między klientami platformy Kafka i serwerem AMQP:
| Resource | opis |
|---|---|
| Samouczek międzyoperacyjny (GitHub) | Wymiana zdarzeń między różnymi protokołami |
Dokumentacja konfiguracji
Aby uzyskać zalecane konfiguracje klienta platformy Kafka podczas korzystania z usługi Event Hubs, zobacz Konfiguracje klienta platformy Apache Kafka. Ten przewodnik obejmuje:
- Wymagane ustawienia połączenia
- Konfiguracje różniące się od domyślnych platformy Kafka
- Ograniczenia specyficzne dla usługi Event Hubs
- Rozwiązywanie typowych problemów z konfiguracją