Eventi
31 mar, 23 - 2 apr, 23
Il più grande evento di apprendimento di Fabric, Power BI e SQL. 31 marzo - 2 aprile. Usare il codice FABINSIDER per salvare $400.
Iscriviti oggi stessoQuesto browser non è più supportato.
Esegui l'aggiornamento a Microsoft Edge per sfruttare i vantaggi di funzionalità più recenti, aggiornamenti della sicurezza e supporto tecnico.
Questo articolo descrive come aggiungere Apache Kafka come origine evento nell'hub in tempo reale di Fabric.
Accedere a Microsoft Fabric.
Selezionare In tempo reale sulla barra di spostamento a sinistra.
Nella pagina Hub in tempo reale selezionare + Origini dati in Connetti a nel menu di spostamento a sinistra. È anche possibile accedere alla pagina Origini dati dalle pagine Tutti i flussi di dati o Flussi di dati personali selezionando il pulsante + Connetti origine dati nell'angolo superiore destro.
Nella pagina Selezionare un'origine dati selezionare Apache Kafka.
Nella pagina Connetti, seleziona Nuova connessione.
Nella sezione Impostazioni di connessione immettere l'indirizzo del server Apache Kafka per Server Bootstrap.
Nella sezione Credenziali di connessione, se si dispone di una connessione esistente al cluster Apache Kafka, selezionarla nell'elenco a discesa Connessione. Altrimenti, eseguire le seguenti operazioni:
Selezionare Connetti.
Nella pagina Connetti seguire questa procedura.
In Argomento immettere l'argomento Kafka.
In Gruppo consumer immettere il gruppo di consumer del cluster Apache Kafka. Questo campo fornisce un gruppo di consumer dedicato per ottenere eventi.
Selezionare Reimposta offset automatico per specificare dove iniziare a leggere gli offset se non è presente alcun commit.
Per Protocollo di sicurezza, il valore predefinito è SASL_PLAINTEXT.
Nota
L'origine Apache Kafka supporta attualmente solo la trasmissione di dati non crittografati (SASL_PLAINTEXT e PLAINTEXT) tra il cluster Apache Kafka e Eventstream. Il supporto per la trasmissione di dati crittografati tramite SSL sarà presto disponibile.
Il meccanismo SASL predefinito è in genere PLAIN, a meno che non sia configurato diversamente. È possibile selezionare il meccanismo SCRAM-SHA-256 o SCRAM-SHA-512 che soddisfa i requisiti di sicurezza.
Selezionare Avanti. Nella schermata Rivedi e crea esaminare il riepilogo e quindi selezionare Aggiungi.
Nella pagina Rivedi e connetti, se si seleziona Apri flusso di eventi, la procedura guidata apre il flusso di eventi creato automaticamente con l'origine Apache Kafka selezionata. Fare clic su Chiudi nella parte inferiore della pagina per terminare la procedura guidata.
Nell'Hub in tempo reale, passare alla scheda Flussi dei dati dell'Hub in tempo reale. Aggiorna la pagina. Verrà visualizzato automaticamente il flusso dei dati creato.
Per i passaggi dettagliati, vedere Visualizzare i dettagli dei flussi dei dati nell'Hub in tempo reale di Fabric.
Per informazioni sull'utilizzo dei flussi dei dati, vedere gli articoli seguenti:
Eventi
31 mar, 23 - 2 apr, 23
Il più grande evento di apprendimento di Fabric, Power BI e SQL. 31 marzo - 2 aprile. Usare il codice FABINSIDER per salvare $400.
Iscriviti oggi stessoFormazione
Modulo
Eseguire trasformazioni di dati di streaming avanzate con Apache Spark e Kafka in Azure HDInsight
Certificazione
Microsoft Certified: Fabric Data Engineer Associate - Certifications
In qualità di specialista di dati, dovresti avere competenze nei modelli di caricamento dei dati, architetture dei dati e processi di orchestrazione.
Documentazione
Aggiungere un'origine Apache Kafka a un flusso di eventi - Microsoft Fabric
Informazioni su come aggiungere un'origine Apache Kafka a un flusso di eventi. Questa funzionalità è attualmente disponibile solo in anteprima.
Ottenere dati da Kafka - Microsoft Fabric
Informazioni su come ottenere dati da Kafka in un database KQL in Intelligence in tempo reale.
Aggiungere Confluent Cloud Kafka come origine nell'hub in tempo reale - Microsoft Fabric
Questo articolo descrive come aggiungere Confluent Cloud Kafka come origine evento nell'hub in tempo reale di Fabric.