Condividi tramite


Configurare una fase di origine dell'endpoint HTTP in una pipeline di anteprima del processore di dati IoT di Azure

Importante

Anteprima delle operazioni di Azure IoT: abilitata da Azure Arc è attualmente disponibile in ANTEPRIMA. Non è consigliabile usare questo software di anteprima negli ambienti di produzione.

Vedere le condizioni per l'utilizzo supplementari per le anteprime di Microsoft Azure per termini legali aggiuntivi che si applicano a funzionalità di Azure in versione beta, in anteprima o in altro modo non ancora disponibili a livello generale.

La fase di origine è la prima e obbligatoria in una pipeline di anteprima del processore di dati IoT di Azure. La fase di origine recupera i dati nella pipeline di elaborazione dati e lo prepara per un'ulteriore elaborazione. La fase dell'origine dell'endpoint HTTP consente di leggere i dati da un endpoint HTTP a un intervallo definito dall'utente. La fase ha un corpo della richiesta facoltativo e riceve una risposta dall'endpoint.

Nella fase di origine si definiscono:

  • Dettagli della connessione all'endpoint HTTP.
  • Intervallo in cui chiamare l'endpoint HTTP. La fase attende una risposta prima di reimpostare il timer dell'intervallo.
  • Configurazione del partizionamento in base ai requisiti specifici per l'elaborazione dei dati.

Prerequisiti

  • Istanza distribuita di Azure IoT Data Processor Preview che include il componente facoltativo responsabile del trattamento dei dati.
  • Un endpoint HTTP con tutti i dati non elaborati necessari disponibili è operativo e raggiungibile.

Configurare l'origine dell'endpoint HTTP

Per configurare l'origine dell'endpoint HTTP:

  • Specificare i dettagli dell'endpoint HTTP. Questa configurazione include il metodo, l'URL e il payload della richiesta da usare.
  • Specificare il metodo di autenticazione. Attualmente limitato all'autenticazione basata su nome utente/password o basata su intestazione.

La tabella seguente descrive i parametri di configurazione dell'origine dell'endpoint HTTP:

Campo Tipo Descrizione Richiesto Valore predefinito Esempio
Nome string Nome visibile al cliente per la fase di origine. Richiesto ND erp-endpoint
Descrizione Stringa Descrizione visibile al cliente della fase di origine. Facoltativo ND Enterprise application data
metodo Enumerazione Metodo HTTP da usare per le richieste. Uno di GET o POST Facoltativo GET GET
URL String URL da usare per le richieste. Sia http che https sono supportati. Richiesto ND https://contoso.com/some/url/path
Autenticazione Tipo di autenticazione Metodo di autenticazione per la richiesta HTTP. Uno di: None, Username/Passwordo Header. Facoltativo NA Username/Password
Nome utente/Nome utente password > String Nome utente per l'autenticazione nome utente/password ND myuser
Nome utente/Segreto password > Riferimento alla password archiviata in Azure Key Vault. AKV_USERNAME_PASSWORD
Chiave intestazione > String Nome della chiave per l'autenticazione basata su intestazione. ND Authorization
Valore intestazione > String Nome delle credenziali in Azure Key Vault per l'autenticazione basata su intestazione. ND AKV_PASSWORD
Formato dati Formato Formato dati dei dati in ingresso Richiesto ND {"type": "json"}
Corpo della richiesta > API String Corpo della richiesta statica da inviare con la richiesta HTTP. Facoltativo ND {"foo": "bar"}
Intestazioni delle richieste > API Coppie chiave/valore Intestazioni di richiesta statiche da inviare con la richiesta HTTP. Facoltativo ND [{"key": {"type":"static", "value": "asset"}, "value": {"type": "static", "value": "asset-id-0"}} ]
Intervallo di richiesta Durata Rappresentazione di stringa del tempo di attesa prima della chiamata API successiva. Richiesto 10s 24h
Partizionamento Partizionamento Configurazione del partizionamento per la fase di origine. Richiesto ND Vedere partizionamento

Per altre informazioni sui segreti, vedere Gestire i segreti per la distribuzione di Azure IoT Operations Preview.

Selezionare il formato dati

In una pipeline del processore di dati il campo formato nella fase di origine specifica come deserializzare i dati in ingresso. Per impostazione predefinita, la pipeline del processore di dati usa il raw formato che significa che non converte i dati in ingresso. Per usare molte funzionalità del responsabile del trattamento dei dati, ad Filter esempio o Enrich fasi in una pipeline, è necessario deserializzare i dati nella fase di input. È possibile scegliere di deserializzare i dati in ingresso da JSON, jsonStream, MessagePack, CBOR, CSV, o Protobuf in un messaggio leggibile del responsabile del trattamento dei dati per usare la funzionalità completa del responsabile del trattamento dei dati.

Le tabelle seguenti descrivono le diverse opzioni di configurazione della deserializzazione:

Campo Descrizione Richiesto Valore predefinito Valore
Formato dati Tipo del formato dati. Raw Raw JSON jsonStream MessagePack CBOR CSV Protobuf

Il Data Format campo è obbligatorio e il relativo valore determina gli altri campi obbligatori.

Per deserializzare i messaggi CSV, è necessario specificare anche i campi seguenti:

Campo Descrizione Richiesto valore Esempio
Intestazione Indica se i dati CSV includono una riga di intestazione. Yes No No
Nome Nome della colonna in CSV - temp, asset
Percorso Percorso jq nel messaggio in cui sono state aggiunte le informazioni sulla colonna. No - Il percorso jq predefinito è il nome della colonna
Tipo di dati Tipo di dati dei dati nella colonna e come viene rappresentato all'interno della pipeline del responsabile del trattamento dei dati. No String, Float, Integer, BooleanBytes Impostazione predefinita: String

Per deserializzare i messaggi Protobuf, è necessario specificare anche i campi seguenti:

Campo Descrizione Richiesto valore Esempio
Descrittore Descrittore con codifica base64 per la definizione protobuf. - Zhf...
Message Nome del tipo di messaggio utilizzato per formattare i dati. - pipeline
Pacchetto Nome del pacchetto nel descrittore in cui è definito il tipo. - schedulerv1

Nota

Il responsabile del trattamento dei dati supporta un solo tipo di messaggio in ogni file con estensione proto .

Configurare il partizionamento

Il partizionamento in una pipeline divide i dati in ingresso in partizioni separate. Il partizionamento consente il parallelismo dei dati nella pipeline, che può migliorare la velocità effettiva e ridurre la latenza. Le strategie di partizionamento influiscono sul modo in cui i dati vengono elaborati nelle altre fasi della pipeline. Ad esempio, l'ultima fase del valore noto e la fase di aggregazione operano su ogni partizione logica.

Per partizionare i dati, specificare una strategia di partizionamento e il numero di partizioni da usare:

Campo Descrizione Richiesto Valore predefinito Esempio
Tipo di partizione Tipo di partizionamento da usare: Partizione ID o Partizione Key Richiesto ID ID
Espressione di partizione Espressione jq da usare nel messaggio in ingresso per calcolare la partizione ID o la partizione Key Richiesto 0 .payload.header
Numero di partizioni Numero di partizioni in una pipeline del responsabile del trattamento dei dati. Richiesto 1 1

La fase di origine applica l'espressione di partizionamento al messaggio in ingresso per calcolare la partizione ID o Key.

Il responsabile del trattamento dei dati aggiunge metadati aggiuntivi al messaggio in arrivo. Per informazioni su come specificare correttamente l'espressione di partizionamento eseguita nel messaggio in arrivo, vedere Panoramica della struttura dei messaggi del responsabile del trattamento dei dati. Per impostazione predefinita, l'espressione di partizionamento è impostata su 0 con il tipo di partizione per ID inviare tutti i dati in ingresso a una singola partizione.

Per consigli e per altre informazioni, vedere Che cos'è il partizionamento?