Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo elenca le limitazioni e le considerazioni per l'inserimento di report di Workday tramite Databricks Lakeflow Connect.
Limitazioni generali del connettore SaaS
Le limitazioni in questa sezione si applicano a tutti i connettori SaaS in Lakeflow Connect.
- Durante l'esecuzione di una pipeline pianificata, gli avvisi non vengono attivati immediatamente. Attivano invece quando viene eseguito l'aggiornamento successivo.
- Quando viene eliminata una tabella di origine, la tabella di destinazione non viene eliminata automaticamente. È necessario eliminare manualmente la tabella di destinazione. Questo comportamento non è coerente con il comportamento delle pipeline dichiarative di Lakeflow.
- Durante i periodi di manutenzione di origine, Databricks potrebbe non essere in grado di accedere ai dati.
- Se un nome di tabella di origine è in conflitto con un nome di tabella di destinazione esistente, l'aggiornamento della pipeline non riesce.
- Il supporto per pipeline a più destinazioni è solo tramite API.
- Puoi opzionalmente rinominare una tabella che ingerisci. Se rinomini una tabella nel tuo pipeline, diventa un pipeline esclusivamente API e non puoi più modificare il pipeline nell'interfaccia utente.
- La selezione e deselezione a livello di colonna sono disponibili solo tramite API.
- Se selezioni una colonna dopo che una pipeline è già iniziata, il connettore non ricarica automaticamente i dati per la nuova colonna. Per inserire dati cronologici, eseguire manualmente un aggiornamento completo nella tabella.
- Databricks non può inserire due o più tabelle con lo stesso nome nella stessa pipeline, anche se provengono da schemi di origine diversi.
- Il sistema di origine presuppone che le colonne del cursore aumentino in modo monotonico.
Limitazioni specifiche del connettore
Le limitazioni in questa sezione sono specifiche del connettore Report di Workday.
Autenticazione
- Databricks consiglia di usare un utente del sistema integrato workday (ISU), ma non è obbligatorio.
- In genere, viene creato un token di aggiornamento per conto di un ISU. È possibile scegliere se consentire la scadenza del token di aggiornamento:
- Se si imposta una data di scadenza, è necessario modificare la connessione quando si raggiunge tale data.
- Se non si imposta una data di scadenza, il token di aggiornamento può scadere solo se l'organizzazione riduce il livello di accesso dell'ISU associato al token.
Le pipeline
- Il connettore può inserire report con meno di 2 GB di dati o meno di 1M record. I limiti dell'API Workday dell'organizzazione potrebbero essere inferiori a questo.
- L'aggiornamento completo è supportato, ma l'aggiornamento incrementale non è supportato, pertanto il connettore importa il report completo ogni volta che la pipeline viene eseguita.
- È possibile creare una pipeline di inserimento dei report di Workday solo usando le API di Databricks. Non è possibile creare la pipeline nell'interfaccia utente di Azure Databricks.
- Il connettore non può inserire report con chiavi primarie duplicate.