Schematillämpning
Azure Databricks validerar datakvaliteten genom att framtvinga schema vid skrivning.
Kommentar
I den här artikeln beskrivs standardbeteendet för tabeller i Azure Databricks, som backas upp av Delta Lake. Schemaframtvingande gäller inte för tabeller som backas upp av externa data.
Schemaframtvingande för infogningsåtgärder
Azure Databricks tillämpar följande regler när data infogas i en tabell:
- Alla infogade kolumner måste finnas i måltabellen.
- Alla kolumndatatyper måste matcha kolumndatatyperna i måltabellen.
Kommentar
Azure Databricks försöker på ett säkert sätt omvandla kolumndatatyper så att de matchar måltabellen.
Schemavalidering under MERGE
åtgärder
Azure Databricks tillämpar följande regler när du infogar eller uppdaterar data som en del av en MERGE
åtgärd:
- Om datatypen i källutsatsen inte matchar målkolumnen
MERGE
försöker du på ett säkert sätt omvandla kolumndatatyper så att de matchar måltabellen. - Kolumnerna som är målet för en
UPDATE
åtgärdINSERT
måste finnas i måltabellen. - När du använder
INSERT *
ellerUPDATE SET *
syntax:- Kolumner i källdatauppsättningen som inte finns i måltabellen ignoreras.
- Källdatauppsättningen måste ha alla kolumner som finns i måltabellen.
Ändra ett tabellschema
Du kan uppdatera schemat för en tabell med explicita ALTER TABLE
instruktioner eller automatisk schemautveckling. Se Uppdatera Delta Lake-tabellschema.
Schemautvecklingen har särskilda semantik för MERGE
åtgärder. Se Automatisk schemautveckling för Delta Lake-sammanslagning.
Feedback
https://aka.ms/ContentUserFeedback.
Kommer snart: Under hela 2024 kommer vi att fasa ut GitHub-problem som feedbackmekanism för innehåll och ersätta det med ett nytt feedbacksystem. Mer information finns i:Skicka och visa feedback för