Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Delta Lake es una capa de almacenamiento de código abierto que aporta confiabilidad a los lagos de datos. Delta Lake proporciona transacciones ACID, control escalable de metadatos y unifica el procesamiento de datos de streaming y por lotes. Delta Lake se ejecuta sobre su lago de datos existente y es totalmente compatible con las API de Apache Spark.
Consulte el sitio web de Delta Lake para obtener referencias de API para Scala, Java y Python.
Para aprender a usar las API de Delta Lake en Azure Databricks, consulte:
Consulte también la documentación de Delta Lake API en la documentación de Azure Databricks.