Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Estas características y mejoras en la plataforma de Azure Databricks se publicaron en mayo de 2025.
Nota:
Las versiones se almacenan provisionalmente. Es posible que la cuenta de Azure Databricks no se actualice hasta una semana o más después de la fecha de lanzamiento inicial.
Interfaz de usuario mejorada para administrar paneles de cuadernos
30 de mayo de 2025
Navegue rápidamente entre un cuaderno y sus paneles asociados haciendo clic en En la parte superior derecha.
Consulte Navegación entre un panel de control de cuaderno y un cuaderno.
Mejoras de creación de SQL
30 de mayo de 2025
Se realizaron las siguientes mejoras en la experiencia de edición de SQL en el editor y cuadernos de SQL:
- Los filtros aplicados a las tablas de resultados ahora también afectan a las visualizaciones, lo que permite la exploración interactiva sin modificar la consulta o el conjunto de datos subyacentes. Para obtener más información sobre los filtros, consulte Filtrar resultados.
- En un cuaderno de SQL, ahora puede crear una nueva consulta a partir de una tabla o visualización de resultados filtrados. Consulte Creación de una consulta a partir de resultados filtrados.
- Puede mantener el puntero sobre
*
dentro de unaSELECT *
consulta para expandir las columnas de la tabla consultada. - La configuración de formato SQL personalizada ahora está disponible en el nuevo editor de SQL y en el editor de cuadernos. Haga clic en Ver > Configuración del Desarrollador > Formato SQL. Consulte Personalización del formato SQL.
Las vistas de métricas están en versión preliminar pública
29 de mayo de 2025
Las vistas de métricas del catálogo de Unity proporcionan una manera centralizada de definir y administrar métricas empresariales básicas coherentes, reutilizables y reguladas. Abstraen lógica de negocios compleja en una definición centralizada, lo que permite a las organizaciones definir indicadores clave de rendimiento una vez y usarlos de forma coherente en herramientas de informes como paneles, espacios de Genie y alertas. Use un almacenamiento de SQL que se ejecute en el canal de versión preliminar (2025.16) u otro recurso de proceso que ejecute Databricks Runtime 16.4 o posterior para trabajar con vistas de métricas. Ver Vistas de métricas del catálogo de Unity.
Agent Bricks: Knowledge Assistant para bots de chat especializados en dominio está en beta
29 de mayo de 2025
Agent Bricks proporciona un enfoque sencillo y sin código para crear y optimizar sistemas de agentes de inteligencia artificial comunes específicos de un dominio y de alta calidad para casos de uso comunes de inteligencia artificial. En fase Beta, Agent Bricks: Knowledge Assistant permite crear un chatbot de preguntas y respuestas para sus documentos y mejorar su calidad basándose en los comentarios en lenguaje natural de sus expertos en la materia.
Consulte Use Agent Bricks: Knowledge Assistant" para crear un chatbot de alta calidad sobre tus documentos.
La tabla del sistema Workspaces ya está disponible (versión preliminar pública)
28 de mayo de 2025
Ahora puede usar la system.access.workspaces_latest
tabla para supervisar el estado más reciente de todas las áreas de trabajo activas de la cuenta.
Una esta tabla con otras tablas del sistema para analizar la confiabilidad, el rendimiento y el costo en los espacios de trabajo de su cuenta. Consulte Referencia de la tabla del sistema de espacios de trabajo.
Los modelos Claude Sonnet 4 y Claude Opus ya están disponibles en Mosaic AI Model Serving
27 de mayo de 2025
Los modelos Anthropic Claude Sonnet 4 y Anthropic Claude Opus 4 ya están disponibles en Mosaic AI Model Serving como modelos fundacionales alojados en Databricks.
Estos modelos solo están disponibles mediante las API de Foundation Model de pago por token en EE. UU.
Nuevas alertas en beta
22 de mayo de 2025
Ahora hay una nueva versión de las alertas de SQL de Databricks en beta. Puede usar alertas para ejecutar consultas periódicamente, evaluar condiciones definidas y enviar notificaciones si se cumple una condición. Esta versión simplifica la creación y administración de alertas mediante la consolidación de la configuración de consultas, las condiciones, las programaciones y los destinos de notificación en una sola interfaz. Todavía puede usar alertas heredadas junto con la nueva versión. Consulte Alertas de SQL de Databricks.
Actualizaciones del intervalo de direcciones IP públicas salientes para nuestros servicios del plano de control
20 de mayo de 2025
A partir del 20 de mayo de 2025, Azure Databricks implementa nuevos componentes del plano de control para mejorar la seguridad y la disponibilidad de la zona. Como parte de esta actualización, estamos actualizando las direcciones IP públicas de salida (salientes) y las etiquetas de servicio de Azure asociadas para nuestros servicios del plano de control.
Este cambio afecta a los clientes que usan firewalls de recursos para controlar el acceso entrante a sus recursos:
- Si las reglas de firewall hacen referencia a la etiqueta de servicio de Azure Databricks, no se requiere ninguna acción.
- Si las reglas de firewall permiten direcciones IP públicas específicas del plano de control de Azure Databricks, debe:
- Agregue las nuevas direcciones IP públicas del plano de control salientes el 20 de mayo de 2025. Estas direcciones IP se pueden usar el 4 de agosto de 2025.
- Entre el 4 de agosto y el 30 de septiembre de 2025, quite las direcciones IP anteriores del plano de control saliente. No quite las direcciones IP antiguas antes del 4 de agosto, ya que permanecen en uso hasta esa fecha.
Los paneles, las alertas y las consultas se admiten como archivos del área de trabajo.
20 de mayo de 2025
Los paneles, las alertas y las consultas ahora se admiten como archivos de área de trabajo, lo que significa que puede interactuar mediante programación con estos objetos de Databricks, como cualquier otro archivo, desde cualquier lugar en el que esté disponible el sistema de archivos del área de trabajo. Consulte ¿Qué son los archivos del área de trabajo? y Interactúe mediante programación con los archivos del área de trabajo.
La tabla del sistema de canalizaciones ya está disponible (Vista previa pública)
20 de mayo de 2025
La system.lakeflow.pipelines
tabla es una tabla de dimensiones que cambia lentamente (SCD2) que realiza un seguimiento de todas las canalizaciones creadas en la cuenta de Azure Databricks.
Consulte Esquema de tabla de canalizaciones.
Azure Databricks admite el acceso de lectura entre nubes al almacenamiento de AWS S3
20 de mayo de 2025
Use El catálogo de Unity para acceder a todos los datos de S3 y controlarlos desde un entorno seguro de Azure Databricks. No es necesario migrar ni copiar conjuntos de datos. El acceso a S3 es de solo lectura.
Consulte Creación de una credencial de almacenamiento para conectarse a AWS S3 (solo lectura).
Conjuntos de recursos de Databricks en el área de trabajo (versión preliminar pública)
19 de mayo de 2025
La colaboración en Conjuntos de recursos de Databricks con otros usuarios de su organización ahora es más fácil con agrupaciones en el área de trabajo, lo que permite a los usuarios del área de trabajo editar, confirmar, probar e implementar actualizaciones de agrupación a través de la interfaz de usuario.
Consulte Colaboración en agrupaciones en el área de trabajo.
La reparación de tareas de flujo de trabajo ahora respeta las dependencias transitivas
19 de mayo de 2025
Anteriormente, las tareas reparadas se desbloqueaban una vez completadas sus dependencias directas. Ahora, las tareas reparadas esperan a que todas las dependencias transitivas estén listas. Por ejemplo, en un gráfico A → B → C, la reparación de A y C bloqueará C hasta que finalice A.
Aplicaciones de Databricks (disponibles con carácter general)
13 de mayo de 2025
Las aplicaciones de Databricks ahora están disponibles con carácter general (GA). Esta característica le permite compilar y ejecutar aplicaciones interactivas de pila completa directamente en el área de trabajo de Databricks. Las aplicaciones se ejecutan en la infraestructura administrada e se integran con Delta Lake, cuadernos, modelos de ML y catálogo de Unity.
Consulte Aplicaciones de Databricks.
Databricks Runtime 16.4 LTS está disponible de manera general.
13 de mayo de 2025
Databricks Runtime 16.4 y Databricks Runtime 16.4 ML ya están disponibles con carácter general.
Consulte Databricks Runtime 16.4 LTS y Databricks Runtime 16.4 LTS para Machine Learning.
Las cargas de trabajo de CPU para el despliegue de modelos ahora admiten protocolos de seguridad y cumplimiento.
13 de mayo de 2025
Las cargas de trabajo de CPU de servicio de modelos ahora admiten los siguientes estándares de cumplimiento ofrecidos a través del perfil de seguridad de cumplimiento:
- HIPAA
- HITRUST
- PCI-DSS
- Cyber Essentials Plus de Reino Unido
Consulte Estándares de perfil de seguridad de cumplimiento: cargas de trabajo de CPU para la disponibilidad de regiones de estos estándares.
Controlador JDBC de Databricks 2.7.3
12 de mayo de 2025
La versión 2.7.3 de Databricks JDBC Driver ya está disponible para su descarga desde la página de descarga del controlador JDBC.
Esta versión incluye las siguientes mejoras y nuevas características:
- Se ha agregado compatibilidad con la autenticación OAuth 2.0 de Azure Managed Identity. Para habilitarlo, establezca la
Auth_Flow
propiedad en 3. - Se ha agregado compatibilidad con el intercambio de tokens de OAuth para IDP distintos del host. Los tokens de acceso de OAuth (incluido BYOT) se intercambiarán por un token de acceso de Databricks.
- El explorador OAuth (
Auth_Flow=2
) ahora admite el almacenamiento en caché de tokens para sistemas operativos Linux y Mac. - Se ha agregado compatibilidad con los tipos de datos
VOID
,Variant
yTIMESTAMP_NTZ
en las APIgetColumns()
ygetTypeInfo()
. - El controlador ahora enumera las columnas con tipos desconocidos o no admitidos y las asigna a SQL
VARCHAR
en la API degetColumns()
metadatos. - Se ha agregado compatibilidad con dominios de cloud.databricks.us y cloud.databricks.mil al conectarse a Databricks mediante OAuth (
AuthMech=11
). - Actualizado a netty-buffer 4.1.119 y netty-common 4.1.119 (anteriormente 4.1.115).
Esta versión resuelve los siguientes problemas:
- Problemas de compatibilidad al deserializar datos de Apache Arrow con JVMs de Java versión 11 o posterior.
- Problemas con la fecha y la marca de tiempo antes del comienzo del calendario gregoriano al conectarse a versiones específicas de Spark con la serialización del conjunto de resultados Arrow.
Para obtener información completa sobre la configuración, consulte la Guía del controlador JDBC de Databricks instalada con el paquete de descarga de controladores.
Esquema actualizado de tablas del sistema de linaje
11 de mayo de 2025
Las tablas del sistema de linaje (system.access.column_lineage
y system.access.table_lineage
) se han actualizado para mejorar la información de la entidad de registro.
- La columna
entity_metadata
reemplaza aentity_type
,entity_run_id
, yentity_id
, que han quedado en desuso. - La
record_id
columna es una nueva clave principal para el registro de linaje. - La
event_id
columna registra un identificador para el evento de linaje, que puede compartir varias filas si se generaron mediante el mismo evento. - La
statement_id
columna registra el identificador de instrucción de consulta de la consulta que generó el evento de linaje. Es una clave externa que se puede combinar con lasystem.query.history
tabla.
Para obtener un esquema completo de estas tablas, consulte Referencia de tablas del sistema de linaje.
Ahora puede colaborar con varias partes con Azure Databricks Clean Rooms.
14 de mayo de 2025
Azure Databricks Clean Rooms ahora admite:
- Hasta 10 colaboradores para proyectos de datos de varias partes más complejos.
- Nuevo flujo de trabajo de aprobación de notebook que mejora la seguridad y el cumplimiento, permitiendo que los ejecutores designados requieran aprobación explícita antes de la ejecución.
- Opciones de aprobación automática para asociados de confianza.
- Vistas para comparar diferencias que facilitan la revisión y auditoría.
Estas actualizaciones permiten una colaboración más segura, escalable y auditable.
Azure Databricks GitHub App agrega ámbito de flujo de trabajo para admitir la creación de acciones de GitHub
9 de mayo de 2025
Azure Databricks realizó un cambio por el cual usted pueda recibir una solicitud por correo electrónico para el acceso de lectura y escritura a Workflows para la aplicación GitHub de Azure Databricks. Este cambio hace que el ámbito de la aplicación de GitHub de Azure Databricks sea coherente con el ámbito necesario de otros métodos de autenticación admitidos y permite a los usuarios realizar acciones de GitHub desde carpetas de Git de Azure Databricks mediante la aplicación de GitHub de Azure Databricks para su autorización.
Si es el propietario de una cuenta de Azure Databricks donde está instalada y configurada la aplicación de GitHub de Azure Databricks para admitir OAuth, puede recibir la siguiente notificación en un correo electrónico titulado "Databricks está solicitando permisos actualizados" desde GitHub. (Se trata de una solicitud de correo electrónico legítima de Databricks). Acepte los nuevos permisos para habilitar la confirmación de acciones de GitHub desde carpetas de Git de Azure Databricks con la aplicación De GitHub de Databricks.
Aprovisionar automáticamente usuarios (JIT) GA
9 de mayo de 2025
Ahora puede habilitar el aprovisionamiento Just-In-Time (JIT) para crear automáticamente nuevas cuentas de usuario durante la autenticación por primera vez. Cuando un usuario inicia sesión en Azure Databricks por primera vez mediante el inicio de sesión único (SSO), Azure Databricks comprueba si el usuario ya tiene una cuenta. Si no es así, Azure Databricks aprovisiona instantáneamente una nueva cuenta de usuario mediante los detalles del proveedor de identidades. Consulte Aprovisionamiento automático de usuarios (JIT).
Los fragmentos de código de consulta ya están disponibles en el nuevo editor de SQL, cuadernos, archivos y paneles
9 de mayo de 2025
Los fragmentos de código de consulta son segmentos de consultas que puede compartir y desencadenar mediante autocompletar. Ahora puede crear fragmentos de código de consulta a través del menú Ver en el nuevo editor de SQL y también en los editores de cuadernos y archivos. Puede usar los fragmentos de código de consulta en el editor de SQL, las celdas SQL del cuaderno, los archivos SQL y los conjuntos de datos SQL en los tableros de control.
Consulte Fragmentos de código de consulta.
Ahora puede crear vistas en canalizaciones de ETL.
8 de mayo de 2025
El CREATE VIEW
comando SQL ya está disponible en canalizaciones de ETL. Puede crear una vista dinámica de los datos. Consulte CREATE VIEW (Canalizaciones declarativas de Lakeflow).
Configurar el resaltado de sintaxis de Python en cuadernos de Databricks
8 de mayo de 2025
Ahora podemos configurar el resaltado de sintaxis de Python en cuadernos colocando un archivo pyproject.toml
en la ruta de acceso del ancestro del cuaderno o en tu carpeta de inicio. A través del pyproject.toml
archivo, puede configurar ruff
, pylint
, pyright
y flake8
linters, así como deshabilitar reglas específicas de Databricks. Esta configuración es compatible con clústeres que ejecutan Databricks Runtime 16.4 o superior, o cliente 3.0 o superior.
Consulte Configuración del resaltado de sintaxis de Python.
Agente Bricks: LLM personalizado para agentes de generación de texto de inteligencia artificial personalizados está en beta.
7 de mayo de 2025
Agent Bricks proporciona un enfoque sencillo y sin código para crear y optimizar sistemas de agentes de inteligencia artificial comunes específicos de un dominio y de alta calidad para casos de uso comunes de inteligencia artificial. En Beta, Agent Bricks admite la creación de un LLM especializado para tareas personalizadas basadas en texto, como resumen, clasificación, transformación de texto y generación de contenido.
Consulte Use Agent Bricks: Custom LLM para crear un agente de IA generativa para texto.
Los trabajos y las canalizaciones ahora comparten una sola vista unificada (versión preliminar pública)
7 de mayo de 2025
Ahora puede ver todos los flujos de trabajo, incluidos los trabajos, las canalizaciones ETL y las canalizaciones de ingesta, en una única lista unificada. Consulte Visualización de trabajos y canalizaciones.
Optimización predictiva habilitada para todas las cuentas de Azure Databricks existentes
7 de mayo de 2025
A partir del 7 de mayo de 2025, Databricks ha habilitado la optimización predictiva de forma predeterminada para todas las cuentas de Azure Databricks existentes . Esto se implementará gradualmente en función de su región y se completará el 1 de julio de 2025. Cuando se habilita la optimización predictiva, Azure Databricks ejecuta automáticamente operaciones de mantenimiento para tablas administradas de Unity Catalog. Para obtener más información sobre la optimización predictiva, consulte Optimización predictiva para tablas administradas del catálogo de Unity.
Llama 4 Maverick ahora se admite en cargas de trabajo con rendimiento aprovisionado (versión preliminar pública)
5 de mayo de 2025
Llama 4 Maverick ahora se admite en las cargas de trabajo de rendimiento aprovisionado de las API de Foundation Model en versión preliminar pública. Consulte API de Foundation Model de rendimiento aprovisionado.
Consulte Límites de rendimiento aprovisionados para las limitaciones de Llama 4 Maverick durante la versión preliminar.
Póngase en contacto con el equipo de la cuenta de Databricks para participar en la versión preliminar.
Los eventos de archivo para ubicaciones externas mejoran las notificaciones de archivos en el cargador automático y los desencadenadores de llegada de archivos en trabajos (versión preliminar pública)
5 de mayo de 2025
Ahora puede habilitar eventos de archivo en ubicaciones externas definidas en el catálogo de Unity. Esto hace que los desencadenadores de llegada de archivos en trabajos y notificaciones de archivos en Auto Loader sean más escalables y eficientes.
Esta característica está en la versión preliminar pública. La compatibilidad del cargador automático con eventos de archivo requiere la habilitación de un representante de Azure Databricks. Para acceder, póngase en contacto con el equipo de la cuenta de Azure Databricks.
Para obtener más información, consulte lo siguiente:
- (Recomendado) Habilitación de eventos de archivo para una ubicación externa
- Modo de notificación de archivo con y sin eventos de archivo habilitados en ubicaciones externas
- Desencadenar trabajos cuando llegan nuevos archivos
Expansión de la región de servicio del modelo de IA de mosaico
5 de mayo de 2025
Mosaic AI Model Serving ya está disponible en las siguientes regiones:
eastasia
francecentral
germanywestcentral
koreacentral
swedencentral
switzerlandnorth
uaenorth
westus3
Consulte Model serving regional availability (Modelo que atiende la disponibilidad regional).
Las tablas del sistema de trabajos (versión preliminar pública) están habilitadas de forma predeterminada.
1 de mayo de 2025
El system.lakeflow
esquema, que contiene tablas del sistema relacionadas con trabajos, ahora está habilitado de forma predeterminada en todas las áreas de trabajo del Catálogo de Unity. Vea tabla de referencia del sistema de trabajos.