Compartir a través de


Mayo de 2025

Estas características y mejoras en la plataforma de Azure Databricks se publicaron en mayo de 2025.

Nota:

Las versiones se almacenan provisionalmente. Es posible que la cuenta de Azure Databricks no se actualice hasta una semana o más después de la fecha de lanzamiento inicial.

Interfaz de usuario mejorada para administrar paneles de cuadernos

30 de mayo de 2025

Navegue rápidamente entre un cuaderno y sus paneles asociados haciendo clic en icono Panel. En la parte superior derecha.

Consulte Navegación entre un panel de control de cuaderno y un cuaderno.

Mejoras de creación de SQL

30 de mayo de 2025

Se realizaron las siguientes mejoras en la experiencia de edición de SQL en el editor y cuadernos de SQL:

  • Los filtros aplicados a las tablas de resultados ahora también afectan a las visualizaciones, lo que permite la exploración interactiva sin modificar la consulta o el conjunto de datos subyacentes. Para obtener más información sobre los filtros, consulte Filtrar resultados.
  • En un cuaderno de SQL, ahora puede crear una nueva consulta a partir de una tabla o visualización de resultados filtrados. Consulte Creación de una consulta a partir de resultados filtrados.
  • Puede mantener el puntero sobre * dentro de una SELECT * consulta para expandir las columnas de la tabla consultada.
  • La configuración de formato SQL personalizada ahora está disponible en el nuevo editor de SQL y en el editor de cuadernos. Haga clic en Ver > Configuración del Desarrollador > Formato SQL. Consulte Personalización del formato SQL.

Las vistas de métricas están en versión preliminar pública

29 de mayo de 2025

Las vistas de métricas del catálogo de Unity proporcionan una manera centralizada de definir y administrar métricas empresariales básicas coherentes, reutilizables y reguladas. Abstraen lógica de negocios compleja en una definición centralizada, lo que permite a las organizaciones definir indicadores clave de rendimiento una vez y usarlos de forma coherente en herramientas de informes como paneles, espacios de Genie y alertas. Use un almacenamiento de SQL que se ejecute en el canal de versión preliminar (2025.16) u otro recurso de proceso que ejecute Databricks Runtime 16.4 o posterior para trabajar con vistas de métricas. Ver Vistas de métricas del catálogo de Unity.

Agent Bricks: Knowledge Assistant para bots de chat especializados en dominio está en beta

29 de mayo de 2025

Agent Bricks proporciona un enfoque sencillo y sin código para crear y optimizar sistemas de agentes de inteligencia artificial comunes específicos de un dominio y de alta calidad para casos de uso comunes de inteligencia artificial. En fase Beta, Agent Bricks: Knowledge Assistant permite crear un chatbot de preguntas y respuestas para sus documentos y mejorar su calidad basándose en los comentarios en lenguaje natural de sus expertos en la materia.

Consulte Use Agent Bricks: Knowledge Assistant" para crear un chatbot de alta calidad sobre tus documentos.

La tabla del sistema Workspaces ya está disponible (versión preliminar pública)

28 de mayo de 2025

Ahora puede usar la system.access.workspaces_latest tabla para supervisar el estado más reciente de todas las áreas de trabajo activas de la cuenta.

Una esta tabla con otras tablas del sistema para analizar la confiabilidad, el rendimiento y el costo en los espacios de trabajo de su cuenta. Consulte Referencia de la tabla del sistema de espacios de trabajo.

Los modelos Claude Sonnet 4 y Claude Opus ya están disponibles en Mosaic AI Model Serving

27 de mayo de 2025

Los modelos Anthropic Claude Sonnet 4 y Anthropic Claude Opus 4 ya están disponibles en Mosaic AI Model Serving como modelos fundacionales alojados en Databricks.

Estos modelos solo están disponibles mediante las API de Foundation Model de pago por token en EE. UU.

Nuevas alertas en beta

22 de mayo de 2025

Ahora hay una nueva versión de las alertas de SQL de Databricks en beta. Puede usar alertas para ejecutar consultas periódicamente, evaluar condiciones definidas y enviar notificaciones si se cumple una condición. Esta versión simplifica la creación y administración de alertas mediante la consolidación de la configuración de consultas, las condiciones, las programaciones y los destinos de notificación en una sola interfaz. Todavía puede usar alertas heredadas junto con la nueva versión. Consulte Alertas de SQL de Databricks.

Actualizaciones del intervalo de direcciones IP públicas salientes para nuestros servicios del plano de control

20 de mayo de 2025

A partir del 20 de mayo de 2025, Azure Databricks implementa nuevos componentes del plano de control para mejorar la seguridad y la disponibilidad de la zona. Como parte de esta actualización, estamos actualizando las direcciones IP públicas de salida (salientes) y las etiquetas de servicio de Azure asociadas para nuestros servicios del plano de control.

Este cambio afecta a los clientes que usan firewalls de recursos para controlar el acceso entrante a sus recursos:

  • Si las reglas de firewall hacen referencia a la etiqueta de servicio de Azure Databricks, no se requiere ninguna acción.
  • Si las reglas de firewall permiten direcciones IP públicas específicas del plano de control de Azure Databricks, debe:

Los paneles, las alertas y las consultas se admiten como archivos del área de trabajo.

20 de mayo de 2025

Los paneles, las alertas y las consultas ahora se admiten como archivos de área de trabajo, lo que significa que puede interactuar mediante programación con estos objetos de Databricks, como cualquier otro archivo, desde cualquier lugar en el que esté disponible el sistema de archivos del área de trabajo. Consulte ¿Qué son los archivos del área de trabajo? y Interactúe mediante programación con los archivos del área de trabajo.

La tabla del sistema de canalizaciones ya está disponible (Vista previa pública)

20 de mayo de 2025

La system.lakeflow.pipelines tabla es una tabla de dimensiones que cambia lentamente (SCD2) que realiza un seguimiento de todas las canalizaciones creadas en la cuenta de Azure Databricks.

Consulte Esquema de tabla de canalizaciones.

Azure Databricks admite el acceso de lectura entre nubes al almacenamiento de AWS S3

20 de mayo de 2025

Use El catálogo de Unity para acceder a todos los datos de S3 y controlarlos desde un entorno seguro de Azure Databricks. No es necesario migrar ni copiar conjuntos de datos. El acceso a S3 es de solo lectura.

Consulte Creación de una credencial de almacenamiento para conectarse a AWS S3 (solo lectura).

Conjuntos de recursos de Databricks en el área de trabajo (versión preliminar pública)

19 de mayo de 2025

La colaboración en Conjuntos de recursos de Databricks con otros usuarios de su organización ahora es más fácil con agrupaciones en el área de trabajo, lo que permite a los usuarios del área de trabajo editar, confirmar, probar e implementar actualizaciones de agrupación a través de la interfaz de usuario.

Consulte Colaboración en agrupaciones en el área de trabajo.

La reparación de tareas de flujo de trabajo ahora respeta las dependencias transitivas

19 de mayo de 2025

Anteriormente, las tareas reparadas se desbloqueaban una vez completadas sus dependencias directas. Ahora, las tareas reparadas esperan a que todas las dependencias transitivas estén listas. Por ejemplo, en un gráfico A → B → C, la reparación de A y C bloqueará C hasta que finalice A.

Aplicaciones de Databricks (disponibles con carácter general)

13 de mayo de 2025

Las aplicaciones de Databricks ahora están disponibles con carácter general (GA). Esta característica le permite compilar y ejecutar aplicaciones interactivas de pila completa directamente en el área de trabajo de Databricks. Las aplicaciones se ejecutan en la infraestructura administrada e se integran con Delta Lake, cuadernos, modelos de ML y catálogo de Unity.

Consulte Aplicaciones de Databricks.

Databricks Runtime 16.4 LTS está disponible de manera general.

13 de mayo de 2025

Databricks Runtime 16.4 y Databricks Runtime 16.4 ML ya están disponibles con carácter general.

Consulte Databricks Runtime 16.4 LTS y Databricks Runtime 16.4 LTS para Machine Learning.

Las cargas de trabajo de CPU para el despliegue de modelos ahora admiten protocolos de seguridad y cumplimiento.

13 de mayo de 2025

Las cargas de trabajo de CPU de servicio de modelos ahora admiten los siguientes estándares de cumplimiento ofrecidos a través del perfil de seguridad de cumplimiento:

  • HIPAA
  • HITRUST
  • PCI-DSS
  • Cyber Essentials Plus de Reino Unido

Consulte Estándares de perfil de seguridad de cumplimiento: cargas de trabajo de CPU para la disponibilidad de regiones de estos estándares.

Controlador JDBC de Databricks 2.7.3

12 de mayo de 2025

La versión 2.7.3 de Databricks JDBC Driver ya está disponible para su descarga desde la página de descarga del controlador JDBC.

Esta versión incluye las siguientes mejoras y nuevas características:

  • Se ha agregado compatibilidad con la autenticación OAuth 2.0 de Azure Managed Identity. Para habilitarlo, establezca la Auth_Flow propiedad en 3.
  • Se ha agregado compatibilidad con el intercambio de tokens de OAuth para IDP distintos del host. Los tokens de acceso de OAuth (incluido BYOT) se intercambiarán por un token de acceso de Databricks.
  • El explorador OAuth (Auth_Flow=2) ahora admite el almacenamiento en caché de tokens para sistemas operativos Linux y Mac.
  • Se ha agregado compatibilidad con los tipos de datos VOID, Variant y TIMESTAMP_NTZ en las API getColumns() y getTypeInfo().
  • El controlador ahora enumera las columnas con tipos desconocidos o no admitidos y las asigna a SQL VARCHAR en la API de getColumns() metadatos.
  • Se ha agregado compatibilidad con dominios de cloud.databricks.us y cloud.databricks.mil al conectarse a Databricks mediante OAuth (AuthMech=11).
  • Actualizado a netty-buffer 4.1.119 y netty-common 4.1.119 (anteriormente 4.1.115).

Esta versión resuelve los siguientes problemas:

  • Problemas de compatibilidad al deserializar datos de Apache Arrow con JVMs de Java versión 11 o posterior.
  • Problemas con la fecha y la marca de tiempo antes del comienzo del calendario gregoriano al conectarse a versiones específicas de Spark con la serialización del conjunto de resultados Arrow.

Para obtener información completa sobre la configuración, consulte la Guía del controlador JDBC de Databricks instalada con el paquete de descarga de controladores.

Esquema actualizado de tablas del sistema de linaje

11 de mayo de 2025

Las tablas del sistema de linaje (system.access.column_lineage y system.access.table_lineage) se han actualizado para mejorar la información de la entidad de registro.

  • La columna entity_metadata reemplaza a entity_type, entity_run_id, y entity_id, que han quedado en desuso.
  • La record_id columna es una nueva clave principal para el registro de linaje.
  • La event_id columna registra un identificador para el evento de linaje, que puede compartir varias filas si se generaron mediante el mismo evento.
  • La statement_id columna registra el identificador de instrucción de consulta de la consulta que generó el evento de linaje. Es una clave externa que se puede combinar con la system.query.history tabla.

Para obtener un esquema completo de estas tablas, consulte Referencia de tablas del sistema de linaje.

Ahora puede colaborar con varias partes con Azure Databricks Clean Rooms.

14 de mayo de 2025

Azure Databricks Clean Rooms ahora admite:

  • Hasta 10 colaboradores para proyectos de datos de varias partes más complejos.
  • Nuevo flujo de trabajo de aprobación de notebook que mejora la seguridad y el cumplimiento, permitiendo que los ejecutores designados requieran aprobación explícita antes de la ejecución.
  • Opciones de aprobación automática para asociados de confianza.
  • Vistas para comparar diferencias que facilitan la revisión y auditoría.

Estas actualizaciones permiten una colaboración más segura, escalable y auditable.

Azure Databricks GitHub App agrega ámbito de flujo de trabajo para admitir la creación de acciones de GitHub

9 de mayo de 2025

Azure Databricks realizó un cambio por el cual usted pueda recibir una solicitud por correo electrónico para el acceso de lectura y escritura a Workflows para la aplicación GitHub de Azure Databricks. Este cambio hace que el ámbito de la aplicación de GitHub de Azure Databricks sea coherente con el ámbito necesario de otros métodos de autenticación admitidos y permite a los usuarios realizar acciones de GitHub desde carpetas de Git de Azure Databricks mediante la aplicación de GitHub de Azure Databricks para su autorización.

Si es el propietario de una cuenta de Azure Databricks donde está instalada y configurada la aplicación de GitHub de Azure Databricks para admitir OAuth, puede recibir la siguiente notificación en un correo electrónico titulado "Databricks está solicitando permisos actualizados" desde GitHub. (Se trata de una solicitud de correo electrónico legítima de Databricks). Acepte los nuevos permisos para habilitar la confirmación de acciones de GitHub desde carpetas de Git de Azure Databricks con la aplicación De GitHub de Databricks.

La imagen de correo electrónico que puede recibir cuando la aplicación de GitHub de Databricks solicita acceso a los workflows

Aprovisionar automáticamente usuarios (JIT) GA

9 de mayo de 2025

Ahora puede habilitar el aprovisionamiento Just-In-Time (JIT) para crear automáticamente nuevas cuentas de usuario durante la autenticación por primera vez. Cuando un usuario inicia sesión en Azure Databricks por primera vez mediante el inicio de sesión único (SSO), Azure Databricks comprueba si el usuario ya tiene una cuenta. Si no es así, Azure Databricks aprovisiona instantáneamente una nueva cuenta de usuario mediante los detalles del proveedor de identidades. Consulte Aprovisionamiento automático de usuarios (JIT).

Los fragmentos de código de consulta ya están disponibles en el nuevo editor de SQL, cuadernos, archivos y paneles

9 de mayo de 2025

Los fragmentos de código de consulta son segmentos de consultas que puede compartir y desencadenar mediante autocompletar. Ahora puede crear fragmentos de código de consulta a través del menú Ver en el nuevo editor de SQL y también en los editores de cuadernos y archivos. Puede usar los fragmentos de código de consulta en el editor de SQL, las celdas SQL del cuaderno, los archivos SQL y los conjuntos de datos SQL en los tableros de control.

Consulte Fragmentos de código de consulta.

Ahora puede crear vistas en canalizaciones de ETL.

8 de mayo de 2025

El CREATE VIEW comando SQL ya está disponible en canalizaciones de ETL. Puede crear una vista dinámica de los datos. Consulte CREATE VIEW (Canalizaciones declarativas de Lakeflow).

Configurar el resaltado de sintaxis de Python en cuadernos de Databricks

8 de mayo de 2025

Ahora podemos configurar el resaltado de sintaxis de Python en cuadernos colocando un archivo pyproject.toml en la ruta de acceso del ancestro del cuaderno o en tu carpeta de inicio. A través del pyproject.toml archivo, puede configurar ruff, pylint, pyrighty flake8 linters, así como deshabilitar reglas específicas de Databricks. Esta configuración es compatible con clústeres que ejecutan Databricks Runtime 16.4 o superior, o cliente 3.0 o superior.

Consulte Configuración del resaltado de sintaxis de Python.

Agente Bricks: LLM personalizado para agentes de generación de texto de inteligencia artificial personalizados está en beta.

7 de mayo de 2025

Agent Bricks proporciona un enfoque sencillo y sin código para crear y optimizar sistemas de agentes de inteligencia artificial comunes específicos de un dominio y de alta calidad para casos de uso comunes de inteligencia artificial. En Beta, Agent Bricks admite la creación de un LLM especializado para tareas personalizadas basadas en texto, como resumen, clasificación, transformación de texto y generación de contenido.

Consulte Use Agent Bricks: Custom LLM para crear un agente de IA generativa para texto.

Los trabajos y las canalizaciones ahora comparten una sola vista unificada (versión preliminar pública)

7 de mayo de 2025

Ahora puede ver todos los flujos de trabajo, incluidos los trabajos, las canalizaciones ETL y las canalizaciones de ingesta, en una única lista unificada. Consulte Visualización de trabajos y canalizaciones.

Optimización predictiva habilitada para todas las cuentas de Azure Databricks existentes

7 de mayo de 2025

A partir del 7 de mayo de 2025, Databricks ha habilitado la optimización predictiva de forma predeterminada para todas las cuentas de Azure Databricks existentes . Esto se implementará gradualmente en función de su región y se completará el 1 de julio de 2025. Cuando se habilita la optimización predictiva, Azure Databricks ejecuta automáticamente operaciones de mantenimiento para tablas administradas de Unity Catalog. Para obtener más información sobre la optimización predictiva, consulte Optimización predictiva para tablas administradas del catálogo de Unity.

Llama 4 Maverick ahora se admite en cargas de trabajo con rendimiento aprovisionado (versión preliminar pública)

5 de mayo de 2025

Llama 4 Maverick ahora se admite en las cargas de trabajo de rendimiento aprovisionado de las API de Foundation Model en versión preliminar pública. Consulte API de Foundation Model de rendimiento aprovisionado.

Consulte Límites de rendimiento aprovisionados para las limitaciones de Llama 4 Maverick durante la versión preliminar.

Póngase en contacto con el equipo de la cuenta de Databricks para participar en la versión preliminar.

Los eventos de archivo para ubicaciones externas mejoran las notificaciones de archivos en el cargador automático y los desencadenadores de llegada de archivos en trabajos (versión preliminar pública)

5 de mayo de 2025

Ahora puede habilitar eventos de archivo en ubicaciones externas definidas en el catálogo de Unity. Esto hace que los desencadenadores de llegada de archivos en trabajos y notificaciones de archivos en Auto Loader sean más escalables y eficientes.

Esta característica está en la versión preliminar pública. La compatibilidad del cargador automático con eventos de archivo requiere la habilitación de un representante de Azure Databricks. Para acceder, póngase en contacto con el equipo de la cuenta de Azure Databricks.

Para obtener más información, consulte lo siguiente:

Expansión de la región de servicio del modelo de IA de mosaico

5 de mayo de 2025

Mosaic AI Model Serving ya está disponible en las siguientes regiones:

  • eastasia
  • francecentral
  • germanywestcentral
  • koreacentral
  • swedencentral
  • switzerlandnorth
  • uaenorth
  • westus3

Consulte Model serving regional availability (Modelo que atiende la disponibilidad regional).

Las tablas del sistema de trabajos (versión preliminar pública) están habilitadas de forma predeterminada.

1 de mayo de 2025

El system.lakeflow esquema, que contiene tablas del sistema relacionadas con trabajos, ahora está habilitado de forma predeterminada en todas las áreas de trabajo del Catálogo de Unity. Vea tabla de referencia del sistema de trabajos.