Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En esta página se describen los requisitos y las limitaciones de la computación dedicada. La mayoría de las limitaciones de cálculo dedicadas dependen del entorno de ejecución, ya que el soporte de funciones se ha agregado a lo largo del tiempo.
Importante
Los scripts y bibliotecas de inicialización tienen una compatibilidad diferente en los modos de acceso y las versiones de Databricks Runtime. Consulte ¿Dónde se pueden instalar los scripts de inicialización? y Bibliotecas con ámbito de proceso.
El cómputo dedicado asignado a un grupo tiene limitaciones adicionales. Consulte Limitaciones de acceso a grupos.
Soporte para control de acceso granular
El control de acceso de grano fino es compatible con computación dedicada con ciertos requisitos.
- El área de trabajo debe estar habilitada para la computación serverless.
- Las operaciones de lectura se admiten en Databricks Runtime 15.4 LTS y versiones posteriores.
- Las operaciones de escritura se admiten en Databricks Runtime 16.3 y versiones posteriores. Consulte Compatibilidad con DDL, SHOW, DESCRIBE y otros comandos.
- Si el área de trabajo se implementó con un firewall o tiene restricciones de red salientes, debe abrir los puertos 8443-8451 para habilitar el control de acceso específico para recursos de cómputo dedicados. Consulte Implementación de Azure Databricks en una red virtual de Azure (inserción en red virtual).
Si tu computación dedicada se ejecuta en Databricks Runtime 15.3 o versiones anteriores:
- No se puede acceder a una tabla que tenga un filtro de fila o una máscara de columna.
- No se puede acceder a vistas dinámicas.
- Para poder leer desde cualquier vista, debe tener
SELECTen todas las tablas y vistas a las que hace referencia la vista.
Requisitos de streaming y vista materializada en la computación dedicada
- Para consultar una tabla que otro usuario creó mediante canalizaciones declarativas de Spark de Lakeflow, incluida la tabla de streaming y la vista materializada, el área de trabajo debe estar habilitada para la computación sin servidor y el cómputo dedicado debe estar en Databricks Runtime 15.4 o superior. Consulte Uso de tablas de streaming en Databricks SQL y Uso de vistas materializadas en Databricks SQL.
- Los puntos de comprobación asincrónicos se admiten en Databricks Runtime 12.2 LTS y versiones posteriores.
- El uso
StreamingQueryListenerde para interactuar con objetos administrados por Unity Catalog es compatible con Databricks Runtime 15.1 y versiones posteriores. - Python
foreachBatchno admiteThreadPoolExecutorni ejecución multiproceso. La ejecución multiproceso puede no producir errores, pero puede provocar daños en los datos o resultados incoherentes.