Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En esta página se describen los requisitos y las limitaciones del proceso dedicado. La mayoría de las limitaciones de proceso dedicadas dependen del entorno de ejecución, ya que la compatibilidad con características se ha agregado a lo largo del tiempo.
Importante
Los scripts y bibliotecas de inicialización tienen una compatibilidad diferente en los modos de acceso y las versiones de Databricks Runtime. Consulte ¿Dónde se pueden instalar los scripts de inicialización? y Bibliotecas con ámbito de proceso.
El proceso dedicado asignado a un grupo tiene limitaciones adicionales. Consulte Limitaciones de acceso a grupos.
Compatibilidad con el control de acceso específico
El control de acceso específico se admite en el proceso dedicado con determinados requisitos:
- El área de trabajo debe estar habilitada para el proceso sin servidor.
- Las operaciones de lectura se admiten en Databricks Runtime 15.4 LTS y versiones posteriores.
- Las operaciones de escritura se admiten en Databricks Runtime 16.3 y versiones posteriores. Consulte Compatibilidad con DDL, SHOW, DESCRIBE y otros comandos.
- Si el espacio de trabajo se implementó con un firewall o tiene restricciones de red salientes, debe abrir los puertos 8443 y 8444 para habilitar el control de acceso detallado en recursos computacionales dedicados. Consulte Implementación de Azure Databricks en una red virtual de Azure (inserción en red virtual).
Si el proceso dedicado se ejecuta en Databricks Runtime 15.3 o a continuación:
- No se puede acceder a una tabla que tenga un filtro de fila o una máscara de columna.
- No se puede acceder a vistas dinámicas.
- Para poder leer desde cualquier vista, debe tener
SELECTen todas las tablas y vistas a las que hace referencia la vista.
Requisitos de streaming y vista materializada en el proceso dedicado
- Para consultar una tabla que otro usuario creó mediante canalizaciones declarativas de Spark de Lakeflow, incluidas las tablas de streaming y las vistas materializadas, el área de trabajo debe estar habilitada para el proceso sin servidor y el proceso dedicado debe estar en Databricks Runtime 15.4 o superior.
- Los puntos de comprobación asincrónicos se admiten en Databricks Runtime 12.2 LTS y versiones posteriores.
- El uso
StreamingQueryListenerde para interactuar con objetos administrados por Unity Catalog es compatible con Databricks Runtime 15.1 y versiones posteriores.