Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En este artículo se describe la información del entorno del sistema para la versión 4 del entorno sin servidor.
Para garantizar la compatibilidad con la aplicación, las cargas de trabajo sin servidor usan una API con versiones, conocida como versión del entorno, que sigue siendo compatible con versiones más recientes del servidor.
Puede seleccionar la versión del entorno mediante el panel lateral Entorno en los cuadernos sin servidor. Consulte Selección de una versión del entorno.
Nuevas características y mejoras
Las siguientes características y mejoras nuevas están disponibles en el entorno sin servidor 4.
Compatibilidad de Spark ML con proceso sin servidor
El cómputo sin servidor ahora admite Spark ML en PySpark (pyspark.ml) y MLflow con Spark (mlflow.spark) en la versión 4 del entorno. Para el ajuste de hiperparámetros en el proceso sin servidor, Databricks recomienda usar Optuna y Joblib Spark.
Se aplican las siguientes limitaciones al ejecutar SparkML en proceso sin servidor:
- El tamaño máximo del modelo es de 100 MB.
- El tamaño total máximo de modelos en memoria por sesión es de 1 GB.
- El entrenamiento del modelo de árbol se detiene temprano si el tamaño del modelo está a punto de superar los 100 MB.
- No se admiten los siguientes modelos de SparkML:
- DistributedLDAModel
- FPGrowthModel
Las UDF de Python escalares ahora admiten credenciales de servicio
Las UDF escalares de Python pueden usar credenciales de servicio del catálogo de Unity para acceder de forma segura a servicios en la nube externos. Para obtener más información, consulte Credenciales de servicio en UDF escalares de Python.
PySpark y Spark Connect ahora admiten dataframes df.mergeInto API
PySpark y Spark Connect ahora admiten la df.mergeInto API, que anteriormente solo estaba disponible para Scala.
Actualizaciones de API
El entorno sin servidor 4 incluye las siguientes actualizaciones de API:
-
SPARK-50915 Agregar
getConditiony dejar de usargetErrorClassenPySparkException -
SPARK-50719 Compatibilidad con
interruptOperationPySpark -
SPARK-50718 Compatibilidad con
addArtifact(s)PySpark - SPARK-49530 Compatibilidad con sublotes circulares en trazado de PySpark
-
SPARK-50357 API de soporte
Interrupt(Tag|All)técnico para PySpark -
SPARK-51178 Generar el error adecuado de PySpark en lugar de
SparkConnectGrpcException -
SPARK-51227 Corrección de PySpark Connect
_minimum_grpc_versiona la versión 1.67.0 -
SPARK-50778 Agregar
metadataColumna DataFrame de PySpark -
SPARK-50311 API de soporte
(add|remove|get|clear)Tag(s)técnico para PySpark -
SPARK-50310 Adición de una marca para deshabilitar
DataFrameQueryContextpara PySpark - SPARK-50238 Agregar compatibilidad con variantes en UDF de PySpark/UDTFs/UDAFs y UDF de PYTHON
- SPARK-50183 Unificar las funciones internas para la API de Pandas y el trazado de PySpark
-
SPARK-50170 Mover
_invoke_internal_function_over_columnsapyspark.sql.utils - SPARK-50167 Mejora de los mensajes de error y las importaciones de trazado de PySpark
-
SPARK-48961 Hacer que la nomenclatura de parámetros sea
PySparkExceptioncoherente con JVM - SPARK-49567 Uso clásico en lugar de vainilla desde la base de código pySpark
-
SPARK-48755
transformWithStateCompatibilidad yValueStateimplementación base de PySpark -
SPARK-48714 Implementación
DataFrame.mergeIntoen PySpark -
SPARK-47365 Adición
toArrow()del método DataFrame a PySpark - SPARK-48075 Comprobación de tipos para funciones avro de PySpark
-
SPARK-46984 Eliminar
pyspark.copy_func -
SPARK-46213 Introducción
PySparkImportErroral marco de error -
SPARK-46226 Migración del resto
RuntimeErroral marco de errores de PySpark -
SPARK-45450 Corrección de importaciones según PEP8:
pyspark.pandasypyspark(núcleo)
Entorno del sistema
- Sistema operativo: Ubuntu 24.04.2 LTS
- Python: 3.12.3
-
Databricks Connect: 17 (Databricks Connect se actualiza continuamente en la versión más reciente del entorno sin servidor. Ejecute
pip listpara confirmar la versión exacta en el entorno actual). - Scala: 2.13.16
- JDK: 17
Bibliotecas de Python instaladas
Para reproducir el entorno sin servidor 4 en el entorno virtual local de Python, descargue el archivo requirements-env-4.txt y ejecute pip install -r requirements-env-4.txt. Este comando instala todas las bibliotecas de código abierto desde el entorno sin servidor 4.
| Library | Versión | Library | Versión | Library | Versión |
|---|---|---|---|---|---|
| tipos anotados | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | flecha | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | attrs | 24.3.0 |
| autocomando | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob | 12.23.0 | azure-storage-file-datalake | 12.17.0 | Babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | negro | 24.10.0 |
| blanquear | 6.2.0 | intermitente | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools | 5.5.1 | certifi | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | charset-normalizer | 3.3.2 |
| clic | 8.1.7 | cloudpickle | 3.0.0 | Comm | 0.2.1 |
| contourpy | 1.3.1 | criptografía | 43.0.3 | ciclista | 0.11.0 |
| Cython | 3.0.12 | databricks-connect | 17.2.3 | databricks-sdk | 0.49.0 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | decorador | 5.1.1 |
| defusedxml | 0.7.1 | Deprecated | 1.2.13 | distlib | 0.3.9 |
| docstring-to-markdown | 0.11 | Ejecutar | 0.8.3 | información general sobre facetas | 1.1.1 |
| fastapi | 0.115.12 | fastjsonschema | 2.21.1 | filelock | 3.18.0 |
| fonttools | 4.55.3 | Fqdn | 1.5.1 | fsspec | 2023.5.0 |
| gitdb | 4.0.11 | GitPython | 3.1.43 | google-api-core | 2.20.0 |
| google-auth | 2.40.0 | google-cloud-core | 2.4.3 | google-cloud-storage | 3.1.0 |
| google-crc32c | 1.7.1 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.67.0 | grpcio-status | 1.67.0 | h11 | 0.14.0 |
| httpcore | 1.0.2 | httplib2 | 0.20.4 | httpx | 0.27.0 |
| idna | 3.7 | importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 |
| declinar | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.6.1 | isoduration | 20.11.0 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| Jedi | 0.19.2 | Jinja2 | 3.1.5 | jmespath | 1.0.1 |
| joblib | 1.4.2 | json5 | 0.9.25 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | jsonschema-specifications | 2023.7.1 | jupyter-events | 0.10.0 |
| jupyter-lsp | 2.2.0 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_server | 2.14.1 | jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 |
| kiwisolver | 1.4.8 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | markdown:it-py | 2.2.0 | MarkupSafe | 3.0.2 |
| matplotlib | 3.10.0 | matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 |
| mdurl | 0.1.0 | Mal sintonizado | 2.0.4 | mlflow-skinny | 2.22.0 |
| mmh3 | 5.1.0 | more-itertools | 10.3.0 | msal | 1.32.3 |
| msal-extensions | 1.3.1 | mypy-extensions | 1.0.0 | nbclient | 0.8.0 |
| nbconvert | 7.16.4 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | notebook | 7.3.2 | notebook_shim | 0.2.3 |
| numpy | 2.1.3 | oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 |
| opentelemetry-sdk | 1.32.1 | opentelemetry-semantic-conventions | 0,53b1 | Reemplaza | 7.4.0 |
| embalaje | 24.1 | Pandas | 2.2.3 | PandocFiltros | 1.5.0 |
| parso | 0.8.4 | pathspec | 0.10.3 | chivo expiatorio | 1.0.1 |
| pexpect | 4.8.0 | almohada | 11.1.0 | pepita | 25.0.1 |
| platformdirs | 3.10.0 | trazado | 5.24.1 | pluggy | 1.5.0 |
| prometheus_client | 0.21.0 | prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 |
| protobuf | 5.29.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | py4j | 0.10.9.9 |
| pyarrow | 19.0.1 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser | 2.21 | pydantic | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.9.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | pyright | 1.1.394 |
| pyspark | 4.0.0+databricks.connect.17.2.3 | pytest | 8.3.5 | Python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytoolconfig | 1.2.6 | pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | Referencia | 0.30.2 | requests | 2.32.3 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | rico | 13.9.4 |
| cuerda | 1.12.0 | rpds-py | 0.22.3 | RSA | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy | 1.15.1 |
| biblioteca de visualización de datos de Python llamada seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| six (seis) | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | sopasieve | 2,5 | sqlparse | 0.5.3 |
| ssh-import-id | 5,11 | stack-data | 0.2.0 | starlette | 0.46.2 |
| statsmodels (paquete de Python para análisis estadístico) | 0.14.4 | strictyaml | 1.7.3 | tenacidad | 9.0.0 |
| terminado | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| actualizaciones desatendidas | 0.1 | uri-template | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolores | 24.11.1 | codificaciones web | 0.5.1 |
| websocket-client | 1.8.0 | whatthepatch | 1.0.2 | rueda | 0.45.1 |
| widgetsnbextension | 3.6.6 | envuelto | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 | zstandard | 0.23.0 |
Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.13)
| Identificador de grupo | Id. de artefacto | Versión |
|---|---|---|
| com.databricks | databricks-connect_2.13 | 17.2.0 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.lihaoyi | ammonite-compiler-interface_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-compiler_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-interp-api_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-interp_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-repl-api_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-repl_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-runtime_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-util_2.13 | 3.0.2 |
| com.lihaoyi | fansi_2.13 | 0.5.0 |
| com.lihaoyi | os-lib_2.13 | 0.11.3 |
| com.lihaoyi | pprint_2.13 | 0.9.0 |
| com.lihaoyi | scalaparse_2.13 | 3.1.1 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| sh.almond | channels_2.13 | 0.14.1-1 |
| sh.almond | interpreter-api_2.13 | 0.14.1-1 |
| sh.almond | interpreter_2.13 | 0.14.1-1 |
| sh.almond | jupyter-api_2.13 | 0.14.1-1 |
| sh.almond | kernel_2.13 | 0.14.1-1 |
| sh.almond | logger_2.13 | 0.14.1-1 |
| sh.almond | protocol_2.13 | 0.14.1-1 |
| sh.almond | scala-interpreter_2.13.16 | 0.14.1-1 |
| sh.almond | scala-kernel_2.13.16 | 0.14.1-1 |
| sh.almond | shared-directives_2.13 | 0.14.1-1 |