Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En este artículo se describe la información del entorno del sistema para la versión 4 del entorno sin servidor.
Para garantizar la compatibilidad con la aplicación, las cargas de trabajo sin servidor usan una API con versiones, conocida como versión del entorno, que sigue siendo compatible con versiones más recientes del servidor.
Puede seleccionar un entorno base que incluya esta versión del entorno mediante el panel lateral Entorno en los cuadernos sin servidor. Consulte Selección de un entorno base.
Nuevas características y mejoras
Las siguientes características y mejoras nuevas están disponibles en el entorno sin servidor 4.
Compatibilidad de Spark ML con proceso sin servidor
El cómputo sin servidor ahora admite Spark ML en PySpark (pyspark.ml) y MLflow con Spark (mlflow.spark) en la versión 4 del entorno. Para el ajuste de hiperparámetros en el proceso sin servidor, Databricks recomienda usar Optuna y Joblib Spark.
Se aplican las siguientes limitaciones al ejecutar SparkML en proceso sin servidor:
- El tamaño máximo del modelo es de 100 MB.
- El tamaño total máximo de modelos en memoria por sesión es de 1 GB.
- El entrenamiento del modelo de árbol se detiene temprano si el tamaño del modelo está a punto de superar los 100 MB.
- No se admiten los siguientes modelos de SparkML:
- DistributedLDAModel
- FPGrowthModel
Las UDF de Python escalares ahora admiten credenciales de servicio
Las UDF escalares de Python pueden usar credenciales de servicio del catálogo de Unity para acceder de forma segura a servicios en la nube externos. Para obtener más información, consulte Credenciales de servicio en UDF escalares de Python.
PySpark y Spark Connect ahora admiten dataframes df.mergeInto API
PySpark y Spark Connect ahora admiten la df.mergeInto API, que anteriormente solo estaba disponible para Scala.
Actualizaciones de API
El entorno sin servidor 4 incluye las siguientes actualizaciones de API:
-
SPARK-50915 Agregar
getConditiony dejar de usargetErrorClassenPySparkException -
SPARK-50719 Compatibilidad con
interruptOperationPySpark -
SPARK-50718 Compatibilidad con
addArtifact(s)PySpark - SPARK-49530 Admite subgráficas de sectores en los gráficos de PySpark
-
SPARK-50357 Soporte para APIs
Interrupt(Tag|All)de PySpark -
SPARK-51178 Generar el error adecuado de PySpark en lugar de
SparkConnectGrpcException -
SPARK-51227 Corrección de PySpark Connect
_minimum_grpc_versiona la versión 1.67.0 -
SPARK-50778 Agregar
metadataColumnal DataFrame de PySpark - SPARK-50311 Soporte para APIs de PySpark
-
SPARK-50310 Adición de una marca para deshabilitar
DataFrameQueryContextpara PySpark - SPARK-50238 Agregar compatibilidad con variantes en UDFs de PySpark/UDTFs/UDAFs y UDFs de Python
- SPARK-50183 Unificar las funciones internas para la API de Pandas y el trazado de PySpark
-
SPARK-50170 Mover
_invoke_internal_function_over_columnsapyspark.sql.utils - SPARK-50167 Mejora de los mensajes de error y las importaciones de gráficos de PySpark
-
SPARK-48961 Hacer que la nomenclatura de parámetros sea
PySparkExceptioncoherente con JVM - SPARK-49567 Uso clásico en lugar de vainilla desde la base de código pySpark
-
SPARK-48755
transformWithStateCompatibilidad yValueStateimplementación base de PySpark -
SPARK-48714 Implementación
DataFrame.mergeIntoen PySpark -
SPARK-47365 Adición
toArrow()del método DataFrame a PySpark - SPARK-48075 Comprobación de tipos para funciones avro de PySpark
-
SPARK-46984 Eliminar
pyspark.copy_func -
SPARK-46213 Introducción
PySparkImportErroral sistema de gestión de errores -
SPARK-46226 Migración del resto
RuntimeErroral marco de errores de PySpark -
SPARK-45450 Corrección de importaciones según PEP8:
pyspark.pandasypyspark(núcleo)
Entorno del sistema
- Sistema operativo: Ubuntu 24.04.2 LTS
- Python: 3.12.3
-
Databricks Connect: 17 (Databricks Connect se actualiza continuamente en la versión más reciente del entorno sin servidor. Ejecute
pip listpara confirmar la versión exacta en el entorno actual). - Scala: 2.13.16
- JDK: 17
Bibliotecas de Python instaladas
Para reproducir el entorno sin servidor 4 en el entorno virtual local de Python, descargue el archivo requirements-env-4.txt y ejecute pip install -r requirements-env-4.txt. Este comando instala todas las bibliotecas de código abierto desde el entorno sin servidor 4.
| Library | Versión | Library | Versión | Library | Versión |
|---|---|---|---|---|---|
| tipos con anotaciones | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | flecha | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | atributos | 24.3.0 |
| autocomando | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob | 12.23.0 | azure-storage-file-datalake (servicio para el almacenamiento de archivos en un lago de datos) | 12.17.0 | Babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | negro | 24.10.0 |
| blanquear | 6.2.0 | intermitente | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools | 5.5.1 | certifi | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | normalizador de conjuntos de caracteres | 3.3.2 |
| clic | 8.1.7 | cloudpickle | 3.0.0 | Comunicación | 0.2.1 |
| contourpy | 1.3.1 | criptografía | 43.0.3 | ciclista | 0.11.0 |
| Cython | 3.0.12 | databricks-connect | 17.2.3 | databricks-sdk (kit de desarrollo de software de Databricks) | 0.49.0 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | decorador | 5.1.1 |
| defusedxml | 0.7.1 | Deprecated | 1.2.13 | distlib | 0.3.9 |
| docstring-to-markdown | 0.11 | Ejecutar | 0.8.3 | Información general sobre facetas | 1.1.1 |
| fastapi | 0.115.12 | fastjsonschema | 2.21.1 | bloqueo de archivo | 3.18.0 |
| fonttools | 4.55.3 | FQDN | 1.5.1 | fsspec | 2023.5.0 |
| gitdb | 4.0.11 | GitPython | 3.1.43 | google-api-core | 2.20.0 |
| google-auth | 2.40.0 | google-cloud-core | 2.4.3 | google-cloud-storage | 3.1.0 |
| google-crc32c | 1.7.1 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.67.0 | grpcio-status | 1.67.0 | h11 | 0.14.0 |
| httpcore | 1.0.2 | httplib2 | 0.20.4 | httpx | 0.27.0 |
| idna | 3.7 | importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 |
| flexionar | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.6.1 | isoduration | 20.11.0 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| Jedi | 0.19.2 | Jinja2 | 3.1.5 | jmespath | 1.0.1 |
| joblib | 1.4.2 | json5 | 0.9.25 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | jsonschema-specifications | 2023.7.1 | jupyter-events | 0.10.0 |
| jupyter-lsp | 2.2.0 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_server | 2.14.1 | jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 |
| kiwisolver | 1.4.8 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 |
| matplotlib | 3.10.0 | matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 |
| mdurl | 0.1.0 | Mal sintonizado | 2.0.4 | mlflow-skinny | 2.22.0 |
| mmh3 | 5.1.0 | more-itertools | 10.3.0 | msal | 1.32.3 |
| msal-extensions | 1.3.1 | mypy-extensions | 1.0.0 | nbclient | 0.8.0 |
| nbconvert | 7.16.4 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | notebook | 7.3.2 | notebook_shim | 0.2.3 |
| numpy | 2.1.3 | oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 |
| opentelemetry-sdk | 1.32.1 | opentelemetry-semantic-conventions | 0,53b1 | Anula | 7.4.0 |
| embalaje | 24.1 | Pandas | 2.2.3 | PandocFiltros | 1.5.0 |
| parso | 0.8.4 | especificación de ruta (pathspec) | 0.10.3 | chivo expiatorio | 1.0.1 |
| pexpect | 4.8.0 | almohada | 11.1.0 | pepita | 25.0.1 |
| platformdirs | 3.10.0 | trazado | 5.24.1 | pluggy | 1.5.0 |
| prometheus_client | 0.21.0 | prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 |
| protobuf | 5.29.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | py4j | 0.10.9.9 |
| pyarrow | 19.0.1 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser | 2.21 | pydantic | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.9.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | pyright | 1.1.394 |
| pyspark | 4.0.0+databricks.connect.17.2.3 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytoolconfig | 1.2.6 | pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | Referencia | 0.30.2 | solicitudes | 2.32.3 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | rico | 13.9.4 |
| cuerda | 1.12.0 | rpds-py | 0.22.3 | RSA | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy | 1.15.1 |
| biblioteca de visualización de datos de Python llamada seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| seis | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | sopasieve | 2,5 | sqlparse | 0.5.3 |
| ssh-import-id | 5,11 | datos en pila | 0.2.0 | starlette | 0.46.2 |
| statsmodels (paquete de Python para análisis estadístico) | 0.14.4 | strictyaml | 1.7.3 | tenacidad | 9.0.0 |
| terminado | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| actualizaciones desatendidas | 0.1 | uri-template | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolores | 24.11.1 | codificaciones web | 0.5.1 |
| websocket-client | 1.8.0 | whatthepatch | 1.0.2 | rueda | 0.45.1 |
| widgetsnbextension | 3.6.6 | envuelto | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 | zstandard | 0.23.0 |
Bibliotecas de Java y Scala instaladas (Scala 2.13)
| Identificador de grupo | Id. de artefacto | Versión |
|---|---|---|
| com.databricks | databricks-connect_2.13 | 17.2.0 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.lihaoyi | ammonite-compiler-interface_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-compiler_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-interp-api_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-interp_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-repl-api_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-repl_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-runtime_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-util_2.13 | 3.0.2 |
| com.lihaoyi | fansi_2.13 | 0.5.0 |
| com.lihaoyi | os-lib_2.13 | 0.11.3 |
| com.lihaoyi | pprint_2.13 | 0.9.0 |
| com.lihaoyi | scalaparse_2.13 | 3.1.1 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| sh.almond | channels_2.13 | 0.14.1-1 |
| sh.almond | interpreter-api_2.13 | 0.14.1-1 |
| sh.almond | interpreter_2.13 | 0.14.1-1 |
| sh.almond | jupyter-api_2.13 | 0.14.1-1 |
| sh.almond | kernel_2.13 | 0.14.1-1 |
| sh.almond | logger_2.13 | 0.14.1-1 |
| sh.almond | protocol_2.13 | 0.14.1-1 |
| sh.almond | scala-interpreter_2.13.16 | 0.14.1-1 |
| sh.almond | scala-kernel_2.13.16 | 0.14.1-1 |
| sh.almond | shared-directives_2.13 | 0.14.1-1 |