Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Este artigo descreve as informações de ambiente do sistema para o ambiente sem servidor versão 4.
Para garantir a compatibilidade com o aplicativo, as cargas de trabalho sem servidor usam uma API com versão, conhecida como a versão do ambiente, que permanece compatível com versões de servidor mais recentes.
Você pode selecionar a versão do ambiente usando o painel lateral ambiente em seus blocos de anotações sem servidor. Consulte Selecionar uma versão do ambiente.
Novos recursos e melhorias
Os novos recursos e melhorias a seguir estão disponíveis no ambiente sem servidor 4.
Suporte ao Spark ML na computação sem servidor
A computação sem servidor agora dá suporte ao Spark ML no PySpark (pyspark.ml) e ao MLflow para Spark (mlflow.spark) no ambiente versão 4. Para ajuste de hiperparâmetro na computação sem servidor, o Databricks recomenda usar o Optuna e o Joblib Spark.
As seguintes limitações se aplicam ao executar o SparkML na computação sem servidor:
- O tamanho máximo do modelo é de 100 MB.
- O tamanho total máximo de modelos na memória por sessão é de 1 GB.
- O treinamento do modelo de árvore será interrompido mais cedo se o tamanho do modelo estiver prestes a exceder 100 MB.
- Não há suporte para os seguintes modelos SparkML:
- Modelo LDA Distribuído
- FPGrowthModel
As UDFs escalares do Python agora dão suporte a credenciais de serviço
UDFs escalares do Python podem usar credenciais de serviço do Catálogo do Unity para acessar com segurança serviços de nuvem externos. Para obter mais informações, consulte as credenciais de serviço em UDFs escalares do Python.
O PySpark e o Spark Connect agora dão suporte à API dataframes df.mergeInto
O PySpark e o Spark Connect agora dão suporte à df.mergeInto API, que anteriormente só estava disponível para Scala.
Atualizações de API
O ambiente sem servidor 4 inclui as seguintes atualizações de API:
-
SPARK-50915 Adicionar
getConditione preterirgetErrorClassemPySparkException -
SPARK-50719 Suporte
interruptOperationpara PySpark -
SPARK-50718 Suporte
addArtifact(s)para PySpark - SPARK-49530 Suporte a subtramas de pizza na plotagem do PySpark
-
SPARK-50357 APIs de suporte
Interrupt(Tag|All)para PySpark -
SPARK-51178 Gerar erro de PySpark adequado em vez de
SparkConnectGrpcException -
SPARK-51227 Corrigir o PySpark Connect
_minimum_grpc_versionpara 1.67.0 -
SPARK-50778 Adicionar
metadataColumnao PySpark DataFrame -
SPARK-50311 APIs de suporte
(add|remove|get|clear)Tag(s)para PySpark -
SPARK-50310 Adicionar um sinalizador para desabilitar
DataFrameQueryContexto PySpark - SPARK-50238 Adicionar suporte variant em UDFs do PySpark/UDTFs/UDAFs e UDFs do Python UC
- SPARK-50183 Unificar as funções internas para a API do Pandas e o Plotagem do PySpark
-
SPARK-50170 Mover
_invoke_internal_function_over_columnsparapyspark.sql.utils - SPARK-50167 Melhorar as importações e mensagens de erro de plotagem do PySpark
-
SPARK-48961 Tornar a nomenclatura de parâmetro consistente
PySparkExceptioncom a JVM - SPARK-49567 Usar clássico em vez de baunilha da base de código do PySpark
-
SPARK-48755
transformWithStateSuporte eValueStateimplementação base do PySpark -
SPARK-48714 Implementar
DataFrame.mergeIntono PySpark -
SPARK-47365 Adicionar
toArrow()o método DataFrame ao PySpark - SPARK-48075 Verificação de tipo para funções do Avro do PySpark
-
SPARK-46984 Retirar
pyspark.copy_func -
SPARK-46213 Introduzir
PySparkImportErrorpara a estrutura de erros -
SPARK-46226 Migrar todos os restantes
RuntimeErrorpara a estrutura de erros do PySpark -
SPARK-45450 Corrigir importações de acordo com PEP8:
pyspark.pandasepyspark(núcleo)
Ambiente do sistema
- Sistema operacional: Ubuntu 24.04.2 LTS
- Python: 3.12.3
-
Databricks Connect: 17 (o Databricks Connect é atualizado continuamente na versão mais recente do ambiente sem servidor. Execute
pip listpara confirmar a versão exata em seu ambiente atual.) - Scala: 2.13.16
- JDK: 17
Bibliotecas do Python instaladas
Para reproduzir o ambiente sem servidor 4 em seu ambiente virtual do Python local, baixe o arquivo requirements-env-4.txt e execute pip install -r requirements-env-4.txt. Esse comando instala todas as bibliotecas de software livre do ambiente sem servidor 4.
| Library | Versão | Library | Versão | Library | Versão |
|---|---|---|---|---|---|
| tipos anotados | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | flecha | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | attrs | 24.3.0 |
| autocomando | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob | 12.23.0 | azure-storage-file-datalake | 12.17.0 | Babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | preto | 24.10.0 |
| alvejante | 6.2.0 | antolho | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools | 5.5.1 | certificação | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | charset-normalizer | 3.3.2 |
| clique | 8.1.7 | cloudpickle | 3.0.0 | Comunicação | 0.2.1 |
| contorno | 1.3.1 | criptografia | 43.0.3 | ciclista | 0.11.0 |
| Cython | 3.0.12 | databricks-connect | 17.2.3 | databricks-sdk | 0.49.0 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | decorador | 5.1.1 |
| defusedxml | 0.7.1 | Deprecated | 1.2.13 | distlib | 0.3.9 |
| docstring-to-markdown | 0.11 | Execução | 0.8.3 | Visão geral de facetas | 1.1.1 |
| fastapi | 0.115.12 | fastjsonschema | 2.21.1 | filelock | 3.18.0 |
| fonttools | 4.55.3 | Fqdn | 1.5.1 | fsspec | 2023.5.0 |
| gitdb | 4.0.11 | GitPython | 3.1.43 | google-api-core | 2.20.0 |
| google-auth | 2.40.0 | google-cloud-core | 2.4.3 | google-cloud-storage | 3.1.0 |
| google-crc32c | 1.7.1 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.67.0 | grpcio-status | 1.67.0 | h11 | 0.14.0 |
| httpcore | 1.0.2 | httplib2 | 0.20.4 | httpx | 0.27.0 |
| IDNA | 3.7 | importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 |
| inflect | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.6.1 | isoduração | 20.11.0 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| jedi | 0.19.2 | Jinja2 | 3.1.5 | jmespath | 1.0.1 |
| joblib | 1.4.2 | json5 | 0.9.25 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | jsonschema-specifications | 2023.7.1 | jupyter-events | 0.10.0 |
| jupyter-lsp | 2.2.0 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_server | 2.14.1 | jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 |
| kiwisolver | 1.4.8 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 |
| matplotlib | 3.10.0 | matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 |
| mdurl | 0.1.0 | Mistune | 2.0.4 | mlflow-skinny | 2.22.0 |
| mmh3 | 5.1.0 | more-itertools | 10.3.0 | msal | 1.32.3 |
| msal-extensions | 1.3.1 | mypy-extensions | 1.0.0 | nbclient | 0.8.0 |
| nbconvert | 7.16.4 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | notebook | 7.3.2 | notebook_shim | 0.2.3 |
| numpy | 2.1.3 | oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 |
| opentelemetry-sdk | 1.32.1 | opentelemetry-semantic-conventions | 0,53b1 | Substitui | 7.4.0 |
| empacotamento | 24.1 | Pandas | 2.2.3 | pandocfilters | 1.5.0 |
| parso | 0.8.4 | pathspec | 0.10.3 | Patsy | 1.0.1 |
| pexpect | 4.8.0 | almofada | 11.1.0 | caroço | 25.0.1 |
| platformdirs | 3.10.0 | plotly | 5.24.1 | pluggy | 1.5.0 |
| prometheus_client | 0.21.0 | kit de ferramentas de prompt | 3.0.43 | proto-plus | 1.26.1 |
| protobuf | 5.29.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | py4j | 0.10.9.9 |
| Pyarrow | 19.0.1 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser | 2.21 | pydantic | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.9.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | piright | 1.1.394 |
| pyspark | 4.0.0+databricks.connect.17.2.3 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytoolconfig | 1.2.6 | Pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | Referência | 0.30.2 | solicitações | 2.32.3 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | rico | 13.9.4 |
| corda | 1.12.0 | rpds-py | 0.22.3 | RSA | 4.9.1 |
| s3transfer | 0.11.3 | scikit-aprender | 1.6.1 | Scipy | 1.15.1 |
| seaborn (biblioteca de visualização em Python) | 0.13.2 | Send2Trash | 1.8.2 | Ferramentas de configuração | 74.0.0 |
| seis | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | soupsieve | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | stack-data | 0.2.0 | starlette | 0.46.2 |
| statsmodels (biblioteca para modelos estatísticos em Python) | 0.14.4 | strictyaml | 1.7.3 | tenacidade | 9.0.0 |
| terminado | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| atualizações autônomas | 0.1 | uri-template | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolors | 24.11.1 | codificações web | 0.5.1 |
| websocket-client | 1.8.0 | whatthepatch | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | embrulhado | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 | zstandard | 0.23.0 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.13)
| ID do grupo | ID do artefato | Versão |
|---|---|---|
| com.databricks | databricks-connect_2.13 | 17.2.0 |
| com.fasterxml.jackson.core | Anotações do Jackson | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.lihaoyi | ammonite-compiler-interface_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-compiler_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-interp-api_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-interp_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-repl-api_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-repl_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-runtime_2.13.16 | 3.0.2 |
| com.lihaoyi | ammonite-util_2.13 | 3.0.2 |
| com.lihaoyi | fansi 2.13 | 0.5.0 |
| com.lihaoyi | os-lib_2.13 | 0.11.3 |
| com.lihaoyi | pprint_2.13 | 0.9.0 |
| com.lihaoyi | scalaparse_2.13 | 3.1.1 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| sh.almond | channels_2.13 | 0.14.1-1 |
| sh.almond | interpretador-api_2.13 | 0.14.1-1 |
| sh.almond | interpreter_2.13 | 0.14.1-1 |
| sh.almond | jupyter-api_2.13 | 0.14.1-1 |
| sh.almond | kernel_2.13 | 0.14.1-1 |
| sh.almond | logger_2.13 | 0.14.1-1 |
| sh.almond | protocol_2.13 | 0.14.1-1 |
| sh.almond | scala-interpreter_2.13.16 | 0.14.1-1 |
| sh.almond | scala-kernel_2.13.16 | 0.14.1-1 |
| sh.almond | shared-directives_2.13 | 0.14.1-1 |