Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo descrive le informazioni sull'ambiente di sistema per l'ambiente serverless versione 2. Per garantire la compatibilità per l'applicazione, i carichi di lavoro serverless usano un'API versionata, nota come versione dell'ambiente, e rimane compatibile con le versioni più recenti del server.
È possibile selezionare la versione dell'ambiente utilizzando il pannello laterale Ambiente nei notebook serverless. Vedere Selezionare una versione dell'ambiente.
Nuove funzionalità e miglioramenti
Nell'ambiente serverless 2 sono disponibili le nuove funzionalità e i miglioramenti seguenti.
I dashboard, gli avvisi e le query sono supportati come file dell'area di lavoro
20 maggio 2025
I dashboard, gli avvisi e le query sono ora supportati come file dell'area di lavoro, il che significa che è possibile interagire a livello di codice con questi oggetti Databricks come qualsiasi altro file, ovunque sia disponibile il file system dell'area di lavoro. Vedere Che cosa sono i file dell'area di lavoro? e interagire a livello di codice con i file dell'area di lavoro.
Terminale Web abilitato nel calcolo serverless
3 aprile 2025
Il terminale Web è ora abilitato nell'ambiente serverless versione 2. Per altre informazioni su come usare il terminale Web, vedere Eseguire i comandi della shell nel terminale Web di Azure Databricks.
Il tipo di dati VARIANT non può più essere usato con operazioni che richiedono confronti
5 febbraio 2025
Non è possibile utilizzare le clausole o gli operatori seguenti nelle query che includono un tipo di dati VARIANT:
DISTINCTINTERSECTEXCEPTUNIONDISTRIBUTE BY
Inoltre, non è possibile usare queste funzioni dataframe:
df.dropDuplicates()df.repartition()
Queste operazioni eseguono confronti e confronti che usano il tipo di dati VARIANT producono risultati non definiti e non sono supportati in Databricks. Se si usa il tipo di VARIANT nei carichi di lavoro o nelle tabelle di Azure Databricks, Databricks consiglia le modifiche seguenti:
- Aggiornare query ed espressioni per effettuare un cast esplicito dei valori
VARIANTa tipi di dati nonVARIANT. - Se sono presenti campi che devono essere usati con una delle operazioni precedenti, estrarre tali campi dal tipo di dati
VARIANTe archiviarli usando tipi di dati nonVARIANT.
Consulta Dati delle varianti di query.
I notebook sono accettati in quanto file dell'area di lavoro
23 gennaio 2025
I Notebook sono supportati come file dell'area di lavoro in Serverless Environment 2. È possibile scrivere, leggere ed eliminare notebook a livello di codice come qualsiasi altro file. In questo modo è possibile interagire a livello di codice con i notebook ovunque sia disponibile il file system dell'area di lavoro. Per altre informazioni, vedere Creare, aggiornare ed eliminare file ed directory a livello di codice.
Barra di avanzamento delle attività aggiunta al calcolo serverless
16 dicembre 2024
È stata aggiunta una nuova barra di avanzamento delle attività alle celle del notebook in esecuzione nell'ambiente di calcolo serverless versione 2. Questa barra di stato indica lo stato di avanzamento dell'esecuzione del codice Spark della cella.
Ambiente di sistema
- Sistema Operativo: Ubuntu 22.04.4 LTS
- Python: 3.11.10
- Databricks Connect: 15.4.5
Librerie installate di Python
Per riprodurre l'ambiente serverless 2 nell'ambiente virtuale Python locale, scaricare il file requirements-env-2.txt ed eseguire pip install -r requirements-env-2.txt. Questo comando installa tutte le librerie open source dall'ambiente serverless 2.
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| asttokens | 2.0.5 | astunparse | 1.6.3 | autocommand | 2.2.2 |
| azure-core | 1.31.0 | azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 |
| backports.tarfile | 1.2.0 | black | 23.3.0 | blinker | 1.4 |
| boto3 | 1.34.39 | botocore | 1.34.39 | cachetools | 5.5.0 |
| certifi | 2023.7.22 | cffi | 1.15.1 | chardet | 4.0.0 |
| charset-normalizer | 2.0.4 | click | 8.0.4 | cloudpickle | 3.0.0 |
| comm | 0.1.2 | contourpy | 1.0.5 | cryptography | 41.0.3 |
| cycler | 0.11.0 | Cython | 0.29.32 | databricks-connect | 15.4.5 |
| databricks-sdk | 0.36.0 | dbus-python | 1.2.18 | debugpy | 1.6.7 |
| decorator | 5.1.1 | dill | 0.3.6 | distlib | 0.3.9 |
| entrypoints | 0.4 | executing | 0.8.3 | facets-overview | 1.1.1 |
| filelock | 3.13.4 | fonttools | 4.25.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.35.0 |
| google-cloud-core | 2.4.1 | google-cloud-storage | 2.18.2 | google-crc32c | 1.6.0 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | httplib2 | 0.20.2 | idna | 3.4 |
| importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| ipyflow-core | 0.0.201 | ipykernel | 6.28.0 | ipython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 | isodate | 0.7.2 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | jedi | 0.18.1 | jeepney | 0.7.1 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
| jupyter_core | 5.3.0 | keyring | 23.5.0 | kiwisolver | 1.4.4 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.4 |
| more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | packaging | 23.2 |
| pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| patsy | 0.5.3 | pexpect | 4.8.0 | pillow | 10.3.0 |
| pip | 24.2 | platformdirs | 3.10.0 | plotly | 5.9.0 |
| prompt_toolkit | 3.0.48 | proto-plus | 1.25.0 | protobuf | 5.28.3 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | py4j | 0.10.9.7 | pyarrow | 14.0.1 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.65 |
| pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.39 |
| pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.2 |
| pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 25.1.2 |
| requests | 2.31.0 | rsa | 4.9 | s3transfer | 0.10.3 |
| scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
| SecretStorage | 3.3.1 | setuptools | 75.1.0 | six | 1.16.0 |
| smmap | 5.0.1 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
| stack-data | 0.2.0 | statsmodels | 0.14.0 | tenacity | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.3.2 | traitlets | 5.13.0 | typeguard | 4.3.0 |
| typing_extensions | 4.10.0 | tzdata | 2022.1 | ujson | 5.4.0 |
| unattended-upgrades | 0.1 | urllib3 | 1.26.16 | virtualenv | 20.26.6 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | wheel | 0.38.4 |
| zipp | 3.11.0 | zstandard | 0.23.0 |