Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Ez a cikk a kiszolgáló nélküli környezet 3- es verziójának rendszerkörnyezeti adatait ismerteti.
Az alkalmazás kompatibilitásának biztosítása érdekében a kiszolgáló nélküli számítási feladatok egy verziószámozott API-t használnak, más néven a környezeti verziót, amely továbbra is kompatibilis marad az újabb kiszolgálóverziókkal.
A környezeti verziót a Környezet oldalpanelen választhatja ki a kiszolgáló nélküli jegyzetfüzetekben. Lásd: Alapkörnyezet kiválasztása.
Új funkciók és fejlesztések
A következő új funkciók és fejlesztések érhetők el a kiszolgáló nélküli 3. környezetben.
API-frissítések
2025. augusztus 18.
A skaláris Python UDF-ek mostantól támogatják a szolgáltatás hitelesítő adatait
A skaláris Python UDF-ek a Unity Catalog szolgáltatás hitelesítő adataival biztonságosan hozzáférhetnek a külső felhőszolgáltatásokhoz. További információ: Szolgáltatás hitelesítő adatai a skaláris Python UDF-ekben.
2025. június 13.
A kiszolgáló nélküli 3. környezet a következő API-frissítéseket tartalmazza:
- Szűrő-leküldési API-támogatást hozzáadták a Python-adatforrásokhoz. Lásd: Szűrőleküldési API-támogatás hozzáadása Python-adatforrásokhoz.
- A Python UDF-nyomkövetés mostantól az illesztőprogramból és a végrehajtóból származó kereteket és az ügyfélkereteket is tartalmazza. Lásd a Python UDF nyomkövetési javítását.
- Új
listaggésstring_aggfüggvények aggregálják aSTRINGésBINARYértékeket egy csoportban. Lásd: Újlistaggésstring_aggfüggvények. -
variant_getésget_json_objectmost figyelembe veszi az elérési útvonalak elején lévő szóközöket az Apache Spark-ban. Tekintse meg, hogy a variant_get és get_json_object mostantól figyelembe veszik az Apache Spark elérési útjaiban lévő vezető szóközöket. - SPARK-51079 Nagy változótípusok támogatása pandas UDF-ben, createDataFrame-ben és toPandasban az Arrow-val.
-
SPARK-51186 Adjunk hozzá
StreamingPythonRunnerInitializationExceptiona PySpark alapkivételéhez. -
SPARK-51112 Ne használja a pyarrow's-t
to_pandasegy üres táblán. -
SPARK-51506 [PYTHON][ss] Ne kényszerítse a felhasználókat a close() implementálására
TransformWithStateInPandas -
SPARK-51425 [Csatlakozás] Ügyfél API hozzáadása egyéni beállításhoz
operation_id - SPARK-51206 [PYTHON][connect] Az Arrow konverziós eszközök áthelyezése a Spark Connectből
A Databricks Connect 16.3-ra frissült
2025. június 13.
Használja a Databricks Connect for Databricks Runtime 16.3-on elérhető funkciókat és fejlesztéseket. Lásd: Databricks Connect for Databricks Runtime 16.3.
Továbbfejlesztett Python-szintaxishibák kiemelése
2025. június 13.
A Python szintaxishibáinak kiemelése a következő fejlesztéseket fogja látni:
- Gyorsabb hibakezelés reakcióideje.
- Python-típusú hibák kiemelésének támogatása.
- Linter-konfigurálhatóság fájlokon keresztül
pyproject.toml.
Lásd: Python-hibakiemelés.
Git CLI-támogatás webes terminálban és notebookban
2025. június 13.
Most már használhatja a Git CLI-t egy kiszolgáló nélküli jegyzetfüzetben és a kiszolgáló nélküli jegyzetfüzet webes termináljában.
Viselkedésbeli változás az ütköző környezeti verziókkal kapcsolatban
2025. június 13.
Azokban az esetekben, amikor a kiszolgáló nélküli környezet verziója a jegyzetfüzet Környezet paneljén és egy egyéni alapkörnyezetfájlban is deklarálva van, az alapkörnyezet verziója elsőbbséget élvez, kivéve, ha mindkét deklarált verzió a 3. verzió alá tartozik, ebben az esetben a jegyzetfüzet verziója lesz használva.
Például:
- Ha a jegyzetfüzet 1-es verziót használ, és az alapkörnyezet v3-at használ, a számítási feladat a v3-at fogja használni.
- Ha a jegyzetfüzet 1-es verziót használ, és az alapkörnyezet v2-t használ, a számítási feladat 1-es verziót fog használni.
- Ha a jegyzetfüzet v3-at használ, és az alapkörnyezet 1-es verziót használ, a számítási feladat az 1- es verziót fogja használni.
- Ha a jegyzetfüzet v2-t használ, és az alapkörnyezet 1-es verziót használ, a számítási feladat v2-t fog használni.
Rendszerkörnyezet
- operációs rendszer: Ubuntu 24.04.2 LTS
- Python: 3.12.3
- Databricks Connect: 16.4.2
Telepített Python-kódtárak
A kiszolgáló nélküli 3. környezet helyi Python virtuális környezetben való reprodukálásához töltse le a requirements-env-3.txt fájlt, és futtassa a fájlt pip install -r requirements-env-3.txt. Ez a parancs telepíti az összes nyílt forráskódú kódtárat a kiszolgáló nélküli 3. környezetből.
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | anyio | 4.2.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | autocommand | 2.2.2 | azure-core | 1.33.0 |
| azure-storage-blob | 12.23.0 | azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 |
| black | 24.4.2 | blinker | 1.7.0 | boto3 | 1.34.69 |
| botocore | 1.34.69 | cachetools | 5.3.3 | certifi | 2024.6.2 |
| cffi | 1.16.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
| click | 8.1.7 | cloudpickle | 3.0.0 | comm | 0.2.1 |
| contourpy | 1.2.0 | kriptográfia | 42.0.5 | cycler | 0.11.0 |
| Cython | 3.0.11 | databricks-connect | 16.4.2 | databricks-sdk | 0.49.0 |
| dbus-python | 1.3.2 | debugpy | 1.6.7 | dekorátor | 5.1.1 |
| Deprecated | 1.2.18 | dill | 0.3.8 | distlib | 0.3.8 |
| executing | 0.8.3 | facets-overview | 1.1.1 | fastapi | 0.115.12 |
| filelock | 3.15.4 | fonttools | 4.51.0 | gitdb | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | google-auth | 2.38.0 |
| google-cloud-core | 2.4.3 | google-cloud-storage | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.69.2 | grpcio | 1.71.0 |
| grpcio-status | 1.71.0 | h11 | 0.14.0 | httplib2 | 0.20.4 |
| idna | 3.7 | importlib-metadata | 7.0.1 | inflect | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.206 | ipykernel | 6.29.5 |
| ipython | 8.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.7.2 | jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | jedi | 0.19.1 |
| jmespath | 1.0.1 | joblib | 1.4.2 | jupyter_client | 8.6.0 |
| jupyter_core | 5.7.2 | kiwisolver | 1.4.4 | launchpadlib | 1.11.0 |
| lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 | matplotlib | 3.8.4 |
| matplotlib-inline | 0.1.6 | mlflow-skinny | 2.21.3 | more-itertools | 10.3.0 |
| mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 | numpy | 1.26.4 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.31.1 | opentelemetry-sdk | 1.31.1 |
| opentelemetry-semantic-conventions | 0.52b1 | packaging | 24.1 | pandas | 1.5.3 |
| parso | 0.8.3 | pathspec | 0.10.3 | patsy | 0.5.6 |
| pexpect | 4.8.0 | pillow | 10.3.0 | pip | 25.0.1 |
| platformdirs | 3.10.0 | plotly | 5.22.0 | pluggy | 1.5.0 |
| prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | py4j | 0.10.9.7 | pyarrow | 15.0.2 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.68 |
| pycparser | 2.21 | pydantic | 2.8.2 | pydantic_core | 2.20.1 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | PyJWT | 2.7.0 |
| pyodbc | 5.0.1 | pyparsing | 3.0.9 | pytest | 8.3.0 |
| python-dateutil | 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 | pytz | 2024.1 |
| PyYAML | 6.0.1 | pyzmq | 25.1.2 | requests | 2.32.2 |
| rsa | 4.9 | s3transfer | 0.10.4 | scikit-learn | 1.4.2 |
| scipy | 1.13.1 | seaborn | 0.13.2 | setuptools | 75.8.0 |
| six | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sqlparse | 0.5.3 | ssh-import-id | 5.11 | stack-data | 0.2.0 |
| starlette | 0.46.1 | statsmodels | 0.14.2 | tenacity | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.4.1 | traitlets | 5.14.3 | typeguard | 4.3.0 |
| typing_extensions | 4.11.0 | tzdata | 2024.1 | ujson | 5.10.0 |
| unattended-upgrades | 0.1 | urllib3 | 2.2.2 | uvicorn | 0.34.0 |
| virtualenv | 20.29.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| wheel | 0.45.1 | wrapt | 1.14.1 | zipp | 3.17.0 |
| zstandard | 0.23.0 |