Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Poznámka:
Tento článek popisuje Databricks Connect pro Databricks Runtime 13.3 LTS a vyšší.
Tento článek obsahuje omezení služby Databricks Connect pro Python. Databricks Connect umožňuje připojit k clusterům Azure Databricks oblíbené prostředí IDEs, servery poznámkových bloků a vlastní aplikace. Podívejte se, co je Databricks Connect? Informace o verzi Scala tohoto článku najdete v tématu Omezení služby Databricks Connect pro Scala.
Důležitý
V závislosti na verzi Pythonu, Databricks Runtime a Databricks Connect, kterou používáte, můžou některé funkce mít požadavky na verzi. Viz požadavky na využití Databricks Connect.
Dostupnost funkcí
Není k dispozici v Databricks Connect pro Databricks Runtime 13.3 LTS a níže:
- Proudem
foreachBatch - Vytváření datových rámců větších než 128 MB
- Dlouhé dotazy delší než 3600 sekund
Není k dispozici v Databricks Connect pro Databricks Runtime 15.3 a níže:
-
ApplyinPandas()aCogroup()s výpočetními prostředky s standardním režimem přístupu
Není k dispozici v Databricks Connect pro Databricks Runtime 16.3 a níže:
- Na serverless výpočetních prostředcích nemohou UDFs zahrnovat vlastní knihovny.
Není k dispozici:
-
dataframe.display()Rozhraní api - Nástroje Databricks:
credentials,library,notebook workflow,widgets - Kontext Sparku
- RDDs
- Knihovny, které používají sady RDD, Spark Context nebo přistupují k podkladovému prostředí Spark JVM, jako jsou Mosaic geospatial, GraphFrames nebo GreatExpectations.
-
CREATE TABLE <table-name> AS SELECT(místo toho použijtespark.sql("SELECT ...").write.saveAsTable("table")) - Změna úrovně protokolu log4j prostřednictvím
SparkContext - Distribuované trénování ML se nepodporuje.
- Synchronizace místního vývojového prostředí se vzdáleným clusterem