Freigeben über


Einschränkungen bei Databricks Connect für Python

Hinweis

Dieser Artikel behandelt Databricks Connect für Databricks Runtime Version 13.3 LTS und höher.

In diesem Artikel werden Einschränkungen für Databricks Connect für Python aufgeführt. Mit Databricks Connect können Sie beliebte IDEs, Notebookserver und benutzerdefinierte Anwendungen mit Azure Databricks-Clustern verbinden. Weitere Informationen finden Sie unter Was ist Databricks Connect?. Die Scala-Version dieses Artikels finden Sie unter Einschränkungen bei Databricks Connect für Scala.

Nicht verfügbar in Databricks Connect für Databricks Runtime 13.3 LTS und früher:

  • Streaming von foreachBatch
  • Erstellen von DataFrames über 128 MB
  • Lange Abfragen über 3.600 Sekunden

Nicht verfügbar:

  • Dataset-API
  • Typisierte Dataset-APIs (z. B. reduce() und flatMap())
  • Databricks-Hilfsprogramme: credentials, library, notebook workflow und widgets
  • SparkContext
  • RDDs
  • MLflow-Modellrückschluss: pyfunc.spark_udf()-API
  • Mosaik-Geodaten
  • CREATE TABLE <table-name> AS SELECT (verwenden Sie stattdessen spark.sql("SELECT ...").write.saveAsTable("table"))
  • ApplyinPandas() und Cogroup() mit freigegebenen Clustern
  • Ändern der log4j-Protokollebene durch SparkContext
  • Verteiltes ML-Training
  • Synchronisieren der lokalen Entwicklungsumgebung mit dem Remotecluster