Begränsningar med Databricks Connect för Python
Kommentar
Den här artikeln beskriver Databricks Connect för Databricks Runtime 13.3 LTS och senare.
Den här artikeln innehåller begränsningar med Databricks Connect för Python. Med Databricks Connect kan du ansluta populära IDE:er, notebook-servrar och anpassade program till Azure Databricks-kluster. Se Vad är Databricks Connect?. Scala-versionen av den här artikeln finns i Begränsningar med Databricks Connect för Scala.
Inte tillgängligt på Databricks Connect för Databricks Runtime 13.3 LTS och nedan:
- Direktuppspelning
foreachBatch
- Skapa dataramar som är större än 128 MB
- Långa frågor över 3 600 sekunder
Inte tillgängligt:
- API för datauppsättning
- Inskrivna API:er för datauppsättningar (till exempel
reduce()
ochflatMap()
) - Databricks Utilities:
credentials
,library
,notebook workflow
,widgets
SparkContext
RDDs
- MLflow-modellinferens:
pyfunc.spark_udf()
API - Mosaik geospatial
CREATE TABLE <table-name> AS SELECT
(användspark.sql("SELECT ...").write.saveAsTable("table")
i stället )ApplyinPandas()
ochCogroup()
med delade kluster- Ändra log4j-loggnivån via
SparkContext
- Distribuerad ML-träning
- Synkronisera den lokala utvecklingsmiljön med fjärrklustret
Feedback
https://aka.ms/ContentUserFeedback.
Kommer snart: Under hela 2024 kommer vi att fasa ut GitHub-problem som feedbackmekanism för innehåll och ersätta det med ett nytt feedbacksystem. Mer information finns i:Skicka och visa feedback för