Vad är arbetsytefiler?

En arbetsytefil är en fil i Azure Databricks-arbetsytan som inte är en Databricks-anteckningsbok. Arbetsytefiler kan vara valfri filtyp. Vanliga exempel:

  • .py filer som används i anpassade moduler.
  • .md filer, till exempel README.md.
  • .csv eller andra små datafiler.
  • .txt Filer.
  • .whl Bibliotek.
  • Loggfiler.

Arbetsytefiler innehåller filer som tidigare kallades "Filer i lagringsplatser".

Viktigt!

Arbetsytefiler aktiveras överallt som standard i Databricks Runtime version 11.2, men kan inaktiveras av administratörer med hjälp av REST-API:et. För produktionsarbetsbelastningar använder du Databricks Runtime 11.3 LTS eller senare. Kontakta arbetsytans administratör om du inte kan komma åt den här funktionen.

Vad du kan göra med arbetsytefiler

Azure Databricks tillhandahåller funktioner som liknar lokal utveckling för många filtyper för arbetsytor, inklusive en inbyggd filredigerare. Alla användningsfall för alla filtyper stöds inte. Även om du till exempel kan inkludera bilder i en importerad katalog eller lagringsplats kan du inte bädda in bilder i notebook-filer.

Du kan skapa, redigera och hantera åtkomst till arbetsytefiler med hjälp av välbekanta mönster från notebook-interaktioner. Du kan använda relativa sökvägar för biblioteksimporter från arbetsytefiler, ungefär som lokal utveckling. Mer information finns i:

Init-skript som lagras i arbetsytefiler har ett särskilt beteende. Du kan använda arbetsytefiler för att lagra och referera till init-skript i alla Databricks Runtime-versioner. Se Lagra init-skript i arbetsytefiler.

Kommentar

I Databricks Runtime 14.0 och senare är den aktuella standardkatalogen (CWD) för kod som körs lokalt katalogen som innehåller anteckningsboken eller skriptet som körs. Det här är en ändring i beteendet från Databricks Runtime 13.3 LTS och nedan. Se Vad är standardkatalogen för aktuell arbetskatalog?.

Begränsningar

Storleksgräns för fil

Enskilda arbetsytefiler är begränsade till 500 MB.

Användare kan ladda upp filstorlekar upp till 500 MB från användargränssnittet. Den maximala filstorleken som tillåts när du skriver från ett kluster är 256 MB.

Databricks Runtime-versioner för filer i lagringsplatser med ett kluster med Azure Databricks Container Services

I kluster som kör Databricks Runtime 11.3 LTS och senare kan du med standardinställningarna använda arbetsytefiler i Lagringsplatser med Azure Databricks Container Services (DCS).

I kluster som kör Databricks Runtime-versionerna 10.4 LTS och 9.1 LTS måste du konfigurera dockerfile för åtkomst till arbetsytefiler i Lagringsplatser i ett kluster med DCS. Se följande dockerfiles för önskad Databricks Runtime-version:

Se Anpassa containrar med Databricks Container Service