Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Du kan programmatiskt starta om Python-processen i Azure Databricks för att säkerställa att lokalt installerade eller uppgraderade bibliotek fungerar korrekt i Python-kerneln för din aktuella SparkSession.
När du startar om Python-processen förlorar du information om Python-tillstånd. Databricks rekommenderar att du installerar alla bibliotek med sessionsomfattning i början av en notebook-fil och kör dbutils.library.restartPython()
för att rensa Python-processen innan du fortsätter.
Du kan använda den här processen i interaktiva notebook-filer eller för Python-aktiviteter som schemalagts med jobb.
Vad är dbutils.library.restartPython
?
Hjälpfunktionen dbutils.library.restartPython()
är det rekommenderade sättet att starta om Python-processen i en Databricks-notebook-fil.
Kommentar
De flesta funktioner i undermodulen dbutils.library
är inaktuella. Databricks rekommenderar starkt att du använder %pip
för att hantera alla biblioteksinstallationer med notebook-omfång. Se Python-bibliotek med notebook-omfång.
När ska du starta om Python-processen?
Det är en bra idé att starta om Python-processen när du utför en lokal installation som innehåller något av följande:
- Ange en version av ett paket som ingår i Databricks Runtime.
- Installera en anpassad version av ett paket som ingår i Databricks Runtime.
- Uppdaterar uttryckligen ett bibliotek till den senaste versionen med hjälp av
%pip install <library-name> --upgrade
. - Konfigurera en anpassad miljö från en lokal
requirements.txt
fil. - Installera ett bibliotek som kräver att de versioner av beroende bibliotek som ingår i Databricks Runtime ändras.