Nota
L'accés a aquesta pàgina requereix autorització. Pots provar d'iniciar sessió o canviar de directori.
L'accés a aquesta pàgina requereix autorització. Pots provar de canviar directoris.
Puede ejecutar y depurar cuadernos, de una celda a la vez o todas las celdas a la vez, y ver los resultados en la interfaz de usuario de Visual Studio Code mediante la integración de Databricks Connect en la extensión de Databricks para Visual Studio Code. Todo el código se ejecuta localmente, mientras que todo el código que implique operaciones DataFrame se ejecuta en el clúster en el área de trabajo remota de Azure Databricks y las respuestas de ejecución se envían de vuelta al autor de la llamada local. Todo el código se depura localmente, mientras que todo el código de Spark continúa ejecutándose en el clúster en el área de trabajo remota de Azure Databricks. El código principal del motor de Spark no se puede depurar directamente desde el cliente.
Nota
Esta característica funciona con Databricks Runtime 13.3 y versiones posteriores.
Para activar la integración de Databricks Connect para blocs de notas en la extensión de Databricks para Visual Studio Code, debe instalar Databricks Connect en la extensión de Databricks para Visual Studio Code. Consulte Depurar código mediante Databricks Connect en la extensión de Databricks para Visual Studio Code.
Ejecutar celdas del cuaderno de Python
Para los cuadernos con nombres de archivo que tienen una extensión .py, al abrir el cuaderno en el IDE de Visual Studio Code, cada celda muestra los botones Ejecutar celda, Ejecutar encima y Depurar celda. Al ejecutar una celda, sus resultados se muestran en una pestaña independiente del IDE. A medida que se depura, la celda que se depura muestra los botones Continuar, Detener y Paso a paso. A medida que depura una celda, puede usar características de depuración de Visual Studio Code, como ver los estados de las variables y ver la pila de llamadas y la consola de depuración.
Para los cuadernos con nombres de archivo que tienen una extensión .ipynb, al abrir el cuaderno en el IDE de Visual Studio Code, el cuaderno y sus celdas contienen características adicionales. Consulte Ejecutar celdas y Trabajar con celdas de código en el editor de cuadernos.
Para obtener más información sobre los formatos de cuaderno para nombres de archivo con las extensiones .py y .ipynb, consulte Importar y exportar cuadernos Databricks.
Ejecución de celdas de Jupyter Notebook de Python
Para ejecutar o depurar un cuaderno de Jupyter Notebook de Python (.ipynb):
En el proyecto, abra el cuaderno de Python Jupyter que quiere ejecutar o depurar. Asegúrese de que el archivo de Python está en formato de cuaderno de Jupyter Notebook y tiene la extensión
.ipynb.Sugerencia
Puede crear un nuevo >cuaderno de Jupyter Notebook de Python ejecutando el comando Crear: Nuevo Jupyter Notebook desde la Paleta de comandos.
Haga clic en Ejecutar todas las celdas para ejecutar todas las celdas sin depurar, Ejecutar celda para ejecutar una celda correspondiente individual sin depurar o Ejecutar por línea para ejecutar una celda individual línea a línea con depuración limitada, con valores variables mostrados en el panel Jupyter (Ver > Abrir vista > Jupyter).
Para una depuración completa dentro de una celda individual, establezca puntos de interrupción y, a continuación, haga clic en Depurar celda en el menú situado junto al botón Ejecutar de la celda.
Después de hacer clic en cualquiera de estas opciones, es posible que se le pida que instale las dependencias del paquete de Jupyter Notebook de Python que faltan. Haga clic para instalarla.
Para más información, consulte Jupyter Notebooks en VS Code.
Variables globales del cuaderno
También se habilitan los siguientes aspectos globales del cuaderno:
spark, que representa una instancia dedatabricks.connect.DatabricksSession, está preconfigurada para crear instancias deDatabricksSessionmediante la obtención de credenciales de autenticación de Azure Databricks de la extensión. SiDatabricksSessionya está instanciado en el código de una celda de un cuaderno, se usarán estas configuracionesDatabricksSessionen su lugar. Consulte Ejemplos de código para Databricks Connect para Python.udf, preconfigurado como alias parapyspark.sql.functions.udf, que es un alias para las UDF de Python. Consulte pyspark.sql.functions.udf.sql, preconfigurado como alias paraspark.sql.spark, tal y como se ha descrito anteriormente, representa una instancia preconfigurada dedatabricks.connect.DatabricksSession. Consulte Spark SQL.dbutils, preconfigurado como una instancia de utilidades de Databricks, que se importa desdedatabricks-sdky del que se crea una instancia mediante la obtención de credenciales de autenticación de Azure Databricks de la extensión. Consulte Uso de utilidades de Databricks.Nota
Solo se admite un subconjunto de utilidades de Databricks para cuadernos con Databricks Connect.
Para habilitar
dbutils.widgets, primero debe instalar el SDK de Databricks para Python mediante la ejecución del siguiente comando en el terminal del equipo de desarrollo local:pip install 'databricks-sdk[notebook]'display, preconfigurado como alias para la integración de JupyterIPython.display.display. Consulte IPython.display.display.displayHTML, preconfigurado como alias paradbruntime.display.displayHTML, que es un alias paradisplay.HTMLdeipython. Consulte IPython.display.html.
Comandos mágicos de cuadernos
Los siguientes cuadernos mágicos también están habilitados:
%fs, que es igual que realizar llamadasdbutils.fs. Consulte Combinación de lenguajes.%sh, que ejecuta un comando mediante la instrucción mágica%%scriptde celdas en el equipo local. Esto no ejecuta el comando en el área de trabajo remota de Azure Databricks. Consulte Combinación de lenguajes.%mdy%md-sandbox, que ejecuta la instrucción mágica%%markdownde celda. Consulte Combinación de lenguajes.%sql, que ejecutaspark.sql. Consulte Combinación de lenguajes.%pip, que ejecutapip installen el equipo local. Esto no ejecutapip installen el área de trabajo de Azure Databricks remota. Consulte Administración de bibliotecas con%pipcomandos.%run, que ejecuta otro cuaderno. Véase Orquestrar cuadernos y modularizar código en cuadernos.Nota
Para habilitar
%run, primero debe instalar la biblioteca nbformat ejecutando el siguiente comando en el terminal del equipo de desarrollo local:pip install nbformat
Entre las características adicionales que están habilitadas se incluyen:
- Los DataFrames de Spark se convierten en DataFrames de Pandas, que se muestran en formato de tabla de Jupyter.
Limitaciones
Las limitaciones de ejecutar celdas en cuadernos en Visual Studio Code incluyen:
- Las instrucciones mágicas de los cuadernos
%ry%scalano se admiten y se muestra un error si se llaman. Consulte Combinación de lenguajes. - La instrucción mágica del cuaderno
%sqlno admite algunos comandos DML, como Mostrar tablas.