Compartir a través de


Tutoriales de introducción a Azure Databricks

Los tutoriales de esta sección presentan las características principales y le guían a través de los conceptos básicos de trabajar con la plataforma de Azure Databricks.

Para obtener información sobre otros recursos de entrenamiento en línea, consulte Aprendizaje gratis en Databricks.

Si no tiene una cuenta de Azure Databricks, regístrese para obtener una evaluación gratuita.

Guía Descripción
Consulta y visualización de datos Use un cuaderno de Databricks para consultar los datos de ejemplo almacenados en el catálogo de Unity mediante SQL, Python, Scala y R y, a continuación, visualizar los resultados de la consulta en el cuaderno.
Importación y visualización de datos CSV desde un cuaderno Utiliza un cuaderno de Databricks para importar datos de un archivo CSV que contenga datos de nombres de bebés en tu volumen de catálogo de Unity mediante Python, Scala y R. También aprenderás a modificar el nombre de una columna, visualizar los datos y guardarlos en una tabla.
Crear una tabla Cree una tabla y conceda privilegios en Databricks mediante el modelo de gobernanza de datos del catálogo de Unity.
Compilación de una canalización ETL mediante canalizaciones declarativas de Lakeflow Cree e implemente un pipeline ETL (extracción, transformación y carga) para la orquestación de datos mediante las Lakeflow Declarative Pipelines y Auto Loader.
Compilación de una canalización de ETL mediante Apache Spark Desarrolle e implemente la primera canalización ETL (extracción, transformación y carga) para la orquestación de datos con Apache Spark™.
Entrenamiento e implementación de un modelo de ML Cree un modelo de clasificación de aprendizaje automático mediante la biblioteca scikit-learn en Databricks para predecir si un vino se considera "de alta calidad". En este tutorial también se muestra el uso de MLflow para realizar un seguimiento del proceso de desarrollo de modelos y Hyperopt para automatizar el ajuste de hiperparámetros.
Consulta LLMs y prototipa agentes de IA sin código Usa el AI Playground para consultar los modelos de lenguaje grandes (LLMs) y comparar los resultados lado a lado, prototipar un agente de IA que llame a herramientas y exportar tu agente a código.
Guía Detalles
Consulta y visualización de datos Use un cuaderno de Databricks para consultar los datos de ejemplo almacenados en el catálogo de Unity mediante SQL, Python, Scala y R y, a continuación, visualizar los resultados de la consulta en el cuaderno.
Importación y visualización de datos CSV desde un cuaderno Utiliza un cuaderno de Databricks para importar datos de un archivo CSV que contenga datos de nombres de bebés en tu volumen de catálogo de Unity mediante Python, Scala y R. También aprenderás a modificar el nombre de una columna, visualizar los datos y guardarlos en una tabla.
Crear una tabla Cree una tabla y conceda privilegios en Databricks mediante el modelo de gobernanza de datos del catálogo de Unity.
Compilación de una canalización ETL mediante canalizaciones declarativas de Lakeflow Cree e implemente un pipeline ETL (extracción, transformación y carga) para la orquestación de datos mediante las Lakeflow Declarative Pipelines y Auto Loader.
Compilación de una canalización de ETL mediante Apache Spark Desarrolle e implemente la primera canalización ETL (extracción, transformación y carga) para la orquestación de datos con Apache Spark™.
Entrenamiento e implementación de un modelo de ML Cree un modelo de clasificación de aprendizaje automático mediante la biblioteca scikit-learn en Databricks para predecir si un vino se considera "de alta calidad". En este tutorial también se muestra el uso de MLflow para realizar un seguimiento del proceso de desarrollo de modelos y Hyperopt para automatizar el ajuste de hiperparámetros.
Consulta LLMs y prototipa agentes de IA sin código Usa el AI Playground para consultar los modelos de lenguaje grandes (LLMs) y comparar los resultados lado a lado, prototipar un agente de IA que llame a herramientas y exportar tu agente a código.
Conexión a Azure Data Lake Storage Conéctese desde Azure Databricks a Azure Data Lake Storage mediante OAuth 2.0 con un principal de servicio de Microsoft Entra ID.

Obtener ayuda

  • Si su organización no tiene una suscripción de soporte técnico de Azure Databricks o si no es un contacto autorizado para la suscripción de soporte técnico de su empresa, puede obtener respuestas de la comunidad de Databricks.