Leer en inglés

Compartir a través de


Instrucciones de Apache Spark

En este artículo se proporcionan instrucciones para usar Apache Spark en Azure HDInsight.

¿Cómo se ejecutan o envían los trabajos de Spark?

Opción Documentos
Visual Studio Code Usar las herramientas Spark y Hive para Visual Studio Code
Cuadernos de Jupyter Notebook Tutorial: Carga de datos y ejecución de consultas en un clúster de Apache Spark en Azure HDInsight
IntelliJ Tutorial: Uso de Azure Toolkit for IntelliJ con el fin de crear aplicaciones Apache Spark para un clúster de HDInsight
IntelliJ Tutorial: Creación de una aplicación de Scala Maven para Apache Spark en HDInsight mediante IntelliJ
Zeppelin Notebooks Uso de cuadernos de Apache Zeppelin con un clúster Apache Spark en Azure HDInsight
Envío de trabajos remotos con Livy Uso de la API REST de Apache Spark para enviar trabajos remotos a un clúster Spark de HDInsight
Apache Oozie Oozie es un sistema de coordinación y flujos de trabajo que administra trabajos de Hadoop.
Apache Livy Puede usar Livy para ejecutar shells de Spark interactivos o enviar trabajos por lotes que se ejecutarán en Spark.
Azure Data Factory para Apache Spark La actividad de Spark en una canalización de Data Factory ejecuta un programa de Spark en su clúster de HDInsight propio o [a petición.
Azure Data Factory para Apache Hive La actividad de Hive de HDInsight en una canalización de Data Factory ejecuta consultas de Hive en su propio clúster de HDInsight o en uno a petición.

¿Cómo se supervisan y depuran los trabajos de Spark?

¿Cómo consigo que mis trabajos de Spark se ejecuten de manera más eficaz?

¿Cómo me conecto a otros servicios de Azure?

¿Cuáles son mis opciones de almacenamiento?

Pasos siguientes