Csatlakozás az Azure Databricks adatforrásaihoz
Ez a cikk az Azure-beli összes különböző adatforrásra mutató hivatkozást tartalmaz, amelyek csatlakoztathatók az Azure Databrickshez. Az alábbi hivatkozásokban szereplő példákat követve kinyerhet adatokat az Azure-adatforrásokból (például Azure Blob Storage, Azure Event Hubs stb.) egy Azure Databricks-fürtbe, és elemzési feladatokat futtathat rajtuk.
Előfeltételek
- Rendelkeznie kell egy Azure Databricks-munkaterületkel és egy Spark-fürtel. Kövesse az Első lépések című témakör utasításait.
Adatforrások az Azure Databrickshez
Az alábbi lista az Azure Databricksben használható adatforrásokat tartalmazza. Az Azure Databricksben használható adatforrások teljes listájáért tekintse meg az Azure Databricks adatforrásait.
-
Ez a hivatkozás biztosítja a DataFrame API-t az SQL-adatbázisokhoz való JDBC használatával való csatlakozáshoz, valamint az olvasások párhuzamosságának szabályozásához a JDBC-felületen keresztül. Ez a témakör részletes példákat tartalmaz a Scala API használatával, a végén pedig rövidített Python- és Spark SQL-példákkal.
-
Ez a hivatkozás példákat tartalmaz arra, hogyan használhatja a Microsoft Entra ID (korábbi nevén Azure Active Directory) szolgáltatásnevet az Azure Data Lake Storage-hitelesítéshez. Útmutatást nyújt az Azure Data Lake Storage-adatok Azure Databricksből való eléréséhez is.
-
Ez a hivatkozás példákat tartalmaz arra, hogyan érheti el közvetlenül az Azure Blob Storage-t az Azure Databricksből egy adott tároló hozzáférési kulcsával vagy SAS-ével. A hivatkozás azt is ismerteti, hogyan érheti el az Azure Blob Storage-t az Azure Databricksből az RDD API használatával.
-
Ez a hivatkozás bemutatja, hogyan használhatja az Azure Event Hubs Spark-összekötőt az Azure Databricksből az Azure Event Hubsban lévő adatok eléréséhez.
-
Ez a hivatkozás útmutatást nyújt az Adatok lekérdezéséhez az Azure Synapse-ban.
Következő lépések
Az Azure Databricksbe importálható forrásokról az Azure Databricks adatforrásai című témakörben olvashat.