このページには、標準コンピューティングの要件と制限事項の一覧が含まれています。 クラシック コンピューティングを使用している場合、ワークロードが以下に示す制限のいずれかに依存しない限り、Databricks では標準アクセス モードの使用をお勧めします。
Important
Init スクリプトとライブラリは、アクセス モードおよび Databricks Runtime のバージョンによってサポート状況が異なります。 init スクリプトをインストールできる場所とコンピューティング スコープのライブラリを参照してください。
現在の標準コンピューティングの制限事項
次のセクションでは、最新の Databricks Runtime バージョンに基づく標準コンピューティングの制限事項を示します。 以前のバージョンの Databricks Runtime に適用される制限事項については、「 ランタイムに依存する制限事項」を参照してください。
ワークロードにこれらの機能が必要な場合は、代わりに 専用のコンピューティング を使用してください。
一般的な標準コンピューティングの制限事項
- DATAbricks Runtime for ML はサポートされていません。 代わりに、Databricks ランタイムにバンドルされていない ML ライブラリをコンピューティング スコープ ライブラリとしてインストールします。
- GPU 対応コンピューティングはサポートされていません。
- Spark-submit ジョブ タスクはサポートされていません。 代わりに、JAR タスク を使用してください。
- DBUtils やその他のクライアントは、 外部の場所を使用してクラウド ストレージからのみ読み取ることができます。
- カスタム コンテナーはサポートされていません。
- DBFS ルートおよびマウントは FUSE をサポートしていません。
言語の制限事項
- R はサポートされていません。
Spark API の制限事項
- Spark コンテキスト (
sc)、spark.sparkContext、およびsqlContextは Scala ではサポートされていません。- Azure Databricks では、
spark変数を使用してSparkSessionインスタンスと対話することをお勧めします。 - 次の
sc関数もサポートされていません:emptyRDD、range、init_batched_serializer、parallelize、pickleFile、textFile、wholeTextFiles、binaryFiles、binaryRecords、sequenceFile、newAPIHadoopFile、newAPIHadoopRDD、hadoopFile、hadoopRDD、union、runJob、setSystemProperty、uiWebUrl、stop、setJobGroup、setLocalProperty、getConf。
- Azure Databricks では、
-
Spark 構成 プロパティ
spark.executor.extraJavaOptionsはサポートされていません。 -
spark.createDataFrameを使用してローカル データから DataFrame を作成する場合、行サイズは 128 MB を超えることはできません。 - RDD API はサポートされていません。
- より新しいバージョンの Databricks Runtime で使用される Spark Connect は、分析と名前解決を実行時間に遅延させ、コードの動作を変更する可能性があります。 Spark Connect と Spark クラシックの比較を参照してください。
UDF の制限事項
- Hive UDF はサポートされていません。 代わりに、 Unity カタログで UDF を使用してください。
ストリーミングの制限事項
注
記載されている Kafka のオプションの一部は、Azure Databricks でサポートされている構成で使用する場合に制限があります。 記載されている Kafka の制限事項は、バッチ処理とストリーム処理の両方に適用されます。 「Apache Kafka と Azure Databricks を使用したストリーム処理」を参照してください。
-
statestore形式とstate-metadata形式を使用して、ステートフル ストリーミング クエリの状態情報を照会することはできません。 - ソケットソースの使用はサポートされていません。
- Unity Catalog マネージドのデータ ソースで
sourceArchiveDirを使用する場合、option("cleanSource", "archive")はソースと同じ外部ロケーションである必要があります。 - Kafka ソースおよびシンクで、次のオプションはサポートされていません。
kafka.sasl.client.callback.handler.classkafka.sasl.login.callback.handler.classkafka.sasl.login.classkafka.partition.assignment.strategy
ネットワークとファイル システムの制限事項
- Standard コンピューティングでは、ファイル システムの機密性の高い部分へのアクセスが禁止されている低特権ユーザーとしてコマンドが実行されます。
- DBFS の POSIX スタイルのパス (
/) はサポートされていません。 - DBFS を使用してファイルを直接操作できるのは、ワークスペース管理者と任意の FILE アクセス許可を持つユーザーだけです。
- インスタンス メタデータ サービスや Azure WireServer には接続できません。
Scala カーネルの制限事項
標準コンピューティングで scala カーネルを使用する場合は、次の制限が適用されます。
- 特定のクラスは、内部のカーネル ライブラリ (特に
Input) と競合する場合は、コードで使用できません。 アーモンドの定義された輸入品の一覧については、 アーモンドの輸入を参照してください。 - log4j への直接ログ記録はサポートされていません。
- UI では、データフレーム スキーマドロップダウンはサポートされていません。
- ドライバーが OOM にヒットした場合、Scala REPL は終了しません。
-
//connector/sql-aws-connectors:sql-aws-connectorsが Scala REPL のバゼル ターゲットに含まれていない場合は、ClassNotFoundExceptionで結果を使用します。 - Scala カーネルは SQLImplicits と互換性がありません。
ランタイムに依存する制限事項
次の制限はランタイムの更新によって解決されましたが、古いランタイムを使用している場合でもワークロードに適用される可能性があります。
言語のサポート
| 特徴 | 必要な Databricks ランタイム バージョン |
|---|---|
| Scala | 13.3 以降 |
| 既定で使用可能なすべてのランタイムバンドル Java および Scala ライブラリ | 15.4 LTS 以上 (15.3 以下の場合は、 spark.databricks.scala.kernel.fullClasspath.enabled=true設定) |
Spark API のサポート
| 特徴 | 必要な Databricks ランタイム バージョン |
|---|---|
| Spark ML | 17.0 以降 |
Python: SparkContext (sc)、 spark.sparkContext、 sqlContext |
14.0 以降 |
Scala Dataset ops: map、 mapPartitions、 foreachPartition、 flatMap、 reduce、 filter |
15.4 LTS 以上 |
UDF のサポート
| 特徴 | 必要な Databricks ランタイム バージョン |
|---|---|
applyInPandas、mapInPandas |
14.3 LTS 以上 |
| Scala スカラー UDF と Scala UDF | 14.3 LTS 以上 |
| PySpark UDF の Git フォルダー、ワークスペース ファイル、またはボリュームからモジュールをインポートする | 14.3 LTS 以上 |
ノートブックまたはコンピューティング スコープのライブラリを使用して、PySpark UDF でカスタム バージョンの grpc、 pyarrow、または protobuf を使用する |
14.3 LTS 以上 |
| 非スカラー Python および Pandas UDF (Spark 上の UDF、UDF、Pandas を含む) | 14.3 LTS 以上 |
| Python スカラー UDF と Pandas UDF | 13.3 LTS 以上 |
ストリーミングのサポート
| 特徴 | 必要な Databricks ランタイム バージョン |
|---|---|
transformWithStateInPandas |
16.3 以降 |
applyInPandasWithState |
14.3 LTS 以上 |
Scala foreach |
16.1 以降 |
Scala foreachBatch と flatMapGroupsWithState |
16.2 以降 |
Scala from_avro |
14.2 以降 |
Kafka オプションの kafka.ssl.truststore.location と kafka.ssl.keystore.location (指定された場所は、Unity カタログによって管理される外部の場所である必要があります) |
13.3 LTS 以上 |
Scala StreamingQueryListener |
16.1 以降 |
Python StreamingQueryListener Unity カタログマネージド オブジェクトと対話する |
14.3 LTS 以上 |
さらに、Python の場合、 foreachBatch は Databricks Runtime 14.0 以降で次の動作が変更されています。
-
print()コマンドの出力はドライバー ログに記録されます。 - 関数内で
dbutils.widgetsサブモジュールにはアクセスできません。 - 関数内で参照されるファイル、モジュール、オブジェクトはすべてシリアル化可能であり、Spark 上で使用可能である必要があります。
ネットワークとファイル システムのサポート
| 特徴 | 必要な Databricks ランタイム バージョン |
|---|---|
| 80 および 443 以外のポートへの接続 | 12.2 LTS 以上 |