Apache Spark のメモリ使用量の最適化

この記事では、Azure HDInsight で最高のパフォーマンスが得られるように、お使いの Apache Spark クラスターのメモリ管理を最適化する方法について説明します。

概要

Spark は、データをメモリに配置することで動作します。 そのため、メモリ リソースの管理は Spark ジョブの実行の最適化における重要な側面です。 クラスターのメモリを効率的に使用するために適用できる手法がいくつかあります。

  • 小さいデータ パーティションを優先し、パーティション分割戦略でデータのサイズ、種類、および分散を要因とします。
  • 既定の Java シリアル化ではなく、より新しくより効率的な Kryo data serialization を検討します。
  • YARN は spark-submit をバッチ単位で分割するため、YARN を優先的に使用します。
  • Spark 構成設定を監視し、チューニングします。

参考までに、Spark のメモリ構造と一部の重要な実行プログラムのメモリ パラメーターを、次のイメージで示します。

Spark メモリに関する考慮事項

Apache Hadoop YARN を使用する場合は、YARN が Spark の各ノード上のすべてのコンテナーで使用されるメモリを制御します。 次の図は、重要なオブジェクトとそれらの関連性を示しています。

YARN Spark Memory Management.

''メモリ不足'' のメッセージに対処するには、次を試してください。

  • DAG 管理シャッフルを確認します。 マップ側の reduce 処理、ソース データの事前パーティション分割 (またはバケット化)、1 つのシャッフルの最大化、および送信されるデータ量の削減によって削減します。
  • 固定メモリが GroupByKey に制限された ReduceByKey を優先します。これは集計、ウィンドウ化、およびその他の機能を提供しますが、無制限のメモリ制限があります。
  • 実行プログラムやパーティションでより多くの操作を実行する TreeReduce を、すべての操作をドライバーで実行する Reduce より優先します。
  • 下位レベルの RDD オブジェクトではなく、DataFrames を使用します。
  • "上位 N"、各種の集計、ウィンドウ化操作などのアクションをカプセル化する、ComplexTypes を作成します。

その他のトラブルシューティングの手順については、「Azure HDInsight での Apache Spark の OutOfMemoryError 例外」を参照してください。

次のステップ