レイクハウスを使用して OneLake にデータを取り込む
このチュートリアルは、レイクハウスを作成し、それを操作するための基本的な方法を開始するためのクイック ガイドです。 このチュートリアルを完了すると、Microsoft Fabric 内に Lakehouse がプロビジョニングされ、OneLake 上で作業できるようになります。
レイクハウスを作成する
Microsoft Fabric にサインインします。
ホームページの左下隅にあるワークロード スイッチャー アイコンを使用して、Data Engineering に切り替えます。
左側のメニューから [ワークスペース] を選択します。
ワークスペースを開くには、上部にある [検索テキスト ボックス] にその名前を入力し、検索結果から選択します。
ワークスペースのホーム ページの左上隅にある [新規] を選択し、[レイクハウス]を選択します。
レイクハウスに名前を付け、[作成] を選択します。
新しいレイクハウスが作成され、これが最初の OneLake 項目である場合は、OneLake はバックグラウンドでプロビジョニングされます。
この時点で、OneLake の上にレイクハウスが実行されています。 次に、データを追加し、レイクの整理を開始します。
レイクハウスにデータを読み込む
左側のファイル ブラウザーで、[ファイル] を選択し、[新しいサブフォルダー] を選択します。 サブフォルダーに名前を付け、[作成] を選択します。
この手順を繰り返して、必要に応じてサブフォルダーを追加できます。
フォルダーを選択し、一覧から [ファイルのアップロード] を選択します。
ローカル コンピューターから目的のファイルを選択し、[アップロード] を選択します。
これで、OneLake にデータが追加されました。 OneLake にデータを一括で追加したり、データの読み込みをスケジュールしたりするには、[データの取得] ボタンを使用してパイプラインを作成します。 データを取得するためのオプションの詳細については、「Microsoft Fabric の意思決定ガイド (コピー アクティビティ、データフロー、Spark)」 を参照してください。
アップロードしたファイルの [その他] アイコン (...) を選択し、メニューから [プロパティ] を選択します。
[プロパティ] 画面には、ノートブックで使用する URL と Azure Blob File System (ABFS) パスなど、ファイルのさまざまな詳細が表示されます。 ABFS を Fabric Notebook にコピーして、Apache Spark を使用してデータのクエリを実行できます。 Fabric のノートブックの詳細については、「ノートブックを使用して Lakehouse 内のデータを探索する」を参照してください。
これで、OneLake に格納されたデータを含む最初のレイクハウスが作成されました。