다음을 통해 공유


Azure HDInsight 클러스터에서 Azure Storage 사용

Azure Blob Storage 또는 Azure Data Lake Storage Gen2에 데이터를 저장할 수 있습니다. 또는 이러한 옵션을 조합할 수도 있습니다. 이러한 스토리지 옵션을 사용하면 사용자 데이터 손실 없이 계산에 사용된 HDInsight 클러스터를 안전하게 삭제할 수 있습니다.

Apache Hadoop은 기본 파일 시스템의 개념을 지원합니다. 기본 파일 시스템은 기본 체계와 권한을 의미합니다. 상대 경로를 확인하기 위해 사용할 수 있습니다. HDInsight 클러스터를 만드는 과정에서 Azure Storage의 Blob 컨테이너를 기본 파일 시스템으로 지정할 수 있습니다. 또는 HDInsight 3.6에서는 몇 가지 예외가 있는 기본 파일 시스템으로 Azure Blob Storage 또는 Azure Data Lake Storage Gen2를 선택할 수 있습니다.

이 문서에서는 Azure Storage가 HDInsight 클러스터에서 작동하는 방식에 대해 알아봅니다.

Important

스토리지 계정 종류 BlobStorage는 HDInsight 클러스터의 보조 스토리지로만 사용할 수 있습니다.

스토리지 계정 종류 지원되는 서비스 지원되는 성능 계층 지원되지 않는 성능 계층 지원되는 액세스 계층
StorageV2(범용 v2) Blob Standard Premium 핫, 쿨, 보관*
스토리지(범용 v1) Blob Standard Premium 해당 없음
BlobStorage Blob Standard Premium 핫, 쿨, 보관*

기본 Blob 컨테이너는 비즈니스 데이터를 저장하는 데 사용하지 않는 것이 좋습니다. 스토리지 비용을 줄이기 위해 사용한 후에는 매번 기본 Blob 컨테이너를 삭제하는 것이 좋습니다. 기본 컨테이너에는 애플리케이션 및 시스템 로그가 포함되어 있습니다. 컨테이너를 삭제하기 전에 이러한 로그를 검색해야 합니다.

여러 클러스터에서 하나의 Blob 컨테이너를 기본 파일 시스템으로 공유하는 것은 지원되지 않습니다.

참고 항목

보관 액세스 계층은 몇 시간씩 검색이 대기되는 오프라인 계층으로, HDInsight용으로는 권장되지 않습니다. 자세한 내용은 보관 액세스 계층을 참조하세요.

클러스터 내에서 파일에 액세스

참고 항목

Azure Storage 팀은 WASB에서 모든 활성 개발을 중단했으며 모든 고객이 ABFS 드라이버를 사용하여 Blob 및 ADLS gen2와 상호 작용할 것을 권장합니다. 자세한 내용은 ABFS(Azure Blob 파일 시스템 드라이버): Hadoop 전용 Azure Storage 드라이버를 참조하세요.

  • 정규화된 이름 사용. 이 방법의 경우 액세스할 파일에 대한 전체 경로를 제공합니다.

    wasb://<containername>@<accountname>.blob.core.windows.net/<file.path>/
    wasbs://<containername>@<accountname>.blob.core.windows.net/<file.path>/
    
  • 줄인 경로 형식 사용. 이 방식의 경우 클러스터 루트에 대한 경로를 다음으로 대체합니다.

    wasb:///<file.path>/
    wasbs:///<file.path>/
    
  • 상대 경로 사용. 이 방법의 경우 액세스할 파일에 대한 상대 경로만 제공합니다.

    /<file.path>/
    

데이터 액세스 예제

예제는 클러스터의 헤드 노드에 대한 ssh 연결을 기반으로 합니다. 이 예제에서는 세 가지 URI 스키마를 모두 사용합니다. CONTAINERNAMESTORAGEACCOUNT를 관련 값으로 바꾸기

몇 가지 hdfs 명령

  1. 로컬 스토리지에 파일을 만듭니다.

    touch testFile.txt
    
  2. 클러스터 스토리지에 디렉터리를 만듭니다.

    hdfs dfs -mkdir wasbs://CONTAINERNAME@STORAGEACCOUNT.blob.core.windows.net/sampledata1/
    hdfs dfs -mkdir wasbs:///sampledata2/
    hdfs dfs -mkdir /sampledata3/
    
  3. 로컬 스토리지에서 클러스터 스토리지로 데이터를 복사합니다.

    hdfs dfs -copyFromLocal testFile.txt  wasbs://CONTAINERNAME@STORAGEACCOUNT.blob.core.windows.net/sampledata1/
    hdfs dfs -copyFromLocal testFile.txt  wasbs:///sampledata2/
    hdfs dfs -copyFromLocal testFile.txt  /sampledata3/
    
  4. 클러스터 스토리지의 디렉터리 콘텐츠를 나열합니다.

    hdfs dfs -ls wasbs://CONTAINERNAME@STORAGEACCOUNT.blob.core.windows.net/sampledata1/
    hdfs dfs -ls wasbs:///sampledata2/
    hdfs dfs -ls /sampledata3/
    

참고 항목

HDInsight 외부에서 blob를 작업할 때 대부분의 유틸리티는 WASB 형식을 인식하지 않으며 대신 example/jars/hadoop-mapreduce-examples.jar과 같은 기본 경로 형식을 예상합니다.

Hive 테이블 만들기

설명을 위해 세 가지 파일 위치가 표시되었습니다. 실제로 실행할 때는 LOCATION 항목 중 하나만 사용합니다.

DROP TABLE myTable;
CREATE EXTERNAL TABLE myTable (
    t1 string,
    t2 string,
    t3 string,
    t4 string,
    t5 string,
    t6 string,
    t7 string)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ' '
STORED AS TEXTFILE
LOCATION 'wasbs://CONTAINERNAME@STORAGEACCOUNT.blob.core.windows.net/example/data/';
LOCATION 'wasbs:///example/data/';
LOCATION '/example/data/';

외부 클러스터에서 파일에 액세스

Microsoft는 Azure Storage에서 작업하는 데 필요한 다음과 같은 도구를 제공합니다.

도구 Linux OS X Windows
Azure Portal
Azure CLI
Azure PowerShell
AZCopy

Ambari에서 스토리지 경로 식별

  • 구성된 기본 저장소의 전체 경로를 확인하려면

    HDFS>구성으로 이동하고 필터 입력 상자에 fs.defaultFS를 입력합니다.

  • wasb 저장소가 보조 스토리지로 구성되었는지 확인하려면 다음으로 이동합니다.

    HDFS>구성으로 이동하고 필터 입력 상자에 blob.core.windows.net를 입력합니다.

Ambari REST API를 사용하여 경로를 가져오려면 기본 스토리지 가져오기를 참조하세요.

Blob 컨테이너

Blob을 사용하려면 먼저 Azure Storage 계정을 만듭니다. 이 단계의 일부로 스토리지 계정이 만들어지는 Azure 지역을 지정합니다. 클러스터와 스토리지 계정은 동일한 지역에서 호스트되어야 합니다. Hive 메타스토어 SQL Server 데이터베이스 및 Apache Oozie 메타스토어 SQL Server 데이터베이스는 동일한 지역에 위치해야 합니다.

어디에 있든, 만들어진 각 Blob은 Azure Storage 계정의 일부 컨테이너에 속합니다. 이 컨테이너는 HDInsight 외부에서 만든 기존 Blob일 수 있습니다. 또는 HDInsight 클러스터용으로 생성된 컨테이너일 수도 있습니다.

기본 Blob 컨테이너는 작업 기록 및 로그와 같은 클러스터 특정 정보를 저장합니다. 여러 HDInsight 클러스터의 기본 Blob 컨테이너를 공유하지 마세요. 이 작업을 수행하면 작업 기록이 손상될 수 있습니다. 각 클러스터에 다른 컨테이너를 사용하는 것이 좋습니다. 기본 스토리지 계정이 아닌 모든 관련 클러스터용으로 지정된, 연결된 스토리지 계정에 공유 데이터를 저장합니다. 연결된 스토리지 계정에 대한 자세한 내용은 HDInsight 클러스터 만들기를 참조하세요. 그러나 원래 HDInsight 클러스터를 삭제한 후에 기본 스토리지 컨테이너를 다시 사용할 수 있습니다. HBase 클러스터의 경우 삭제된 HBase 클러스터에서 사용되는 기본 Blob 컨테이너를 사용하여 새 HBase 클러스터를 만들면 HBase 테이블 스키마 및 데이터를 실제로 유지할 수 있습니다.

참고 항목

보안 전송이 필요한 기능은 보안 연결을 통해 모든 요청을 계정에 적용합니다. 이 기능은 HDInsight 클러스터 버전 3.6 이상에서만 지원됩니다. 자세한 내용은 Azure HDInsight에서 보안 전송 스토리지 계정으로 Apache Hadoop 클러스터 만들기를 참조하세요.

추가 스토리지 계정 사용

HDInsight 클러스터를 만드는 동안 클러스터와 연결할 Azure Storage 계정을 지정합니다. 또한 클러스터 생성 도중이나 생성 후에 동일한 Azure 구독 또는 서로 다른 Azure 구독의 스토리지 계정을 추가할 수 있습니다. 스토리지 계정 추가에 대한 지침은 HDInsight 클러스터 만들기를 참조하세요.

Warning

HDInsight 클러스터가 아닌 다른 위치에서 추가 스토리지 계정을 사용하는 것은 지원되지 않습니다.

다음 단계

이 문서에서는 HDInsight로 HDFS 호환 Azure Storage를 사용하는 방법을 알아보았습니다. 이 스토리지를 사용하면 적응형 장기 보관 데이터 획득 솔루션을 구축할 수 있으며, HDInsight를 사용하여 저장된 구조적 및 비정형 데이터 내부의 정보를 활용할 수 있습니다.

자세한 내용은 다음을 참조하세요.