Udostępnij za pośrednictwem


Korzystanie z interfejsu wiersza polecenia systemu plików HDFS z Data Lake Storage Gen2

Dostęp do danych na koncie magazynu i zarządzanie nimi można uzyskać przy użyciu interfejsu wiersza polecenia tak samo jak w przypadku rozproszonego systemu plików Hadoop (HDFS). Ten artykuł zawiera kilka przykładów, które pomogą Ci rozpocząć pracę.

Usługa HDInsight zapewnia dostęp do rozproszonego kontenera, który jest lokalnie dołączony do węzłów obliczeniowych. Dostęp do tego kontenera można uzyskać za pomocą powłoki, która bezpośrednio współdziała z systemem plików HDFS i innymi systemami plików, które obsługuje usługa Hadoop.

Aby uzyskać więcej informacji na temat interfejsu wiersza polecenia systemu plików HDFS, zobacz oficjalną dokumentację i przewodnik po uprawnieniach systemu plików HDFS

Uwaga

Jeśli używasz usługi Azure Databricks zamiast usługi HDInsight i chcesz korzystać z danych przy użyciu interfejsu wiersza polecenia, możesz użyć interfejsu wiersza polecenia usługi Databricks do interakcji z systemem plików usługi Databricks. Zobacz Interfejs wiersza polecenia usługi Databricks.

Używanie interfejsu wiersza polecenia systemu plików HDFS z klastrem hadoop usługi HDInsight w systemie Linux

Najpierw ustanów zdalny dostęp do usług. Jeśli wybierzesz protokół SSH , przykładowy kod programu PowerShell będzie wyglądać następująco:

#Connect to the cluster via SSH.
ssh sshuser@clustername-ssh.azurehdinsight.net
#Execute basic HDFS commands. Display the hierarchy.
hdfs dfs -ls /
#Create a sample directory.
hdfs dfs -mkdir /samplefolder

Parametry połączenia można znaleźć w sekcji "Logowanie do protokołu SSH i klastra" bloku klastra usługi HDInsight w Azure Portal. Poświadczenia SSH zostały określone podczas tworzenia klastra.

Ważne

Rozliczenia klastra usługi HDInsight są uruchamiane po utworzeniu klastra i zatrzymuje się po usunięciu klastra. Opłaty są naliczane za minutę, więc jeśli klaster nie jest używany, należy go usunąć. Aby dowiedzieć się, jak usunąć klaster, zobacz nasz artykuł na ten temat. Jednak dane przechowywane na koncie magazynu z włączoną Data Lake Storage Gen2 są utrwalane nawet po usunięciu klastra usługi HDInsight.

Tworzenie kontenera

hdfs dfs -D "fs.azure.createRemoteFileSystemDuringInitialization=true" -ls abfs://<container-name>@<storage-account-name>.dfs.core.windows.net/

  • <container-name> Zastąp symbol zastępczy nazwą, którą chcesz nadać kontenerowi.

  • Zastąp symbol zastępczy <storage-account-name> nazwą konta magazynu.

Pobieranie listy plików lub katalogów

hdfs dfs -ls <path>

<path> Zastąp symbol zastępczy identyfikatorem URI kontenera lub folderu kontenera.

Na przykład: hdfs dfs -ls abfs://my-file-system@mystorageaccount.dfs.core.windows.net/my-directory-name

Tworzenie katalogu

hdfs dfs -mkdir [-p] <path>

<path> Zastąp symbol zastępczy nazwą głównego kontenera lub folderem w kontenerze.

Na przykład: hdfs dfs -mkdir abfs://my-file-system@mystorageaccount.dfs.core.windows.net/

Usuwanie pliku lub katalogu

hdfs dfs -rm <path>

<path> Zastąp symbol zastępczy identyfikatorem URI pliku lub folderu, który chcesz usunąć.

Na przykład: hdfs dfs -rmdir abfs://my-file-system@mystorageaccount.dfs.core.windows.net/my-directory-name/my-file-name

Wyświetlanie list Access Control (ACL) plików i katalogów

hdfs dfs -getfacl [-R] <path>

Przykład:

hdfs dfs -getfacl -R /dir

Zobacz getfacl

Ustawianie list ACL plików i katalogów

hdfs dfs -setfacl [-R] [-b|-k -m|-x <acl_spec> <path>]|[--set <acl_spec> <path>]

Przykład:

hdfs dfs -setfacl -m user:hadoop:rw- /file

Zobacz setfacl

Zmienianie właściciela plików

hdfs dfs -chown [-R] <new_owner>:<users_group> <URI>

Zobacz chown

Zmienianie skojarzenia grup plików

hdfs dfs -chgrp [-R] <group> <URI>

Zobacz chgrp

Zmienianie uprawnień plików

hdfs dfs -chmod [-R] <mode> <URI>

Zobacz chmod

Pełną listę poleceń można wyświetlić w witrynie internetowej przewodnika powłoki systemu plików Apache Hadoop 2.4.1 .

Następne kroki