Properti konfigurasi Apache Spark & Apache Hadoop (HDFS)
Berlaku untuk: SQL Server 2019 (15.x)
Penting
Add-on Kluster Big Data Microsoft SQL Server 2019 akan dihentikan. Dukungan untuk SQL Server 2019 Kluster Big Data akan berakhir pada 28 Februari 2025. Semua pengguna SQL Server 2019 yang ada dengan Jaminan Perangkat Lunak akan didukung sepenuhnya pada platform dan perangkat lunak akan terus dipertahankan melalui pembaruan kumulatif SQL Server hingga saat itu. Untuk informasi selengkapnya, lihat posting blog pengumuman dan Opsi big data di platform Microsoft SQL Server.
Kluster Big Data mendukung konfigurasi waktu penyebaran dan waktu pasca-penyebaran komponen Apache Spark dan Hadoop di cakupan layanan dan sumber daya. Kluster Big Data menggunakan nilai konfigurasi default yang sama dengan proyek sumber terbuka masing-masing untuk sebagian besar pengaturan. Pengaturan yang kami ubah tercantum di bawah ini bersama dengan deskripsi dan nilai defaultnya. Selain sumber daya gateway, tidak ada perbedaan antara pengaturan yang dapat dikonfigurasi pada cakupan layanan dan cakupan sumber daya.
Anda dapat menemukan semua konfigurasi yang mungkin dan default untuk masing-masing di situs dokumentasi Apache terkait:
- Apache Spark: https://spark.apache.org/docs/latest/configuration.html
- Apache Hadoop:
- HDFS HDFS-Site: https://hadoop.apache.org/docs/r2.7.1/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml
- Situs Inti HDFS: https://hadoop.apache.org/docs/r2.8.0/hadoop-project-dist/hadoop-common/core-default.xml
- Benang: https://hadoop.apache.org/docs/r3.1.1/hadoop-yarn/hadoop-yarn-site/ResourceModel.html
- Sarang: https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties#ConfigurationProperties-MetaStore
- Livy: https://github.com/cloudera/livy/blob/master/conf/livy.conf.template
- Gateway Apache Knox: https://knox.apache.org/books/knox-0-14-0/user-guide.html#Gateway+Details
Pengaturan yang tidak kami dukung untuk mengonfigurasi juga tercantum di bawah ini.
Catatan
Untuk menyertakan Spark di kumpulan Penyimpanan, atur nilai includeSpark
boolean dalam bdc.json
file konfigurasi di spec.resources.storage-0.spec.settings.spark
. Lihat Mengonfigurasi Apache Spark dan Apache Hadoop di Kluster Big Data untuk mendapatkan petunjuk.
pengaturan Spark default khusus Kluster Big Data
Pengaturan Spark di bawah ini adalah pengaturan yang memiliki default khusus BDC tetapi dapat dikonfigurasi pengguna. Pengaturan yang dikelola sistem tidak disertakan.
Nama Pengaturan | Deskripsi | Jenis | Nilai Default |
---|---|---|---|
capacity-scheduler.yarn.scheduler.capacity.maximum-applications | Jumlah maksimum aplikasi dalam sistem yang dapat aktif secara bersamaan baik yang berjalan maupun tertunda. | int | 10000 |
capacity-scheduler.yarn.scheduler.capacity.resource-calculator | Implementasi ResourceCalculator yang akan digunakan untuk membandingkan Sumber Daya di penjadwal. | string | org.apache.hadoop.yarn.util.resource.DominantResourceCalculator |
capacity-scheduler.yarn.scheduler.capacity.root.queues | Penjadwal kapasitas dengan antrean yang telah ditentukan sebelumnya yang disebut root. | string | Default |
capacity-scheduler.yarn.scheduler.capacity.root.default.capacity | Kapasitas antrean dalam persentase (%) sebagai kapasitas minimum antrean sumber daya absolut untuk antrean root. | int | 100 |
spark-defaults-conf.spark.driver.cores | Jumlah inti yang digunakan untuk proses driver, hanya dalam mode kluster. | int | 1 |
spark-defaults-conf.spark.driver.memoryOverhead | Jumlah memori off-heap yang akan dialokasikan per driver dalam mode kluster. | int | 384 |
spark-defaults-conf.spark.executor.instances | Jumlah pelaksana untuk alokasi statis. | int | 1 |
spark-defaults-conf.spark.executor.cores | Jumlah inti yang akan digunakan pada setiap pelaksana. | int | 1 |
spark-defaults-conf.spark.driver.memory | Jumlah memori yang digunakan untuk proses driver. | string | 1g |
spark-defaults-conf.spark.executor.memory | Jumlah memori yang digunakan per proses pelaksana. | string | 1g |
spark-defaults-conf.spark.executor.memoryOverhead | Jumlah memori off-heap yang akan dialokasikan per eksekutor. | int | 384 |
yarn-site.yarn.nodemanager.resource.memory-mb | Jumlah memori fisik, dalam MB, yang dapat dialokasikan untuk kontainer. | int | 8192 |
yarn-site.yarn.scheduler.maximum-allocation-mb | Alokasi maksimum untuk setiap permintaan kontainer di resource manager. | int | 8192 |
yarn-site.yarn.nodemanager.resource.cpu-vcores | Jumlah inti CPU yang dapat dialokasikan untuk kontainer. | int | 32 |
yarn-site.yarn.scheduler.maximum-allocation-vcores | Alokasi maksimum untuk setiap permintaan kontainer di resource manager, dalam hal inti CPU virtual. | int | 8 |
yarn-site.yarn.nodemanager.linux-container-executor.secure-mode.pool-user-count | Jumlah pengguna kumpulan untuk pelaksana kontainer linux dalam mode aman. | int | 6 |
yarn-site.yarn.scheduler.capacity.maximum-am-resource-percent | Persentase maksimum sumber daya dalam kluster yang dapat digunakan untuk menjalankan master aplikasi. | float | 0.1 |
yarn-site.yarn.nodemanager.container-executor.class | Pelaksana kontainer untuk sistem operasi tertentu. | string | org.apache.hadoop.yarn.server.nodemanager.LinuxContainerExecutor |
capacity-scheduler.yarn.scheduler.capacity.root.default.user-limit-factor | Kelipatan kapasitas antrean yang dapat dikonfigurasi untuk memungkinkan satu pengguna memperoleh lebih banyak sumber daya. | int | 1 |
capacity-scheduler.yarn.scheduler.capacity.root.default.maximum-capacity | Kapasitas antrean maksimum dalam persentase (%) sebagai float ATAU sebagai kapasitas maksimum antrean sumber daya absolut. Mengatur nilai ini ke -1 menetapkan kapasitas maksimum ke 100%. | int | 100 |
capacity-scheduler.yarn.scheduler.capacity.root.default.state | Status antrean bisa menjadi salah satu dari Berjalan atau Dihentikan. | string | RUNNING |
capacity-scheduler.yarn.scheduler.capacity.root.default.maximum-application-lifetime | Masa pakai maksimum aplikasi yang dikirimkan ke antrean dalam hitungan detik. Nilai apa pun yang kurang dari atau sama dengan nol akan dianggap sebagai dinonaktifkan. | int | -1 |
capacity-scheduler.yarn.scheduler.capacity.root.default.default-application-lifetime | Masa pakai default aplikasi yang dikirimkan ke antrean dalam hitungan detik. Nilai apa pun yang kurang dari atau sama dengan nol akan dianggap sebagai dinonaktifkan. | int | -1 |
capacity-scheduler.yarn.scheduler.capacity.node-locality-delay | Jumlah peluang penjadwalan yang terlewat setelah itu CapacityScheduler mencoba menjadwalkan kontainer rak-lokal. | int | 40 |
capacity-scheduler.yarn.scheduler.capacity.rack-locality-additional-delay | Jumlah peluang penjadwalan terlewat tambahan atas node-locality-delay, setelah itu CapacityScheduler mencoba menjadwalkan kontainer nonaktif. | int | -1 |
hadoop-env. HADOOP_HEAPSIZE_MAX | Ukuran timbunan maksimum default dari semua proses Hadoop JVM. | int | 2048 |
yarn-env. YARN_RESOURCEMANAGER_HEAPSIZE | Ukuran timbunan Yarn ResourceManager. | int | 2048 |
yarn-env. YARN_NODEMANAGER_HEAPSIZE | Ukuran timbunan Yarn NodeManager. | int | 2048 |
dipetakan-env. HADOOP_JOB_HISTORYSERVER_HEAPSIZE | Ukuran timbunan Riwayat Pekerjaan HadoopServer. | int | 2048 |
hive-env. HADOOP_HEAPSIZE | Ukuran timbunan Hadoop untuk Apache Hive. | int | 2048 |
livy-conf.livy.server.session.timeout-check | Periksa batas waktu sesi server Livy. | bool | benar |
livy-conf.livy.server.session.timeout-check.skip-busy | Lewati sibuk untuk Memeriksa batas waktu sesi server Livy. | bool | benar |
livy-conf.livy.server.session.timeout | Waktu habis untuk sesi server livy di (ms/s/m | min/h/d/y). | string | 2 jam |
livy-conf.livy.server.yarn.poll-interval | Interval polling untuk yarn di server Livy di (ms/s/m | min/h/d/y). | string | 500md |
livy-conf.livy.rsc.jars | Jar Livy RSC. | string | local:/opt/livy/rsc-jars/livy-api.jar,local:/opt/livy/rsc-jars/livy-rsc.jar,local:/opt/livy/rsc-jars/netty-all.jar |
livy-conf.livy.repl.jars | Livy repl jars. | string | local:/opt/livy/repl_2.11-jars/livy-core.jar,local:/opt/livy/repl_2.11-jars/livy-repl.jar,local:/opt/livy/repl_2.11-jars/commons-codec.jar |
livy-conf.livy.rsc.sparkr.package | Paket Livy RSC SparkR. | string | hdfs:///system/livy/sparkr.zip |
livy-env. LIVY_SERVER_JAVA_OPTS | Opsi Java Livy Server. | string | -Xmx2g |
spark-defaults-conf.spark.r.backend Koneksi ionTimeout | Koneksi batas waktu yang ditetapkan oleh proses R pada koneksinya ke RBackend dalam hitungan detik. | int | 86400 |
spark-defaults-conf.spark.pyspark.python | Opsi Python untuk spark. | string | /opt/bin/python3 |
spark-defaults-conf.spark.yarn.jars | Botol benang. | string | local:/opt/spark/jars/* |
spark-history-server-conf.spark.history.fs.cleaner.maxAge | Usia maksimum file riwayat pekerjaan sebelum dihapus oleh pembersih riwayat sistem file di (ms/s/m | min/h/d/y). | string | 7h terakhir |
spark-history-server-conf.spark.history.fs.cleaner.interval | Interval pembersih untuk riwayat spark di (ms/s/m | min/h/d/y). | string | 12 jam |
hadoop-env. HADOOP_CLASSPATH | Mengatur classpath Hadoop tambahan. | string | |
spark-env. SPARK_DAEMON_MEMORY | Memori Spark Daemon. | string | 2g |
yarn-site.yarn.log-aggregation.retain-seconds | Ketika agregasi log diaktifkan, properti ini menentukan jumlah detik untuk menyimpan log. | int | 604800 |
yarn-site.yarn.nodemanager.log-aggregation.compression-type | Jenis kompresi untuk agregasi log untuk Yarn NodeManager. | string | Gz |
yarn-site.yarn.nodemanager.log-aggregation.roll-monitoring-interval-seconds | Interval detik untuk Pemantauan Roll di Agregasi Log NodeManager. | int | 3600 |
yarn-site.yarn.scheduler.minimum-allocation-mb | Alokasi minimum untuk setiap permintaan kontainer di Resource Manager, dalam MB. | int | 512 |
yarn-site.yarn.scheduler.minimum-allocation-vcores | Alokasi minimum untuk setiap permintaan kontainer di Resource Manager dalam hal inti CPU virtual. | int | 1 |
yarn-site.yarn.nm.liveness-monitor.expiry-interval-ms | Berapa lama menunggu sampai manajer node dianggap mati. | int | 180000 |
yarn-site.yarn.resourcemanager.zk-timeout-ms | Waktu sesi 'ZooKeeper' habis dalam milidetik. | int | 40000 |
scheduler.yarn.scheduler.capacity.root.default.acl_application_max_priority kapasitas | ACL dari siapa yang dapat mengirimkan aplikasi dengan prioritas yang dikonfigurasi. Misalnya, [user={name} group={name} max_priority={priority} default_priority={priority}]. | string | * |
includeSpark | Boolean untuk mengonfigurasi apakah pekerjaan Spark dapat berjalan di kumpulan Penyimpanan atau tidak. | bool | benar |
enableSparkOnK8s | Boolean untuk mengonfigurasi apakah Spark pada K8s diaktifkan atau tidak, yang menambahkan kontainer untuk K8 di kepala Spark. | bool | salah |
sparkVersion | Versi Spark | string | 2.4 |
spark-env. PYSPARK_ARCHIVES_PATH | Jalur ke jar arsip pyspark yang digunakan dalam pekerjaan spark. | string | local:/opt/spark/python/lib/pyspark.zip,local:/opt/spark/python/lib/py4j-0.10.7-src.zip |
Bagian berikut mencantumkan konfigurasi yang tidak didukung.
pengaturan HDFS default khusus Kluster Big Data
Pengaturan HDFS di bawah ini adalah pengaturan yang memiliki default khusus BDC tetapi dapat dikonfigurasi pengguna. Pengaturan yang dikelola sistem tidak disertakan.
Nama Pengaturan | Deskripsi | Jenis | Nilai Default |
---|---|---|---|
hdfs-site.dfs.replication | Replikasi Blok Default. | int | 2 |
hdfs-site.dfs.namenode.provided.enabled | Memungkinkan simpul nama untuk menangani penyimpanan yang disediakan. | bool | benar |
hdfs.site.dfs.namenode.mount.acls.enabled | Atur ke true untuk mewarisi ACL (Daftar Kontrol Akses) dari penyimpanan jarak jauh selama pemasangan. | bool | salah |
hdfs-site.dfs.datanode.provided.enabled | Memungkinkan simpul data untuk menangani penyimpanan yang disediakan. | bool | benar |
hdfs-site.dfs.datanode.provided.volume.lazy.load | Aktifkan beban malas dalam simpul data untuk penyimpanan yang disediakan. | bool | benar |
hdfs-site.dfs.provided.aliasmap.inmemory.enabled | Aktifkan peta alias dalam memori untuk penyimpanan yang disediakan. | bool | benar |
hdfs-site.dfs.provided.aliasmap.class | Kelas yang digunakan untuk menentukan format input blok pada penyimpanan yang disediakan. | string | org.apache.hadoop.hdfs.server.common.blockaliasmap.impl.InMemoryLevelDBAliasMapClient |
hdfs-site.dfs.namenode.provided.aliasmap.class | Kelas yang digunakan untuk menentukan format input blok pada penyimpanan yang disediakan untuk namenode. | string | org.apache.hadoop.hdfs.server.common.blockaliasmap.impl.NamenodeInMemoryAliasMapClient |
hdfs-site.dfs.provided.aliasmap.load.retries | Jumlah percobaan ulang pada datanode untuk memuat aliasmap yang disediakan. | int | 0 |
hdfs-site.dfs.provided.aliasmap.inmemory.batch-size | Ukuran batch saat melakukan iterasi pada database yang mendukung aliasmap. | int | 500 |
hdfs-site.dfs.datanode.provided.volume.readthrough | Aktifkan readthrough untuk penyimpanan yang disediakan dalam datanode. | bool | benar |
hdfs-site.dfs.provided.cache.capacity.mount | Aktifkan pemasangan kapasitas cache untuk penyimpanan yang disediakan. | bool | benar |
hdfs-site.dfs.provided.overreplication.factor | Faktor replikasi berlebihan untuk penyimpanan yang disediakan. Jumlah blok cache pada BDC yang dibuat per blok HDFS jarak jauh. | float | 1 |
hdfs-site.dfs.provided.cache.capacity.fraction | Pecahan kapasitas cache untuk penyimpanan yang disediakan. Pecahan total kapasitas dalam kluster yang dapat digunakan untuk menyimpan data dari penyimpanan yang disediakan. | float | 0.01 |
hdfs-site.dfs.provided.cache.capacity.bytes | Kapasitas kluster untuk digunakan sebagai ruang cache untuk Blok yang disediakan, dalam byte. | int | -1 |
hdfs-site.dfs.ls.limit | Batasi jumlah file yang dicetak oleh ls. | int | 500 |
hdfs-env. HDFS_NAMENODE_OPTS | Opsi Namenode HDFS. | string | -Dhadoop.security.logger=INFO,RFAS -Xmx2g |
hdfs-env. HDFS_DATANODE_OPTS | Opsi Datanode HDFS. | string | -Dhadoop.security.logger=ERROR,RFAS -Xmx2g |
hdfs-env. HDFS_ZKFC_OPTS | Opsi HDFS ZKFC. | string | -Xmx1g |
hdfs-env. HDFS_JOURNALNODE_OPTS | Opsi HDFS JournalNode. | string | -Xmx2g |
hdfs-env. HDFS_AUDIT_LOGGER | Opsi Pencatat Audit HDFS. | string | INFO,RFAAUDIT |
core-site.hadoop.security.group.mapping.ldap.search.group.hierarchy.levels | Tingkat hierarki untuk grup Pencarian LDAP Hadoop situs inti. | int | 10 |
core-site.fs.permissions.umask-mode | Mode umask izin. | string | 077 |
core-site.hadoop.security.kms.client.failover.max.retries | Percobaan ulang maksimum untuk failover klien. | int | 20 |
zoo-cfg.tickTime | Centang Waktu untuk konfigurasi 'ZooKeeper'. | int | 2000 |
zoo-cfg.initLimit | Init Time untuk konfigurasi 'ZooKeeper'. | int | 10 |
zoo-cfg.syncLimit | Waktu Sinkronisasi untuk konfigurasi 'ZooKeeper'. | int | 5 |
zoo-cfg.maxClientCnxns | Koneksi Klien Maks untuk konfigurasi 'ZooKeeper'. | int | 60 |
zoo-cfg.minSessionTimeout | Batas Waktu Sesi Minimum untuk konfigurasi 'ZooKeeper'. | int | 4000 |
zoo-cfg.maxSessionTimeout | Batas Waktu Sesi Maksimum untuk konfigurasi 'ZooKeeper'. | int | 40000 |
zoo-cfg.autopurge.snapRetainCount | Jumlah Snap Retain untuk konfigurasi Autopurge 'ZooKeeper'. | int | 3 |
zoo-cfg.autopurge.purgeInterval | Interval penghapusan menyeluruh untuk konfigurasi Autopurge 'ZooKeeper'. | int | 0 |
zookeeper-java-env. JVMFLAGS | Bendera JVM untuk lingkungan Java di 'ZooKeeper'. | string | -Xmx1G -Xms1G |
zookeeper-log4j-properties.zookeeper.console.threshold | Ambang batas untuk konsol log4j di 'ZooKeeper'. | string | INFO |
zoo-cfg.zookeeper.request.timeout | Mengontrol batas waktu permintaan 'ZooKeeper' dalam milidetik. | int | 40000 |
kms-site.hadoop.security.kms.encrypted.key.cache.size | Ukuran cache untuk kunci terenkripsi di hadoop kms. | int | 500 |
pengaturan Gateway default khusus Kluster Big Data
Pengaturan Gateway di bawah ini adalah pengaturan yang memiliki default khusus BDC tetapi dapat dikonfigurasi pengguna. Pengaturan yang dikelola sistem tidak disertakan. Pengaturan gateway hanya dapat dikonfigurasi pada cakupan sumber daya .
Nama Pengaturan | Deskripsi | Jenis | Nilai Default |
---|---|---|---|
gateway-site.gateway.httpclient.socketTimeout | Batas Waktu Soket untuk klien HTTP di gateway di (ms/s/m). | string | An |
gateway-site.sun.security.krb5.debug | Debug untuk Kerberos Security. | bool | benar |
knox-env. KNOX_GATEWAY_MEM_OPTS | Opsi Memori Knox Gateway. | string | -Xmx2g |
Konfigurasi Spark yang tidak didukung
Konfigurasi berikut spark
tidak didukung dan tidak dapat diubah dalam konteks Kluster Big Data.
Kategori | Sub-Kategori | File | Konfigurasi yang Tidak Didukung |
---|---|---|---|
yarn-site | yarn-site.xml | yarn.log-aggregation-enable | |
yarn.log.server.url | |||
yarn.nodemanager.pmem-check-enabled | |||
yarn.nodemanager.vmem-check-enabled | |||
yarn.nodemanager.aux-services | |||
yarn.resourcemanager.address | |||
yarn.nodemanager.address | |||
yarn.client.failover-no-ha-proxy-provider | |||
yarn.client.failover-proxy-provider | |||
yarn.http.policy | |||
yarn.nodemanager.linux-container-executor.secure-mode.use-pool-user | |||
yarn.nodemanager.linux-container-executor.secure-mode.pool-user-prefix | |||
yarn.nodemanager.linux-container-executor.nonsecure-mode.local-user | |||
yarn.acl.enable | |||
yarn.admin.acl | |||
yarn.resourcemanager.hostname | |||
yarn.resourcemanager.principal | |||
yarn.resourcemanager.keytab | |||
yarn.resourcemanager.webapp.spnego-keytab-file | |||
yarn.resourcemanager.webapp.spnego-principal | |||
yarn.nodemanager.principal | |||
yarn.nodemanager.keytab | |||
yarn.nodemanager.webapp.spnego-keytab-file | |||
yarn.nodemanager.webapp.spnego-principal | |||
yarn.resourcemanager.ha.enabled | |||
yarn.resourcemanager.cluster-id | |||
yarn.resourcemanager.zk-address | |||
yarn.resourcemanager.ha.rm-ids | |||
yarn.resourcemanager.hostname.* | |||
penjadwal kapasitas | capacity-scheduler.xml | yarn.scheduler.capacity.root.acl_submit_applications | |
yarn.scheduler.capacity.root.acl_administer_queue | |||
yarn.scheduler.capacity.root.default.acl_application_max_priority | |||
yarn-env | yarn-env.sh | ||
spark-defaults-conf | spark-defaults.conf | spark.yarn.archive | |
spark.yarn.historyServer.address | |||
spark.eventLog.enabled | |||
spark.eventLog.dir | |||
spark.sql.warehouse.dir | |||
spark.sql.hive.metastore.version | |||
spark.sql.hive.metastore.jars | |||
spark.extraListeners | |||
spark.metrics.conf | |||
spark.ssl.enabled | |||
spark.authenticate | |||
spark.network.crypto.enabled | |||
spark.ssl.keyStore | |||
spark.ssl.keyStorePassword | |||
spark.ui.enabled | |||
spark-env | spark-env.sh | SPARK_NO_DAEMONIZE | |
SPARK_DIST_CLASSPATH | |||
spark-history-server-conf | spark-history-server.conf | spark.history.fs.logDirectory | |
spark.ui.proxyBase | |||
spark.history.fs.cleaner.enabled | |||
spark.ssl.enabled | |||
spark.authenticate | |||
spark.network.crypto.enabled | |||
spark.ssl.keyStore | |||
spark.ssl.keyStorePassword | |||
spark.history.kerberos.enabled | |||
spark.history.kerberos.principal | |||
spark.history.kerberos.keytab | |||
spark.ui.filters | |||
spark.acls.enable | |||
spark.history.ui.acls.enable | |||
spark.history.ui.admin.acls | |||
spark.history.ui.admin.acls.groups | |||
livy-conf | livy.conf | livy.keystore | |
livy.keystore.password | |||
livy.spark.master | |||
livy.spark.deploy-mode | |||
livy.rsc.jars | |||
livy.repl.jars | |||
livy.rsc.pyspark.archives | |||
livy.rsc.sparkr.package | |||
livy.repl.enable-hive-context | |||
livy.superusers | |||
livy.server.auth.type | |||
livy.server.launch.kerberos.keytab | |||
livy.server.launch.kerberos.principal | |||
livy.server.auth.kerberos.principal | |||
livy.server.auth.kerberos.keytab | |||
livy.impersonation.enabled | |||
livy.server.access-control.enabled | |||
livy.server.access-control.* | |||
livy-env | livy-env.sh | ||
hive-site | hive-site.xml | javax.jdo.option. Koneksi URL | |
javax.jdo.option. Koneksi ionDriverName | |||
javax.jdo.option. Koneksi ionUserName | |||
javax.jdo.option. Koneksi ionPassword | |||
hive.metastore.uris | |||
hive.metastore.pre.event.listeners | |||
hive.security.authorization.enabled | |||
hive.security.metastore.authenticator.manager | |||
hive.security.metastore.authorization.manager | |||
hive.metastore.use.SSL | |||
hive.metastore.keystore.path | |||
hive.metastore.keystore.password | |||
hive.metastore.truststore.path | |||
hive.metastore.truststore.password | |||
hive.metastore.kerberos.keytab.file | |||
hive.metastore.kerberos.principal | |||
hive.metastore.sasl.enabled | |||
hive.metastore.execute.setugi | |||
hive.cluster.delegation.token.store.class | |||
hive-env | hive-env.sh |
Konfigurasi HDFS yang tidak didukung
Konfigurasi berikut hdfs
tidak didukung dan tidak dapat diubah dalam konteks Kluster Big Data.
Kategori | Sub-Kategori | File | Konfigurasi yang Tidak Didukung |
---|---|---|---|
situs inti | core-site.xml | fs.defaultFS | |
ha.zookeeper.quorum | |||
hadoop.tmp.dir | |||
hadoop.rpc.protection | |||
hadoop.security.auth_to_local | |||
hadoop.security.authentication | |||
hadoop.security.authorization | |||
hadoop.http.authentication.simple.anonymous.allowed | |||
hadoop.http.authentication.type | |||
hadoop.http.authentication.kerberos.principal | |||
hadoop.http.authentication.kerberos.keytab | |||
hadoop.http.filter.initializeers | |||
hadoop.security.group.mapping.* | |||
hadoop.security.key.provider.path | |||
mapred-env | mapred-env.sh | ||
hdfs-site | hdfs-site.xml | dfs.namenode.name.dir | |
dfs.datanode.data.dir | |||
dfs.namenode.acls.enabled | |||
dfs.namenode.datanode.registration.ip-hostname-check | |||
dfs.client.retry.policy.enabled | |||
dfs.permissions.enabled | |||
dfs.nameservices | |||
dfs.ha.namenodes.nmnode-0 | |||
dfs.namenode.rpc-address.nmnode-0.* | |||
dfs.namenode.shared.edits.dir | |||
dfs.ha.automatic-failover.enabled | |||
dfs.ha.fencing.methods | |||
dfs.journalnode.edits.dir | |||
dfs.client.failover.proxy.provider.nmnode-0 | |||
dfs.namenode.http-address | |||
dfs.namenode.httpS-address | |||
dfs.http.policy | |||
dfs.encrypt.data.transfer | |||
dfs.block.access.token.enable | |||
dfs.data.transfer.protection | |||
dfs.encrypt.data.transfer.cipher.suites | |||
dfs.https.port | |||
dfs.namenode.keytab.file | |||
dfs.namenode.kerberos.principal | |||
dfs.namenode.kerberos.internal.spnego.principal | |||
dfs.datanode.data.dir.perm | |||
dfs.datanode.address | |||
dfs.datanode.http.address | |||
dfs.datanode.ipc.address | |||
dfs.datanode.https.address | |||
dfs.datanode.keytab.file | |||
dfs.datanode.kerberos.principal | |||
dfs.journalnode.keytab.file | |||
dfs.journalnode.kerberos.principal | |||
dfs.journalnode.kerberos.internal.spnego.principal | |||
dfs.web.authentication.kerberos.keytab | |||
dfs.web.authentication.kerberos.principal | |||
dfs.webhdfs.enabled | |||
dfs.permissions.superusergroup | |||
hdfs-env | hdfs-env.sh | HADOOP_HEAPSIZE_MAX | |
zoo-cfg | zoo.cfg | secureClientPort | |
clientPort | |||
dataDir | |||
dataLogDir | |||
4lw.commands.whitelist | |||
zookeeper-java-env | java.env | ZK_LOG_DIR | |
SERVER_JVMFLAGS | |||
zookeeper-log4j-properties | log4j.properties (zookeeper) | log4j.rootLogger | |
log4j.appender.CONSOLE.* |
Catatan
Artikel ini berisi istilah whitelist, istilah Microsoft menganggap tidak sensitif dalam konteks ini. Istilah muncul dalam artikel ini karena saat ini muncul di perangkat lunak. Ketika istilah dihapus dari perangkat lunak, kami akan menghapusnya dari artikel.
Konfigurasi yang gateway
tidak didukung
Konfigurasi berikut gateway
untuk tidak didukung dan tidak dapat diubah dalam konteks Kluster Big Data.
Kategori | Sub-Kategori | File | Konfigurasi yang Tidak Didukung |
---|---|---|---|
gateway-site | gateway-site.xml | gateway.port | |
gateway.path | |||
gateway.gateway.conf.dir | |||
gateway.hadoop.kerberos.secured | |||
java.security.krb5.conf | |||
java.security.auth.login.config | |||
gateway.websocket.feature.enabled | |||
gateway.scope.cookies.feature.enabled | |||
ssl.exclude.protocols | |||
ssl.include.ciphers |
Langkah berikutnya
Saran dan Komentar
https://aka.ms/ContentUserFeedback.
Segera hadir: Sepanjang tahun 2024 kami akan menghentikan penggunaan GitHub Issues sebagai mekanisme umpan balik untuk konten dan menggantinya dengan sistem umpan balik baru. Untuk mengetahui informasi selengkapnya, lihat:Kirim dan lihat umpan balik untuk